JP6717486B1 - Extended virtual space providing system - Google Patents

Extended virtual space providing system Download PDF

Info

Publication number
JP6717486B1
JP6717486B1 JP2019203120A JP2019203120A JP6717486B1 JP 6717486 B1 JP6717486 B1 JP 6717486B1 JP 2019203120 A JP2019203120 A JP 2019203120A JP 2019203120 A JP2019203120 A JP 2019203120A JP 6717486 B1 JP6717486 B1 JP 6717486B1
Authority
JP
Japan
Prior art keywords
image
user
video
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019203120A
Other languages
Japanese (ja)
Other versions
JP2021077078A (en
Inventor
山口 聡
山口  聡
寧 角田
寧 角田
Original Assignee
株式会社Acw−Deep
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Acw−Deep filed Critical 株式会社Acw−Deep
Priority to JP2019203120A priority Critical patent/JP6717486B1/en
Application granted granted Critical
Publication of JP6717486B1 publication Critical patent/JP6717486B1/en
Publication of JP2021077078A publication Critical patent/JP2021077078A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザに対し、より高品質な拡張仮想空間を提供すること。【解決手段】ユーザの向きや位置を認識可能な情報を少なくとも含む計測情報を取得する計測部10と、ユーザXの略視線方向を含んだ生映像を取得する撮影部20と、生映像を基礎とする入力映像に対し任意の部分を除去した処理映像を生成する映像処理部30と、撮影映像、CG映像またはこれらの組合せ、からなる素材映像と、処理映像とを計測情報に基づいて組み合わせた合成映像を生成する合成部40と、合成映像をユーザXに表示する表示部50とを少なくとも有する。映像処理部30では、生映像を基礎とする入力映像の深度情報に基づいて所定の距離以上の深度情報を有する部分を除去して抽出空間Zを抽出するデプス系除去処理を実施する。さらに生映像を基礎とする入力映像に対して所定の色空間情報を有する部分を除去するクロマ系除去処理を実施してもよい。【選択図】図2PROBLEM TO BE SOLVED: To provide a user with a higher quality extended virtual space. SOLUTION: A measurement unit 10 that acquires measurement information including at least information that can recognize a direction and a position of a user, a photographing unit 20 that acquires a raw video image that includes a direction of a user's X line of sight, and a basic live video image. A video processing unit 30 that generates a processed video from which an arbitrary part is removed from the input video, a material video including a captured video, a CG video, or a combination thereof, and a processed video are combined based on measurement information. It has at least a combining unit 40 that generates a combined image and a display unit 50 that displays the combined image to the user X. The image processing unit 30 performs a depth-based removal process of extracting an extraction space Z by removing a portion having depth information of a predetermined distance or more based on depth information of an input image based on a raw image. Further, chroma-based removal processing for removing a portion having predetermined color space information may be performed on the input video based on the raw video. [Selection diagram] Figure 2

Description

本発明は、複数の映像を組み合わせてなる拡張仮想空間をユーザに視認可能なシステムに関し、より詳しくは、素材映像からなる仮想空間に、リアルタイムに撮影するユーザ周辺の生映像に映像処理を行った処理映像を組み合わせて、仮想空間にユーザの手足等を表示可能とすることで、あたかも仮想空間に現実のユーザが存在するように認識させることが可能な、拡張式の仮想現実提供システムに関する。 The present invention relates to a system in which a user can visually recognize an extended virtual space that is a combination of a plurality of videos, and more specifically, video processing is performed on a real video captured around a user in a virtual space composed of material videos in real time. The present invention relates to an augmented virtual reality providing system capable of displaying a user's limbs and the like in a virtual space by combining processed images so that the virtual space can be recognized as if a real user were present.

「R(Reality)」の付く技術として、「VR」「AR」「MR」などが知られている。
「VR」とは「Virtual Reality」の略であり「仮想現実」とも称される。これは、ユーザが装着するヘッドマウントディスプレイ(HMD)に仮想空間を表示することで、当該仮想空間の中にユーザ自身が実際に存在するような体験を提供可能としている。
"VR", "AR", "MR" and the like are known as technologies with "R (Reality)".
“VR” is an abbreviation for “Virtual Reality” and is also called “virtual reality”. This makes it possible to provide an experience in which the user himself/herself actually exists in the virtual space by displaying the virtual space on a head mounted display (HMD) worn by the user.

次に、「AR」とは「Augmented Reality」の略であり、「拡張現実」とも称される。これは、現実世界にCGなどで作るデジタル情報を加えるものであり、例えばスマートフォンのゲームアプリなどにおいて、スマートフォンの位置情報を用いて現実世界の風景に仮想現実のキャラクターを一緒に表示するよう構成することで、スマートフォンの画面を通して、あたかもその場にゲームのキャラクターが存在しているかのような体験を提供可能としている。
このように、「VR」が仮想空間を主とするのに対し、「AR」は現実空間を主とする点で、両者は基本的な考え方を異にしている。
Next, “AR” is an abbreviation for “Augmented Reality” and is also called “augmented reality”. This is to add digital information created by CG or the like to the real world. For example, in a game application of a smart phone, it is configured to display a virtual reality character together with the scenery of the real world using the position information of the smart phone. By doing so, it is possible to provide an experience through the screen of a smartphone as if the character of the game were present on the spot.
As described above, the "VR" is mainly in the virtual space, whereas the "AR" is mainly in the real space.

また、「MR」とは「Mixed Reality」の略であり、「複合現実」とも称される。これは、ユーザが装着する透過型のゴーグルやスマートグラスなどを介して現実世界に仮想世界を重ね合わせた世界をユーザに体験させるものである。
この「MR」は、先の「AR」と同様、現実空間を主としている考え方である。
Further, “MR” is an abbreviation for “Mixed Reality” and is also called “mixed reality”. This allows the user to experience a world in which the virtual world is superimposed on the real world through transparent goggles or smart glasses worn by the user.
This “MR” is a concept that mainly uses the physical space, like the above-mentioned “AR”.

ところで、出願人は過去に、以下の特許文献1に記載の技術を考案している。
この特許文献1に係る画像表字型シミュレーションサービス提供システムは、現実の画像情報(「現実空間」に相当)と、三次元仮想画像情報(「仮想空間」に相当)と、をモーションキャプチャー装置の計測情報に基づいて合成処理してなる合成画像情報を表示可能に構成している。
本技術では、現実世界である所定の広さを有する部屋の映像に、窓、家具、家電などのCG映像を合成してHMDに表示することにより、HMDを装着したユーザが、当該部屋をモデルルームとして体験可能に構成している。
これは、前記した「VR」「AR」「MR」のうち、「AR」または「MR」の考え方に沿った技術といえる。
By the way, the applicant has invented the technology described in Patent Document 1 below.
The image-chart type simulation service providing system according to Patent Document 1 provides real image information (corresponding to “real space”) and three-dimensional virtual image information (corresponding to “virtual space”) of a motion capture device. It is configured to be able to display combined image information obtained by combining processing based on measurement information.
In the present technology, a user wearing the HMD models the room by combining CG images of windows, furniture, home appliances, and the like with a CG image of a room having a predetermined size in the real world and displaying the combined image on the HMD. It is structured so that it can be experienced as a room.
It can be said that this is a technique in line with the concept of “AR” or “MR” among the “VR”, “AR”, and “MR” described above.

特開2017−146762号公報JP, 2017-146762, A

上記の「VR」「AR」「MR」の何れとも異なる概念として、出願人は、新たに「AVR」なる概念を着想・考案した。
この「AVR」とは「Advanced Virtual Reality」の略であり、「拡張仮想現実」と称する概念である。
これは、「VR」のように仮想空間を主としつつ、この仮想空間に現実空間のユーザ等を重ね合わせた空間(以下「拡張仮想空間」という。)を体験させるものである。
したがって、「AR」や「MR」が現実空間を主とするのに対し、「AVR」は仮想空間を主とする点において、両者は基本的な考え方を異にする。
この「AVR」による拡張仮想空間では、ユーザの近接領域や、その他、任意に設定された領域を現実空間として設定することにより、ユーザの身体やユーザが手にする物体など、現実空間に存在するものを仮想空間上に表示させることができるため、従来のVRとは異なる感覚をユーザに体験させることができるとの確信に至った。
As a concept different from any of the above-mentioned "VR", "AR" and "MR", the applicant newly conceived and devised a concept "AVR".
The “AVR” is an abbreviation for “Advanced Virtual Reality”, and is a concept called “augmented virtual reality”.
This is to experience a space (hereinafter referred to as "extended virtual space") in which a virtual space such as "VR" is mainly used and a user or the like in the real space is superimposed on the virtual space.
Therefore, “AR” and “MR” are mainly in the real space, whereas “AVR” is mainly in the virtual space, and the two have different basic ideas.
In the extended virtual space by this “AVR”, by setting the user's proximity area or other arbitrarily set area as the real space, the user's body or an object held by the user exists in the real space. Since it is possible to display things in the virtual space, it has been convinced that the user can experience a feeling different from the conventional VR.

上記した「AVR」の概念を実現するにあたり、以下に記載する課題のうち、少なくとも何れか1つの課題が見出された。
(1)ユーザの身体やユーザが手にする物などの映像部分を抽出して合成対象とする場合に、当該映像部分をより綺麗に抽出したい。
(2)現実の撮影映像からユーザの身体などを抽出するにあたり、カメラの撮影映像から求める深度情報や、3Dスキャナから取得する深度情報を用いる場合、ユーザの足元と部屋の床とを明確に区別して、ユーザの足元のみを現実空間としてより綺麗に抽出したい。
(3)合成対象の一方となる、現実の撮影映像からの抽出映像の生成処理の負荷を軽くしたい。
(4)合成作業の情報処理の負荷を軽くしたい。
In realizing the concept of "AVR" described above, at least one of the problems described below was found.
(1) When extracting a video part such as a user's body or an object held by the user for synthesis, it is desired to more beautifully extract the video part.
(2) When the depth information obtained from the captured image of the camera or the depth information obtained from the 3D scanner is used in extracting the user's body or the like from the captured image of the reality, the user's feet and the floor of the room are clearly separated. Separately, I want to more beautifully extract only the user's feet as a real space.
(3) It is desirable to reduce the load of the process of generating the extracted video from the actual captured video, which is one of the synthesis targets.
(4) I want to reduce the information processing load of the composition work.

したがって、本発明は、ユーザに対し、より高品質な拡張仮想空間を提供することが可能な手段の提供を目的の一つとするものである。 Therefore, an object of the present invention is to provide a means capable of providing a user with a higher quality extended virtual space.

上記課題を解決すべくなされた本願の第1発明は、複数の映像を組み合わせて生成した拡張仮想空間をユーザに体験させるための拡張仮想空間提供システムであって、前記ユーザの向きや位置を認識可能な情報を少なくとも含む計測情報を取得する、計測部と、前記ユーザの略視線方向を含んだ生映像を取得する、撮影部と、前記生映像を基礎とする入力映像に対し、任意の部分を除去した処理映像を生成する、映像処理部と、撮影映像、CG映像またはこれらの組合せ、からなる素材映像と、前記処理映像と、を前記計測情報に基づいて組み合わせた合成映像を生成する、合成部と、前記合成映像を前記ユーザに表示する、表示部と、を少なくとも有し、前記映像処理部が、前記生映像を基礎とする入力映像に対し、当該入力映像の深度情報の値に基づく除去処理であるデプス系除去処理と、前記デプス系除去処理を行った入力映像に対し、当該入力映像の色空間情報の値に基づく除去処理であるクロマ系除去処理を行って、前記処理映像とするものである。
また、本願の第発明は、前記第発明について、前記クロマ系除去処理が、前記入力映像のピクセル毎に有するHSV色空間情報が所定の範囲の色相かつ所定の彩度以上である場合に、当該ピクセルを除去する処理であることを特徴とするものである。
また、本願の第発明は、前記第発明または発明について、前記クロマ系除去処理に用いる前記所定の範囲の色相または彩度が、複数設定されていることを特徴とするものである。


The first invention of the present application made to solve the above problems is an extended virtual space providing system for allowing a user to experience an extended virtual space generated by combining a plurality of videos, and recognizes the direction and position of the user. A measurement unit that acquires measurement information including at least possible information, a capturing unit that acquires a raw video including the user's approximate line-of-sight direction, and an arbitrary portion with respect to an input video based on the raw video Generating a processed image from which a processed image is removed, a combined image including a material image including a video image, a captured image, a CG image or a combination thereof, and the processed image is generated based on the measurement information. a combining unit, for displaying the composite image to the user, includes a display unit, at least, the video processing unit, against the input image based upon the raw image, the value of the depth information of the input image A depth-based removal process that is a removal process based on the input image, and a chroma-based removal process that is a removal process based on the value of the color space information of the input image, for the input image that has been subjected to the depth-based removal process. It is what
A second invention of the present application is the same as the first invention, wherein, in the chroma removal processing, the HSV color space information included in each pixel of the input image has a hue within a predetermined range and a predetermined saturation or more. The process is to remove the pixel.
A third invention of the present application is characterized in that, in the first invention or the second invention, a plurality of hues or saturations in the predetermined range used for the chroma removal processing are set. ..


本発明によれば、以下に記載する効果のうち少なくとも何れか1つの効果を奏する。
(1)デプス系除去処理を行うことで、ユーザの身体を綺麗に抽出して合成映像に組み込むことができる。
(2)クロマ系除去処理を行うことで、ユーザの足元と部屋の床とを明確に区別して、ユーザの足元部分を綺麗に抽出することができる。
(3)デプス系除去処理が、深度情報と、設定した所定の距離とを比較する単純処理であるため、除去処理の速度が早くなる。
(4)デプス系除去処理と、クロマ系除去処理とを並行して実施することにより、合成作業の処理速度が早くなる。
(5)仮想の手足ではなくユーザの手足をそのまま視認できるため、VR酔いを低減できる。
(6)合成映像の生成速度が速いため、実際のユーザの手足の動きと、合成映像上のユーザの手足の動きとの間での遅延を抑えることができる。
According to the present invention, at least one of the effects described below is exhibited.
(1) By performing the depth system removal processing, the user's body can be beautifully extracted and incorporated into the composite video.
(2) By performing chroma removal processing, the user's feet and the floor of the room can be clearly distinguished, and the user's feet can be extracted neatly.
(3) Since the depth system removal process is a simple process of comparing the depth information with the set predetermined distance, the removal process speeds up.
(4) By performing the depth system removal processing and the chroma system removal processing in parallel, the processing speed of the combining operation becomes faster.
(5) VR sickness can be reduced because the user's limbs can be visually recognized as they are, instead of the virtual limbs.
(6) Since the synthetic video is generated at a high speed, it is possible to suppress the delay between the actual movement of the limbs of the user and the movement of the limbs of the user on the synthetic video.

本発明に係る拡張仮想空間提供システムの機能ブロック図。The functional block diagram of the extended virtual space provision system which concerns on this invention. 本発明に係る拡張仮想空間提供システムの装置構成図。The apparatus block diagram of the extended virtual space provision system which concerns on this invention. 拡張仮想空間の生成例(1)を示すイメージ図。FIG. 6 is an image diagram showing a generation example (1) of an extended virtual space. 拡張仮想空間の生成例(2)を示すイメージ図。The image figure which shows the example (2) of generation of extended virtual space. 映像処理部での除去処理を並行実施する場合のイメージ図。FIG. 5 is an image diagram when the removal processing in the video processing unit is performed in parallel.

以下、各図面を参照しながら、本発明の実施例について説明する。 Embodiments of the present invention will be described below with reference to the drawings.

<1>機能構成(図1)
図1に、本発明に係る拡張仮想空間提供システムの機能ブロック図を示す。
本発明に係る拡張仮想空間提供システムは、ユーザの居室空間に設置するシステムであり、当該ユーザに、複数の映像を組み合わせてなる合成映像を視認させることで、従来のVRとは異なる感覚をユーザに体験させることを可能としたシステムである。
本システムは、ユーザの計測情報を取得する計測部10と、ユーザの略視線方向の生映像を取得する撮影部20と、撮影部20で取得した生映像を基礎として映像処理を行う映像処理部30と、複数の映像を組み合わせてなる合成映像を生成する合成部40、および合成映像をユーザに表示する表示部50と、としての機能を少なくとも持たせている。
以下、各部の詳細について説明する。
<1> Functional configuration (Fig. 1)
FIG. 1 shows a functional block diagram of an extended virtual space providing system according to the present invention.
The extended virtual space providing system according to the present invention is a system installed in a user's living space, and by allowing the user to visually recognize a composite video formed by combining a plurality of videos, the user feels different from the conventional VR. It is a system that makes it possible for anyone to experience.
The present system includes a measuring unit 10 that acquires measurement information of a user, a photographing unit 20 that acquires a raw image of a user's approximate line-of-sight direction, and an image processing unit that performs image processing based on the raw image acquired by the photographing unit 20. 30 and at least a function as a synthesizing unit 40 that generates a synthetic image that is a combination of a plurality of images, and a display unit 50 that displays the synthetic image to the user.
The details of each unit will be described below.

<2>計測部(図1)
計測部10は、ユーザの計測情報を取得する機能を具備する装置である。
前記「計測情報」とは、ユーザの向きや位置を認識可能な情報を少なくとも含むものであり、この計測情報に基づいて合成映像を生成したり、ユーザに視認させる合成映像を制御したりすることができる。
計測部10は、角度センサ、加速度センサ、ジャイロスコープなどのセンサ群、モーションキャプチャー装置、GPS装置などを用いることができる。
また、計測部10は、居室空間に設置するタイプ、ユーザが装着するヘッドマウントディスプレイに内蔵されているタイプ、ユーザの身体に別途装着するタイプ、ユーザが把持するタイプなど、あらゆるタイプが含まれる。
<2> Measuring unit (Fig. 1)
The measuring unit 10 is a device having a function of acquiring measurement information of a user.
The “measurement information” includes at least information that allows the orientation and position of the user to be recognized. Based on this measurement information, a synthetic image is generated or a synthetic image to be visually recognized by the user is controlled. You can
The measurement unit 10 can use an angle sensor, an acceleration sensor, a sensor group such as a gyroscope, a motion capture device, and a GPS device.
Further, the measuring unit 10 includes all types such as a type installed in a living room, a type built in a head mounted display worn by a user, a type separately mounted on a user's body, and a type held by a user.

<3>撮影部(図1)
撮影部20は、ユーザの略視線方向を含んだ生映像を取得する機能を具備する装置である。
前記「生映像」とは、ユーザの略視線方向を含んだ現実空間を撮影した映像であり、すなわちユーザの居室空間が映し出された映像である。
撮影部20は、ヘッドマウントディスプレイに内蔵されているカメラ、ヘッドマウントディスプレイに外付けするカメラ、その他ユーザが装着可能な態様を呈するカメラを用いることができる。
また、本発明において、撮影部20は少なくとも略視線方向の生映像を撮影できるカメラであれば足りるが、撮影部20としてユーザの周囲全周を撮影可能なカメラなどを除外するものではない。
<3> Imaging unit (Fig. 1)
The image capturing unit 20 is a device having a function of acquiring a live image including the direction of the user's line of sight.
The "live image" is an image obtained by shooting a real space including the user's line-of-sight direction, that is, an image showing the user's living space.
The imaging unit 20 may be a camera built in the head mounted display, a camera externally attached to the head mounted display, or a camera that can be worn by the user.
Further, in the present invention, the photographing unit 20 is sufficient as long as it is a camera capable of photographing a raw image at least in the direction of the line of sight, but a camera capable of photographing the entire circumference of the user as the photographing unit 20 is not excluded.

<4>映像処理部(図1)
映像処理部30は、撮影部20で取得した生映像を基礎とする入力映像から、合成対象である現実空間側の映像(処理映像)を生成する機能を具備する装置である。
前記「入力映像」とは、撮影部20で取得した生映像を基礎とする映像であり、具体的には、撮影部20で取得した生映像そのものや、当該生映像を当該映像処理部30で映像処理を施したあとの映像なども含まれる。
映像処理部30は、情報処理装置が備えるCPU,メモリ,GPUなどのハードウェアをソフトウェアによる制御でもって構成することができる。
<4> Video processing unit (Fig. 1)
The image processing unit 30 is a device having a function of generating an image (processed image) on the real space side that is a synthesis target from an input image based on a raw image acquired by the image capturing unit 20.
The “input video” is a video based on the raw video acquired by the shooting unit 20, and specifically, the live video itself acquired by the shooting unit 20 or the live video by the video processing unit 30. It also includes images that have been subjected to image processing.
The video processing unit 30 can be configured with hardware such as a CPU, a memory, and a GPU included in the information processing device under the control of software.

<4.1>各処理の概要
本実施例では、映像処理部30で行う映像処理が、デプス系除去処理とクロマ系除去処理の二種類に分かれている。
本発明では、これらの映像処理を順不同かつ回数を問わずに実施して、まとめて一つの処理映像Eを生成してもよいし、同一の入力映像に対し並行して個別にデプス系除去処理とクロマ系除去処理とを行ったものをそれぞれ用意して二つの処理映像Eを生成してもよい。
以下、各映像処理の詳細について説明する。
<4.1> Overview of Processes In the present embodiment, the video processing performed by the video processing unit 30 is divided into two types: depth-based removal processing and chroma-based removal processing.
In the present invention, these video processing may be performed in any order and regardless of the number of times to collectively generate one processed video E. Alternatively, the same input video may be separately processed in parallel with the depth removal processing. The two processed images E may be generated by preparing the respective processed images and the chroma removal processing.
The details of each video process will be described below.

<4.2>デプス系除去処理
デプス系除去処理は、生映像を基礎とする入力映像について、当該入力映像の深度情報の値に基づいた除去を行う処理である。
入力映像の深度情報は、撮影部20による生映像に予め埋め込まれているデータや、生映像を画像解析して別途生成するデータ、別途設けた3Dスキャナから得られるデータなどを用いることができる。
<4.2> Depth-based removal processing The depth-based removal processing is processing for performing removal on an input video based on a raw video based on the depth information value of the input video.
As the depth information of the input video, data embedded in the raw video by the image capturing unit 20, data separately generated by image analysis of the raw video, data obtained from a separately provided 3D scanner, or the like can be used.

<4.2.1>デプス系除去処理の例
デプス系除去処理の一例としては、入力映像に対し、該入力映像の深度情報に基づいて所定の距離以上の深度情報を有する部分を除去する処理が考えられる。
その他、本発明では、除去対象とする深度情報の特定に、ユーザからの相対距離の情報だけでなく、ユーザの向き(角度情報)や、これらの絶対値を用いても良い。
例えば、ユーザから所定の角度の範囲を呈する平面視して略扇型を呈する柱空間を現実空間とし、その余の空間を仮想空間とするよう除去処理を行うことができる。
また、ユーザを略中心とする平面視して矩形状を呈する柱空間を現実空間とし、その余の空間を仮想空間とするように除去処理を行うこともできる。
これらは、ユーザに体験させる拡張仮想空間のシチュエーションによって適宜決定すればよい。
<4.2.1> Example of Depth System Removal Process As an example of the depth system removal process, a process of removing a portion having depth information of a predetermined distance or more based on the depth information of the input image from the input image. Is possible.
In addition, according to the present invention, not only the information on the relative distance from the user but also the direction (angle information) of the user and their absolute values may be used to specify the depth information to be removed.
For example, the removal process can be performed so that the pillar space that exhibits a substantially fan shape in a plan view in the range of a predetermined angle from the user is the real space and the remaining space is the virtual space.
Further, it is also possible to perform the removal processing so that the pillar space having a rectangular shape in a plan view with the user substantially in the center is the real space and the remaining space is the virtual space.
These may be appropriately determined depending on the situation of the extended virtual space that the user experiences.

<4.3>クロマ系除去処理
クロマ系除去処理は、前記生映像を基礎とする入力映像について、当該入力映像の色空間情報の値に基づいた除去を行う処理であり、より詳細には、入力映像に対しユーザの居室空間に配置してある背景材の均質色に対応する部分を除去して、当該除去部分に他の映像を合成可能とする処理である。
クロマ系除去処理は、RGB,RGBA,CMY,HSV,HLSなどの周知の色空間情報に基づき、各色空間で定義される要素および数値範囲の中で所定の範囲を設定することによって、特定の均質色に対応する部分を除去する。
本実施例では、HSV色空間情報を用いてクロマ系除去処理を行っている。HSV色空間情報は、色相(hue:0°〜360°)、彩度(saturation:0%〜100%)、明度(value:0%〜100%)を含んだ情報である。
本発明に係るシステムの開発にあたり試行錯誤を図っていく中で、本発明者は、明度を問わず、色相および彩度について所定の範囲設定を施した場合に、背景材の均質色に対応する部分が高速かつ綺麗に除去されることを見出した。
したがって、本発明では、クロマ系除去処理を、入力映像のピクセル毎に有するHSV色空間情報が所定の範囲の色相かつ所定の彩度以上である場合に、当該ピクセルを除去する処理とすることが好ましい。
<4.3> Chroma-based Removal Processing The chroma-based removal processing is processing for removing the input video based on the raw video based on the value of the color space information of the input video. More specifically, This is a process for removing a portion corresponding to the uniform color of the background material arranged in the user's living room from the input image and allowing another image to be combined with the removed portion.
The chroma removal processing is based on well-known color space information such as RGB, RGBA, CMY, HSV, and HLS, and sets a predetermined range among the elements and numerical ranges defined in each color space to achieve a specific homogeneity. The part corresponding to the color is removed.
In this embodiment, the chroma system removal processing is performed using the HSV color space information. The HSV color space information is information including hue (hue: 0° to 360°), saturation (saturation: 0% to 100%), and lightness (value: 0% to 100%).
In the course of trial and error in developing the system according to the present invention, the present inventor responds to a uniform color of the background material when a predetermined range of hue and saturation is set regardless of the lightness. It was found that the part was removed quickly and cleanly.
Therefore, in the present invention, the chroma removal processing may be processing to remove the pixel when the HSV color space information for each pixel of the input image has a hue in a predetermined range and a predetermined saturation or more. preferable.

<4.4>映像処理の好適例
各除去処理について順番および回数を問わない点や、複数の処理映像を生成しても良い点については既に前述した通りである。
その中でも、現段階でのシステムを構成する各装置の性能とコストとのバランスを取った場合、生映像に対し、デプス系除去処理を行った映像に対し、クロマ系除去処理を行う手順を採用する手順が、合成対象の現実空間側にあたる処理映像の高速生成と明瞭な抽出のバランスに優れることが判明した。
これは、ユーザに対し、明らかに所定の距離以上離れた空間の箇所は、デプス系処理で予め除去しておき、当該除去箇所についてクロマ系除去処理を行わないようにすることで、映像処理を高速化できたことに起因するものと考えられる。
これは、ユーザの近接周りのみを現実空間とし、ユーザから所定の距離以上離れた空間を仮想空間で視認させる場合において有効である。
<4.4> Preferable Example of Video Processing As described above, the order and the number of times of each removal processing are not limited, and a plurality of processed videos may be generated.
Among them, if the performance and cost of each device that composes the system at the current stage is balanced, the procedure to perform chroma removal processing on the video that has been subjected to depth removal processing on the raw video is adopted. It was found that the procedure to be performed has an excellent balance between high-speed generation and clear extraction of the processed image corresponding to the real space side of the synthesis target.
This is because image processing is performed by removing a portion of a space apparently separated by a predetermined distance or more from the user by depth processing in advance and not performing chroma removal processing on the removed portion. It is considered that this is due to the fact that the speed was improved.
This is effective in the case where only the vicinity of the user is set as the real space and the space away from the user by a predetermined distance or more is visually recognized in the virtual space.

<5>合成部(図1)
合成部40は、複数の映像を計測部10で得た計測情報に基づいて組み合わせてなる合成映像Gを生成する機能を具備する装置である。
合成対象となる映像情報は、前記映像処理部30で生成した少なくとも一つ以上の処理映像と、予め保存または前記生映像とは別に生成される、素材映像と、からなる。
素材映像は、現実の場所を撮影してなる撮影映像またはCG映像、もしくはこれらの組合せ映像を用いることができる。
処理映像は、拡張仮想空間における現実空間側の映像に相当し、前記映像処理部30で除去された部分に合成された素材映像が、拡張仮想空間における仮想空間に相当する。
合成部40は、情報処理装置が備えるCPU,メモリ,GPUなどのハードウェアをソフトウェアによる制御でもって構成することができる。
<5> Synthesis part (Fig. 1)
The synthesizing unit 40 is a device having a function of generating a synthesized image G by combining a plurality of images based on the measurement information obtained by the measuring unit 10.
The image information to be combined includes at least one or more processed images generated by the image processing unit 30 and a material image that is stored in advance or generated separately from the raw image.
As the material image, a captured image obtained by capturing an actual place, a CG image, or a combination image thereof can be used.
The processed image corresponds to the image on the real space side in the extended virtual space, and the material image combined with the portion removed by the image processing unit 30 corresponds to the virtual space in the extended virtual space.
The synthesizing unit 40 can be configured with hardware such as a CPU, a memory, and a GPU included in the information processing device under software control.

<6>表示部(図1)
表示部50は、合成部40で生成した合成映像を、ユーザに表示する機能を具備する装置である。
表示部50は、VRで使用可能な、ヘッドマウントディスプレイ、ゴーグルなどを使用でき、その他にも、ハウジングに収容してゴーグル化可能なスマートフォンなどの携帯端末などを用いることができる。
<6> Display (Fig. 1)
The display unit 50 is a device having a function of displaying the combined video generated by the combining unit 40 to the user.
For the display unit 50, a head mount display, goggles, or the like that can be used in VR can be used, and in addition, a mobile terminal such as a smartphone that can be housed in a housing and made into goggles can be used.

<7>装置構成例(図2)
図2に、本発明に係る拡張仮想空間提供システムの装置構成図を示す。
図2では、本発明に係る拡張仮想空間提供システムを、ユーザXが装着するヘッドマウントディスプレイA、居室空間Yに設置する情報処理装置B、および、居室空間Yに適宜配置する背景材Cで構成している。
そして、ユーザXの略視線方向の任意の領域が、拡張仮想空間を構成する合成映像に含まれる抽出空間Zとして設定されている。
この抽出空間Zは、前記した映像処理部におけるデプス系除去処理で用いられる所定の距離の設定値によって区画される。
<7> Device configuration example (Fig. 2)
FIG. 2 shows a device configuration diagram of the extended virtual space providing system according to the present invention.
In FIG. 2, the extended virtual space providing system according to the present invention is configured with a head mounted display A worn by a user X, an information processing device B installed in a living room space Y, and a background material C appropriately placed in the living room space Y. doing.
Then, an arbitrary region in the direction of the line of sight of the user X is set as the extraction space Z included in the combined video forming the extended virtual space.
The extraction space Z is partitioned by the set value of the predetermined distance used in the depth removal processing in the video processing unit described above.

<7.1>ヘッドマウントディスプレイ(図2)
ヘッドマウントディスプレイAには、ユーザXの計測情報を取得する計測部10と、ユーザXの略視線方向の生映像を取得する撮影部20と、合成映像をユーザXに表示する表示部50の機能を少なくとも持たせている。
本実施例では、計測部10に、ヘッドマウントディスプレイAに内蔵している、角度センサ、加速度センサ、ジャイロスコープなどのセンサ群を用い、撮影部20に、ヘッドマウントディスプレイAの前面に外付けしたデュアルカメラを用い、表示部50に、ヘッドマウントディスプレイA内のディスプレイ部分を用いている。
撮影部20を構成するデュアルカメラで撮影した生映像は、各カメラで撮影した映像の視差を利用して深度情報を生成することができる。
<7.1> Head mounted display (Fig. 2)
The head-mounted display A has a function of a measurement unit 10 that acquires measurement information of the user X, a photographing unit 20 that acquires a raw image of the user X in a substantially line-of-sight direction, and a display unit 50 that displays a composite image to the user X. Have at least.
In this embodiment, the measuring unit 10 uses a sensor group such as an angle sensor, an acceleration sensor, and a gyroscope built in the head mounted display A, and the photographing unit 20 is externally attached to the front surface of the head mounted display A. A dual camera is used, and the display portion 50 uses the display portion in the head mounted display A.
For a raw video image captured by the dual cameras constituting the image capturing unit 20, depth information can be generated by using the parallax of the video image captured by each camera.

<7.2>情報処理装置(図2)
情報処理装置Bには、撮影部20で取得した生映像を基礎として映像処理を行う映像処理部30、複数の映像を組み合わせてなる合成映像を生成する、合成部40の機能を少なくとも持たせている。
また、情報処理装置には、合成対象の一つである撮影映像、CG映像またはこれらの組合せ、からなる素材映像を保管またはリアルタイムに外部取得可能に構成している。
<7.2> Information processing device (FIG. 2)
The information processing apparatus B has at least the functions of a video processing unit 30 that performs video processing on the basis of the raw video acquired by the imaging unit 20, and a synthesis unit 40 that generates a synthetic video that combines a plurality of videos. There is.
In addition, the information processing apparatus is configured to be able to store or externally acquire in real time a material video composed of a captured video, a CG video, or a combination thereof, which is one of the composition targets.

<7.3>背景材(図2)
背景材Cは、クロマ系除去処理によってピクセルを除去する領域を特定するための機能を持った物体である。
なお、本発明における背景材Cは、図2に示すシート状物に限定されず、テープや塗料も含まれる。
例えば、ユーザXが持つ物体(ゲーム用とでは銃や剣など、工事現場のシミュレーションでは、ハンドカッターや重機のハンドルなど)を、均質色を呈するテープを巻き付けたり、均質色を呈する塗料を塗布したりすれば、当該部分をクロマ系除去処理によって除去しつつこれらの物体の仮想映像となる素材映像を合成するような処理も可能である。
また、ユーザXが座るための椅子や、ユーザXを宙づりにするための治具なども、クロマ系除去処理に用いる均質色に対応した着色加工を施せば背景材Cとなる。
<7.3> Background material (Fig. 2)
The background material C is an object having a function of specifying a region in which pixels are removed by the chroma removal processing.
The background material C in the present invention is not limited to the sheet-like material shown in FIG. 2 and includes tapes and paints.
For example, an object (for example, a gun or a sword for a game, a hand cutter or a handle of a heavy machine in a construction site simulation) held by the user X is wrapped with a tape having a uniform color, or a paint having a uniform color is applied. If this is the case, it is also possible to perform processing such as synthesizing the material images that are virtual images of these objects while removing the portions by the chroma removal processing.
Further, a chair on which the user X sits, a jig for suspending the user X, and the like become the background material C when the coloring process corresponding to the uniform color used for the chroma removal processing is performed.

<8>拡張仮想空間の生成例(1)(図3)
図3に、本システムを用いた拡張仮想空間の生成例(1)を示す。
先に説明した図2では、居室空間Yの壁に背景材Cを配置しており、ユーザXは居室空間Yの壁側を向いて自己の両手をヘッドマウントディスプレイAの前にかざした姿勢を呈している。
このとき、撮影部20で撮影した生映像Dは、図3(a)に示すように均質色で覆われた背景を示しており、その手前にユーザXの両手が映った状態である。
この生映像Dに対し、まず、映像処理部30でもってデプス系除去処理を実施すると、図3(b)のように、ユーザX(より正確にはカメラ)から所定の距離以上の深度情報を持った部分が除去された処理映像E1が生成される。
このとき、生映像Dに基づく深度情報の精度が低い場合、指の間の隙間部分が上手く除去できずに、奥の背景材Cの均質色が残ってしまう場合がある。
そこで、デプス系除去処理を施した処理映像E1に、さらにクロマ系除去処理を実施すると、図3(c)のように、指の間の均質色部分が除去された処理映像E2が生成される。
合成部40は、図3(c)に示した処理映像E2と、図3(d)に示した素材映像Fとを、計測部10で取得した計測情報に基づいて組み合わせた合成映像Gを生成して、ヘッドマウントディスプレイAの表示部50に送信する。
<8> Generation example of extended virtual space (1) (FIG. 3)
FIG. 3 shows an example (1) of generating an extended virtual space using this system.
In FIG. 2 described above, the background material C is arranged on the wall of the living room Y, and the user X faces the wall of the living room Y and holds his or her hands in front of the head mounted display A. Presents.
At this time, the raw image D captured by the image capturing unit 20 shows a background covered with a uniform color as shown in FIG. 3A, and both hands of the user X are in front of them.
When depth processing is first performed on the raw image D by the image processing unit 30, depth information of a predetermined distance or more from the user X (more accurately, the camera) is obtained as shown in FIG. 3B. The processed image E1 from which the held portion is removed is generated.
At this time, if the accuracy of the depth information based on the raw image D is low, the gap between the fingers may not be properly removed, and a uniform color of the background material C at the back may remain.
Therefore, when the chroma removal processing is further performed on the processed video E1 subjected to the depth removal processing, the processed video E2 from which the uniform color portion between the fingers is removed is generated as shown in FIG. 3C. ..
The combining unit 40 generates a combined image G by combining the processed image E2 illustrated in FIG. 3C and the material image F illustrated in FIG. 3D based on the measurement information acquired by the measuring unit 10. Then, it is transmitted to the display unit 50 of the head mounted display A.

<8.1>クロマ系除去処理のみとしない理由(実用上の観点)
なお、図3に示したイメージ図では、図3(b)に係るデプス系除去処理を行わずに、図3(a)に示す生映像Dから直ちにクロマ系除去処理を行っても、理論上図3(d)と同様の合成映像Gを得ることはできる。
しかし、クロマ系除去処理のみを行うことを前提としたシステムでは、居室空間Yの全周にわたって背景材Cを設置する必要が生じる点で利便性に難がある。例えば、居室空間Yの天井部分に背景材Cを配置する作業は労を要するため、回避したい作業の一つである。
そこで、居室空間の天井部分には背景材Cを配置せずに、少なくとも当該天井部分についてはデプス系除去処理を行った処理映像Eを提供するように構成すれば、比較的合成品質の高い合成映像Gを生成することができる。
<8.1> Reasons for not using only chroma removal processing (from a practical point of view)
In the image diagram shown in FIG. 3, even if the chroma removal processing is performed immediately from the raw image D shown in FIG. 3A without performing the depth removal processing according to FIG. It is possible to obtain the same composite image G as in 3(d).
However, in a system that is premised on performing only the chroma removal processing, it is necessary to install the background material C over the entire circumference of the living room space Y, which is not convenient. For example, the work of arranging the background material C on the ceiling portion of the living room space Y is laborious, and is one of the work to be avoided.
Therefore, if the background material C is not arranged on the ceiling portion of the living room space and the processed image E subjected to the depth system removal processing is provided on at least the ceiling portion, the composite image having a relatively high composite quality is obtained. The image G can be generated.

<9>拡張仮想空間の生成例(2)(図4)
図4に、本システムを用いた拡張仮想空間の生成例(2)を示す。
先に説明した図2から、ユーザXが居室空間Yの床側を向いた場合を仮定する。
なお、居室空間Yの床には、ユーザXが立っている箇所に部分的に背景材Cが設置されている状態である。
このとき、撮影部20で撮影した生映像Dは、図4(a)に示すように背景材Cの均質色で覆われた部分と、床Y1が映った状態である。
この生映像Dに対し、まず、映像処理部30でもってデプス系除去処理を実施すると、図4(b)のように、ユーザX(より正確には撮影部20)から所定の距離以上の深度情報を持った部分が除去された処理映像E1が生成される。
このとき、ユーザXからみた足元部分までの距離と床までの距離とには大差が無いことから、デプス系除去処理を行ったとしても、足元部分のみを上手く抽出できずに、足元部分の周囲の均質色が残っている場合がある。
そこで、デプス系除去処理を施した処理映像E1に、さらにクロマ系除去処理を実施すると、図4(c)のように、足元の周囲に残った均質色部分が除去された処理映像E2が生成される。
図4(d)は、図4(c)の処理映像E2に素材映像Fを組み合わせた合成映像Gである。この素材映像Fは、高層ビルの端に立ったユーザXが、地上を見下ろしている時の映像である。このようなシチュエーションでは、ユーザXの足元部分が綺麗に抽出されて合成されていると、没入感の観点からもメリットが大きい。
<9> Generation example of extended virtual space (2) (FIG. 4)
FIG. 4 shows an example (2) of generating an extended virtual space using this system.
From FIG. 2 described above, it is assumed that the user X faces the floor side of the living space Y.
The background material C is partially installed on the floor of the living room space Y where the user X stands.
At this time, as shown in FIG. 4A, the raw image D captured by the image capturing unit 20 shows the portion of the background material C covered with the uniform color and the floor Y1.
When the depth processing removal process is first performed on the raw image D by the image processing unit 30, as shown in FIG. 4B, a depth of a predetermined distance or more from the user X (more accurately, the imaging unit 20). A processed image E1 from which the information-bearing portion has been removed is generated.
At this time, since there is no great difference between the distance from the user X to the foot portion and the distance to the floor, even if the depth system removal processing is performed, only the foot portion cannot be extracted well, and the surroundings of the foot portion cannot be extracted. The uniform color of may remain.
Therefore, when the chroma removal processing is further performed on the processed video E1 that has been subjected to the depth removal processing, a processed video E2 from which the uniform color portion remaining around the feet is removed is generated as shown in FIG. 4C. To be done.
FIG. 4D is a composite video G in which the material video F is combined with the processed video E2 of FIG. 4C. This material image F is an image when the user X standing on the edge of a high-rise building is looking down on the ground. In such a situation, if the foot portion of the user X is beautifully extracted and combined, there is a great advantage from the viewpoint of immersive feeling.

<10>拡張仮想空間の特徴
本発明に係る拡張仮想空間の特徴について説明する。
図3や図4で示した合成映像Gからなる拡張仮想空間は、素材映像Fによる仮想空間が周囲に展開されつつ、ユーザXの近傍の領域ではリアルタイムに撮影されているユーザX自身の手足や服が映っているため、ユーザXはあたかも自分の身体ごと仮想空間に移動した印象を体験することができる。
<10> Features of Extended Virtual Space Features of the extended virtual space according to the present invention will be described.
In the expanded virtual space composed of the composite video G shown in FIGS. 3 and 4, while the virtual space of the material video F is expanded around, the limbs of the user X himself/herself which are photographed in real time in the area near the user X and Since the clothes are reflected, the user X can experience the impression that he/she moved to the virtual space with his/her own body.

[没入感の向上]
この結果、従来、モーションキャプチャー装置などでユーザXの姿勢や動きを検出して仮想空間上に仮想の手足を表示した場合と比較して、本発明に係る拡張仮想空間は、ユーザXの没入感の向上に寄与している。
[Improvement of immersion]
As a result, the extended virtual space according to the present invention is more immersive for the user X than in the conventional case where the posture and movement of the user X are detected by a motion capture device and the virtual limbs are displayed in the virtual space. Contributes to the improvement of

[VR酔いの低減]
また、本発明に係る拡張仮想空間は、従来のVRのように仮想空間上に仮想の手足を表示した場合と比較して、ユーザXのVR酔いの低減効果が確認されている。
この効果に対する明確な理由は、未だ明らかにされてはいないものの、例えば以下の理由が考えられる。
理由1:仮想の手足ではなくユーザXの手足をそのまま視認できることから、より現実空間に近い感覚で空間を認識できているため。
理由2:デプス系除去処理は、深度情報と、設定した所定の距離との間で値を比較する単純処理であり処理速度が早いことから、実際のユーザXの手足の動きと合成映像G上のユーザXの手足の動きとの間の遅延が少なく追従製に優れる結果、ユーザXの違和感が生じないため。
[Reduction of VR sickness]
In addition, the effect of reducing VR sickness of the user X has been confirmed in the expanded virtual space according to the present invention as compared to the case where virtual limbs are displayed in the virtual space like the conventional VR.
Although the clear reason for this effect has not been clarified yet, the following reasons are considered, for example.
Reason 1: Because the limbs of the user X can be visually recognized as they are instead of the virtual limbs, the space can be recognized with a feeling closer to the real space.
Reason 2: The depth system removal process is a simple process of comparing the values between the depth information and the set predetermined distance and has a high processing speed. Therefore, the actual movement of the limbs of the user X and the composite image G Since there is little delay between the movement of the limbs of the user X and excellent followability, the user X does not feel uncomfortable.

[各除去処理の並行実施](図5)
本発明では、映像処理部30におけるデプス系除去処理と、クロマ系除去処理とを並行実施し、それぞれの結果を処理映像として合成対象とするように構成してもよい。
図5に、本実施例に係る合成映像Gの生成イメージを示す。
図5に示すように、撮影部20から取得した生映像Dに対し、別々にデプス系除去処理と、クロマ系除去処理とを行い、それぞれ生成した処理映像E1,E2と、素材映像Fとを合成して、合成映像Gを生成することができる。
このとき、デプス系除去処理が行われた処理映像E2で残されている背景材Cの均質色部分が合成映像Gに反映されないように制御すればよい。
例えば、一方の処理映像Eで除去された部分については他方の処理映像Eで残された部分があったとしても当該部分を合成映像Gに反映させないように制御する方法や、複数の処理映像E1,E2にそれぞれ優先度を設定する方法などが考えられる。
[Parallel execution of each removal process] (Fig. 5)
In the present invention, the depth-based removal processing and the chroma-based removal processing in the video processing unit 30 may be performed in parallel, and the respective results may be subject to synthesis as processed video.
FIG. 5 shows a generation image of the composite video G according to this embodiment.
As shown in FIG. 5, the depth image removing process and the chroma image removing process are separately performed on the raw image D acquired from the imaging unit 20, and the generated image images E1 and E2 and the material image F are generated. By synthesizing, a synthetic image G can be generated.
At this time, the uniform color portion of the background material C remaining in the processed image E2 on which the depth system removal processing has been performed may be controlled so as not to be reflected in the combined image G.
For example, with respect to a part removed in one processed image E, even if there is a part left in the other processed image E, a method of controlling so that the part is not reflected in the combined image G, or a plurality of processed images E1 , E2 may be set with respective priorities.

[クロマ系除去処理の複数実施](図示せず)
本発明では、前記した映像処理部30において、クロマ系除去処理を色空間情報の異なる設定値を複数用意して、複数回実行するように構成してもよい。
例えば、居室空間Yに配置する背景材Cを、例えば青系の背景材Cと、緑系の背景材Cとに分けておくことにより、青系のクロマ系除去処理を行った箇所に合成する映像と、緑系のクロマ系除去処理を行った箇所に合成する映像とを変えることができる。
[Multiple chroma processing removal processes] (not shown)
In the present invention, the video processing unit 30 may be configured to prepare a plurality of setting values with different color space information and execute the chroma removal processing a plurality of times.
For example, by dividing the background material C arranged in the living room space Y into, for example, a blue background material C and a green background material C, the background material C is combined with the location where the bluish chroma removal processing is performed. It is possible to change the image and the image to be combined with the location where the green chroma removal processing has been performed.

[デプス系除去のみ](図示せず)
本発明では、前記した映像処理部30において、デプス系除去処理のみを行うように構成してもよい。
例えば、ユーザXに体験させる拡張仮想空間が、ユーザXからみて側周方向および上方向に展開されている場合などでは、デプス系除去処理のみによっても、比較的品質の高い合成映像GをユーザXに視認させることができる。
[Depth removal only] (not shown)
In the present invention, the video processing unit 30 may be configured to perform only the depth system removal processing.
For example, when the expanded virtual space to be experienced by the user X is expanded in the circumferential direction and the upward direction when viewed from the user X, a relatively high quality composite image G can be obtained by the user X even by only the depth system removal processing. Can be visually confirmed.

10 計測部
20 撮影部
30 映像処理部
40 合成部
50 表示部
X ユーザ
Y 居室空間
Y1 床
Z 抽出空間
A ヘッドマウントディスプレイ
B 情報処理装置
C 背景材
D 生映像
E 処理映像
F 素材映像
G 合成映像
10 Measuring Unit 20 Photographing Unit 30 Image Processing Unit 40 Synthesizing Unit 50 Display Unit X User Y Living Room Space Y1 Floor Z Extraction Space A Head Mounted Display B Information Processing Device C Background Material D Raw Video E Processed Video F Material Video G Composite Video

Claims (3)

複数の映像を組み合わせて生成した拡張仮想空間をユーザに体験させるための拡張仮想空間提供システムであって、
前記ユーザの向きや位置を認識可能な情報を少なくとも含む計測情報を取得する、計測部と、
前記ユーザの略視線方向を含んだ生映像を取得する、撮影部と、
前記生映像を基礎とする入力映像に対し、任意の部分を除去した処理映像を生成する、映像処理部と、
撮影映像、CG映像またはこれらの組合せ、からなる素材映像と、前記処理映像と、を前記計測情報に基づいて組み合わせた合成映像を生成する、合成部と、
前記合成映像を前記ユーザに表示する、表示部と、
を少なくとも有し、
前記映像処理部が、
前記生映像を基礎とする入力映像に対し、当該入力映像の深度情報の値に基づく除去処理であるデプス系除去処理と、
前記デプス系除去処理を行った入力映像に対し、当該入力映像の色空間情報の値に基づく除去処理であるクロマ系除去処理を行って、前記処理映像とすることを特徴とする、
拡張仮想空間提供システム。
An extended virtual space providing system for allowing a user to experience an extended virtual space created by combining a plurality of images,
A measurement unit that acquires measurement information including at least information that can recognize the orientation and position of the user,
An image capturing unit that acquires a live image including the user's approximate line-of-sight direction,
An image processing unit that generates a processed image from which an arbitrary portion has been removed, with respect to the input image based on the raw image,
A composition unit that generates a composite image in which a material image including a captured image, a CG image, or a combination thereof and the processed image are combined based on the measurement information.
A display unit for displaying the composite video image to the user,
Has at least
The video processing unit,
Against the input image based upon the raw image, and depth-based removal process is a removal process based on the value of the depth information of the input image,
The input image on which the depth system removal processing has been performed is subjected to a chroma system removal process that is a removal process based on the value of the color space information of the input image to obtain the processed image .
Extended virtual space providing system.
前記クロマ系除去処理が、
前記入力映像のピクセル毎に有するHSV色空間情報が所定の範囲の色相かつ所定の彩度以上である場合に、当該ピクセルを除去する処理であることを特徴とする、
請求項に記載の拡張仮想空間提供システム。
The chroma removal processing is
When the HSV color space information included in each pixel of the input image has a hue in a predetermined range and a predetermined saturation or higher, the pixel is removed.
The extended virtual space providing system according to claim 1 .
前記クロマ系除去処理に用いる前記所定の範囲の色相または彩度が、複数設定されていることを特徴とする、
請求項1または2に記載の拡張仮想空間提供システム。
Hue or saturation of the predetermined range used for the chroma removal processing, characterized in that a plurality is set,
The extended virtual space providing system according to claim 1 .
JP2019203120A 2019-11-08 2019-11-08 Extended virtual space providing system Active JP6717486B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203120A JP6717486B1 (en) 2019-11-08 2019-11-08 Extended virtual space providing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203120A JP6717486B1 (en) 2019-11-08 2019-11-08 Extended virtual space providing system

Publications (2)

Publication Number Publication Date
JP6717486B1 true JP6717486B1 (en) 2020-07-01
JP2021077078A JP2021077078A (en) 2021-05-20

Family

ID=71131625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203120A Active JP6717486B1 (en) 2019-11-08 2019-11-08 Extended virtual space providing system

Country Status (1)

Country Link
JP (1) JP6717486B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7157271B1 (en) * 2022-04-14 2022-10-19 株式会社Acw-Deep Multisite space sharing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631117B2 (en) * 2000-09-14 2005-03-23 キヤノン株式会社 Video processing apparatus and method, and storage medium
JP2002157606A (en) * 2000-11-17 2002-05-31 Canon Inc Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP4136420B2 (en) * 2002-03-29 2008-08-20 キヤノン株式会社 Information processing method and apparatus
JP2018198025A (en) * 2017-05-25 2018-12-13 株式会社Five for Image processing device, image processing device control method, and program
JP6732716B2 (en) * 2017-10-25 2020-07-29 株式会社ソニー・インタラクティブエンタテインメント Image generation apparatus, image generation system, image generation method, and program

Also Published As

Publication number Publication date
JP2021077078A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US10991110B2 (en) Methods and systems to modify a two dimensional facial image to increase dimensional depth and generate a facial image that appears three dimensional
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
KR102083767B1 (en) Image processing apparatus, image processing system, image processing method and storage medium
US9530249B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
JP5762600B1 (en) Information processing apparatus and information processing method
US8830231B2 (en) Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
US8698902B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
JP2019517012A5 (en)
JP7387434B2 (en) Image generation method and image generation device
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
US10748341B2 (en) Terminal device, system, program and method for compositing a real-space image of a player into a virtual space
Günther et al. Aughanded virtuality-the hands in the virtual environment
JP6717486B1 (en) Extended virtual space providing system
JP6687751B2 (en) Image display system, image display device, control method thereof, and program
JP6775669B2 (en) Information processing device
JP6011567B2 (en) Information processing apparatus, control method thereof, and program
JP2013226286A (en) Method for synthesizing hair style, device for synthesizing hair style, and program for synthesizing hair style
JP7452434B2 (en) Information processing device, information processing method and program
JP2018198025A (en) Image processing device, image processing device control method, and program
WO2020161816A1 (en) Mixed reality display device and mixed reality display device method
JP7439146B2 (en) Image processing system, image processing method and program
JP6672417B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP2001216531A (en) Method for displaying participant in three-dimensional virtual space and three-dimensional virtual space display device
WO2022176719A1 (en) Image processing device, image processing method, and program
WO2019142283A1 (en) Image processing device, image processing device control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191125

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200602

R150 Certificate of patent or registration of utility model

Ref document number: 6717486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250