JP2015162708A - space sharing device, space sharing system, space sharing method, and program - Google Patents

space sharing device, space sharing system, space sharing method, and program Download PDF

Info

Publication number
JP2015162708A
JP2015162708A JP2014035008A JP2014035008A JP2015162708A JP 2015162708 A JP2015162708 A JP 2015162708A JP 2014035008 A JP2014035008 A JP 2014035008A JP 2014035008 A JP2014035008 A JP 2014035008A JP 2015162708 A JP2015162708 A JP 2015162708A
Authority
JP
Japan
Prior art keywords
space
information
unit
texture
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014035008A
Other languages
Japanese (ja)
Other versions
JP6214427B2 (en
Inventor
山田 健太郎
Kentaro Yamada
健太郎 山田
浩嗣 三功
Hiroshi Sanko
浩嗣 三功
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014035008A priority Critical patent/JP6214427B2/en
Publication of JP2015162708A publication Critical patent/JP2015162708A/en
Application granted granted Critical
Publication of JP6214427B2 publication Critical patent/JP6214427B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow participants being in spaces different from each other to feel as if the respective participants were in an identical space, without causing deficits in the image of the participants.SOLUTION: A space sharing device 1 comprises a space acquisition unit 10, a space analysis unit 20, and a space reproduction unit 30. The space acquisition unit 10 acquires depth information and texture information at its base where the device is disposed. The space analysis unit 20 analyzes the depth information and texture information acquired by the space acquisition unit 10. The space reproduction unit 30 changes the coloration of a space image at another base on the basis of an analysis result obtained by the space analysis unit 20 at its base and that obtained by the space analysis unit 20 at another base mentioned above.

Description

本発明は、空間共有装置、空間共有システム、空間共有方法、およびプログラムに関する。   The present invention relates to a space sharing device, a space sharing system, a space sharing method, and a program.

従来、遠隔地コミュニケーションシステムとして、テレビ会議システムやテレプレゼンスシステムなどが利用されている。また、互いに離れた拠点に存在している参加者に、各参加者が同じ空間内(例えば、同じ会議室内など)に存在しているような感覚を提供するシステムも提案されている。このシステムは、物理的に同じ空間(例えば、壁紙や机や椅子などの備品が同一である会議室など)を各拠点に予め作っておき、参加者を含む各拠点の空間映像を他の拠点に送信して再現する。しかし、物理的に同じ空間を各拠点に予め作っておくことは、コストの増大を招いてしまう。   Conventionally, video conferencing systems, telepresence systems, and the like have been used as remote communication systems. In addition, a system has also been proposed that provides participants who are located at locations apart from each other with a sense that each participant is present in the same space (for example, the same conference room). In this system, the same physical space (for example, a conference room with the same equipment such as wallpaper, desks, chairs, etc.) is created in advance at each site, and the spatial images of each site including participants are displayed at other sites. Send to and reproduce. However, if the same physical space is created in advance at each base, the cost increases.

そこで、各拠点の空間映像から参加者の画像を抽出し、抽出した参加者の画像を他の拠点に送信し、他の拠点の空間映像に合成する技術が提案されている(例えば、非特許文献1参照)。この技術によれば、物理的に同じ空間を各拠点に予め作っておく必要がないので、コストの増大を抑制することができる。   Therefore, a technique has been proposed in which an image of a participant is extracted from the spatial video of each site, the extracted participant image is transmitted to another site, and is synthesized with the spatial video of the other site (for example, non-patent). Reference 1). According to this technique, it is not necessary to create the same physical space in advance at each base, so that an increase in cost can be suppressed.

菅野勝、山田健太郎、内藤整、“没入型テレビ会議システムのための空間共有”、2012年映像情報メディア学会冬季大会、2012年Masaru Sugano, Kentaro Yamada, Satoshi Naito, “Space Sharing for Immersive Videoconferencing System”, 2012 Video Information Media Society Winter Conference, 2012

非特許文献1に示されている技術では、上述のように、各拠点の空間映像から参加者の画像を抽出する。この際に、空間映像において参加者が机や他の参加者の背後に隠れるといった、オクルージョンが発生していると、抽出した参加者の画像に欠損が生じてしまう。欠損が生じている参加者の画像を他の拠点の空間映像に合成すると、合成した映像において、参加者の手前(参加者よりもカメラに近い側)に物体がないにもかかわらず、この参加者の画像の一部が欠けた状態で表示されてしまう。このため、合成した映像を見ている他の参加者に、違和感を与えてしまうおそれがあった。   In the technique disclosed in Non-Patent Document 1, as described above, the participant's image is extracted from the spatial video of each site. At this time, if an occlusion occurs such that the participant hides behind a desk or other participants in the spatial video, the extracted participant image is lost. When an image of a participant with a defect is combined with a spatial image of another site, this participation occurs even though there is no object in front of the participant (side closer to the camera than the participant) in the combined image. Displayed in a state where a part of the person's image is missing. For this reason, there is a possibility that other participants who are watching the synthesized video may feel uncomfortable.

そこで、本発明は、上述の課題に鑑みてなされたものであり、互いに異なる空間に存在している参加者に、違和感を与えることなく、各参加者が同じ空間内に存在しているような感覚を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems, and each participant is present in the same space without giving a sense of incongruity to participants present in different spaces. The purpose is to provide a sense.

本発明は、上記の課題を解決するために、以下の事項を提案している。
(1) 本発明は、第1の空間(例えば、後述の自拠点の空間に相当)とは異なる第2の空間(例えば、後述の他拠点の空間に相当)で撮影された空間映像を画像処理する空間共有装置であって、前記第1の空間内の情報を取得する空間取得手段(例えば、図1の空間取得部10に相当)と、前記空間取得手段により取得された情報を解析する空間解析手段(例えば、図1の空間解析部20に相当)と、前記空間解析手段による解析結果に基づいて、前記第2の空間で撮影された空間映像のテクスチャを補正する空間再現手段(例えば、図1の空間再現部30に相当)と、を備えることを特徴とする空間共有装置を提案している。
The present invention proposes the following matters in order to solve the above problems.
(1) The present invention provides an image of a spatial video captured in a second space (for example, corresponding to a space at another site described later) different from the first space (for example, corresponding to a space at the later site). A space sharing device to process, a space acquisition unit for acquiring information in the first space (e.g., corresponding to the space acquisition unit 10 in FIG. 1), and analyzing the information acquired by the space acquisition unit Spatial analysis means (for example, equivalent to the space analysis unit 20 in FIG. 1) and space reproduction means (for example, correcting the texture of the spatial video imaged in the second space based on the analysis result by the spatial analysis means) , Corresponding to the space reproduction unit 30 in FIG. 1).

この発明によれば、空間取得手段により、第1の空間内の情報を取得し、空間解析手段により、空間取得手段により取得された情報を解析し、空間再現手段により、空間解析手段による解析結果に基づいて、第2の空間で撮影された空間映像のテクスチャを補正することとした。このため、手前に物体が存在していないにもかかわらず参加者の画像の一部が欠けてしまうという状況の発生を、防止するとともに、第2の空間で撮影された空間映像のテクスチャを、第1の空間のテクスチャと同様にすることができる。したがって、第1の空間に存在している参加者に、違和感を与えることなく、第2の空間に存在している参加者が同じ空間内に存在しているような感覚を提供することができる。   According to this invention, the information in the first space is acquired by the space acquisition means, the information acquired by the space acquisition means is analyzed by the space analysis means, and the analysis result by the space analysis means is analyzed by the space reproduction means. Based on the above, the texture of the spatial video shot in the second space is corrected. For this reason, while preventing the occurrence of a situation in which a part of the participant's image is missing despite the absence of an object in the foreground, the texture of the spatial image captured in the second space, It can be the same as the texture of the first space. Therefore, it is possible to provide a feeling that the participant existing in the second space exists in the same space without giving a sense of incongruity to the participant existing in the first space. .

(2) 本発明は、(1)の空間共有装置について、前記空間再現手段は、前記第2の空間で撮影された空間映像のテクスチャとして、前記第2の空間で撮影された空間映像における模様および色のうち少なくともいずれかを補正することを特徴とする空間共有装置を提案している。   (2) The present invention relates to the space sharing device according to (1), in which the space reproduction unit uses a pattern in the spatial image captured in the second space as a texture of the spatial image captured in the second space. And a space sharing device that corrects at least one of colors.

この発明によれば、(1)の空間共有装置において、空間再現手段により、第2の空間で撮影された空間映像のテクスチャとして、第2の空間で撮影された空間映像における模様および色のうち少なくともいずれかを補正することとした。このため、第2の空間で撮影された空間映像における模様および色のうち少なくともいずれかを、第1の空間の模様および色のうち少なくともいずれかと同様にすることができる。   According to this invention, in the space sharing device of (1), among the patterns and colors in the spatial video imaged in the second space as the texture of the spatial video imaged in the second space by the space reproduction means. At least one of them was corrected. For this reason, at least one of the pattern and the color in the spatial image captured in the second space can be made the same as at least one of the pattern and the color of the first space.

(3) 本発明は、(1)または(2)の空間共有装置について、前記空間取得手段は、前記第1の空間内の奥行き情報を取得する奥行情報取得手段(例えば、図3の奥行情報取得部11に相当)と、前記第1の空間内のテクスチャ情報を取得するテクスチャ情報取得手段(例えば、図3のテクスチャ情報取得部12に相当)と、を備えることを特徴とする空間共有装置を提案している。   (3) According to the present invention, in the space sharing device of (1) or (2), the space acquisition unit acquires depth information acquisition unit that acquires depth information in the first space (for example, depth information of FIG. 3). And a texture information acquisition unit (e.g., equivalent to the texture information acquisition unit 12 of FIG. 3) that acquires texture information in the first space. Has proposed.

この発明によれば、(1)または(2)の空間共有装置において、空間取得手段に、第1の空間内の奥行き情報を取得する奥行情報取得手段と、第1の空間内のテクスチャ情報を取得するテクスチャ情報取得手段と、を設けることとした。このため、空間取得手段により、第1の空間内の情報として、第1の空間内の奥行き情報およびテクスチャ情報を取得することができる。   According to this invention, in the space sharing device of (1) or (2), the depth acquisition unit for acquiring depth information in the first space and the texture information in the first space are acquired in the space acquisition unit. And a texture information acquisition means for acquiring. For this reason, depth information and texture information in the first space can be acquired as information in the first space by the space acquisition means.

(4) 本発明は、(3)の空間共有装置について、前記空間解析手段は、前記奥行情報取得手段により取得された奥行情報と、前記テクスチャ情報取得手段により取得されたテクスチャ情報と、に基づいて、色情報を有する点群情報を生成する点群情報生成手段(例えば、図4の点群情報生成部22に相当)と、前記点群情報生成手段により生成された点群情報に対して予め定められた表面モデルを当てはめて、前記点群情報生成手段により生成された点群情報を有する点群のうち前記第1の空間を構成する表面(例えば、後述の壁や床に相当)に該当する点を特定する表面特定手段(例えば、図4の表面特定部23に相当)と、前記点群情報生成手段により生成された点群情報を有する点群のうち前記表面特定手段により特定されたものを除くものをクラスタリングして、前記第1の空間に配置される物体(例えば、後述の椅子やテーブルに相当)ごとに当該物体に属する点を特定する物体特定手段(例えば、図4の物体特定部24に相当)と、前記表面特定手段により特定された表面に該当する点と、前記物体特定手段により特定された物体に属する点と、から色情報を統計的に抽出する色情報抽出手段(例えば、図4の色情報抽出部25に相当)と、テクスチャ情報取得手段により取得されたテクスチャ情報と、表面特定手段により特定された表面に該当する点についての情報と、物体特定手段により特定された物体に属する点についての情報と、を用いて、前記テクスチャ情報取得手段により取得された前記第1の空間内のテクスチャ情報を複数の領域に分割するテクスチャ分割手段(例えば、図4のテクスチャ分割部26に相当)と、を備えることを特徴とする空間共有装置を提案している。   (4) In the space sharing apparatus according to (3), the spatial analysis unit is based on the depth information acquired by the depth information acquisition unit and the texture information acquired by the texture information acquisition unit. Point cloud information generating means for generating point cloud information having color information (for example, corresponding to the point cloud information generating unit 22 in FIG. 4), and point cloud information generated by the point cloud information generating means. Applying a predetermined surface model to the surface (for example, equivalent to a wall or floor described later) constituting the first space among the point cloud having the point cloud information generated by the point cloud information generating means. The surface specifying means (for example, corresponding to the surface specifying unit 23 in FIG. 4) for specifying the corresponding point and the point specifying information generated by the point group information generating means are specified by the surface specifying means. Food An object specifying unit (for example, the object specifying unit in FIG. 4) that clusters points to be excluded and specifies a point belonging to the object for each object (for example, equivalent to a chair or a table described later) arranged in the first space. 24), a point corresponding to the surface specified by the surface specifying unit, and a point belonging to the object specified by the object specifying unit (for example, color information extracting unit for statistically extracting color information) , Corresponding to the color information extraction unit 25 in FIG. 4), the texture information acquired by the texture information acquisition means, the information about the point corresponding to the surface specified by the surface specification means, and the object specification means A texture that divides the texture information in the first space acquired by the texture information acquisition means into a plurality of regions using information about points belonging to the object. A space sharing device is proposed, which includes a partitioning means (for example, corresponding to the texture partitioning unit 26 in FIG. 4).

この発明によれば、(3)の空間共有装置において、空間解析手段に、点群情報生成手段、表面特定手段、物体特定手段、色情報抽出手段、およびテクスチャ分割手段を設けることとした。このため、第1の空間を構成する表面や、第1の空間に配置される物体に応じて、第1の空間内のテクスチャ情報を複数の領域に分割することができる。   According to the present invention, in the space sharing device of (3), the space analysis means is provided with the point cloud information generation means, the surface specification means, the object specification means, the color information extraction means, and the texture division means. For this reason, the texture information in the first space can be divided into a plurality of regions in accordance with the surface constituting the first space and the object arranged in the first space.

(5) 本発明は、(4)の空間共有装置について、前記テクスチャ分割手段は、前記テクスチャ情報取得手段により取得された前記第1の空間内のテクスチャ情報を、表面の領域と、物体の領域と、前記表面の領域でも前記物体の領域でもない領域と、に分割することを特徴とする空間共有装置を提案している。   (5) In the space sharing device according to (4), the texture dividing unit may convert the texture information in the first space acquired by the texture information acquiring unit into a surface region and an object region. And a space sharing device that is divided into a region that is neither the surface region nor the object region.

この発明によれば、(4)の空間共有装置において、テクスチャ分割手段により、テクスチャ情報取得手段により取得された第1の空間内のテクスチャ情報を、表面の領域と、物体の領域と、表面の領域でも物体の領域でもない領域と、に分割することができる。   According to this invention, in the space sharing device of (4), the texture information in the first space acquired by the texture information acquisition means is obtained by the texture dividing means, the surface area, the object area, and the surface information. It can be divided into areas that are neither areas nor object areas.

(6) 本発明は、(4)または(5)の空間共有装置について、前記空間解析手段は、前記奥行情報取得手段により取得された奥行情報と、前記テクスチャ情報取得手段により取得されたテクスチャ情報と、を用いて、前記テクスチャ情報取得手段により取得されたテクスチャ情報の中から、被写体の画像の領域である被写体領域を抽出する被写体抽出手段(例えば、図4の被写体抽出部21に相当)を備え、前記テクスチャ分割手段は、テクスチャ情報取得手段により取得されたテクスチャ情報と、前記表面特定手段により特定された表面に該当する点についての情報と、前記物体特定手段により特定された物体に属する点についての情報と、前記被写体抽出手段により抽出された被写体領域と、を用いて、前記テクスチャ情報取得手段により取得された前記第1の空間内のテクスチャ情報を、前記表面の領域と、前記物体の領域と、前記被写体領域と、前記表面の領域でも前記物体の領域でも前記被写体領域でもない領域と、に分割することを特徴とする空間共有装置を提案している。   (6) In the space sharing device according to (4) or (5), the spatial analysis unit includes the depth information acquired by the depth information acquisition unit, and the texture information acquired by the texture information acquisition unit. And subject extraction means (for example, equivalent to the subject extraction unit 21 in FIG. 4) for extracting a subject area that is a subject image area from the texture information acquired by the texture information acquisition means. The texture dividing unit includes texture information acquired by the texture information acquiring unit, information about a point corresponding to the surface specified by the surface specifying unit, and points belonging to the object specified by the object specifying unit And the texture information acquisition means using the information about the subject area extracted by the subject extraction means The texture information in the first space obtained from the surface area, the object area, the subject area, the surface area, the object area, and the subject area, A space-sharing device that is characterized by being divided into two parts is proposed.

この発明によれば、(4)または(5)の空間共有装置において、空間解析手段に、テクスチャ情報取得手段により取得されたテクスチャ情報の中から被写体領域を抽出する被写体抽出手段を設けることとした。このため、テクスチャ分割手段により、テクスチャ情報取得手段により取得された第1の空間内のテクスチャ情報を、表面の領域と、物体の領域と、被写体領域と、表面の領域でも物体の領域でも被写体領域でもない領域と、に分割することができる。   According to the present invention, in the space sharing device of (4) or (5), the space analysis means is provided with subject extraction means for extracting a subject area from the texture information acquired by the texture information acquisition means. . For this reason, the texture information in the first space acquired by the texture information acquisition unit is converted into the surface area, the object area, the subject area, the surface area, the object area, and the subject area by the texture dividing means. However, it can be divided into areas that are not.

(7) 本発明は、(4)から(6)のいずれかの空間共有装置について、前記空間再現手段は、前記表面特定手段により特定された点が該当する表面と、前記物体特定手段により特定された点が属する物体と、について前記第1の空間と前記第2の空間との間で対応付ける空間対応設定手段(例えば、図5の空間対応設定部31に相当)と、前記第2の空間で撮影された空間映像における表面または物体の領域の色情報を、前記空間対応設定手段により対応付けられた前記第1の空間における表面または物体の領域の色情報を用いて調整する色調整手段(例えば、図5の色調整部32に相当)と、を備えることを特徴とする空間共有装置を提案している。   (7) In the space sharing device according to any one of (4) to (6), the space reproduction unit may identify the surface corresponding to the point identified by the surface identification unit and the object identification unit. A space correspondence setting means (for example, corresponding to the space correspondence setting unit 31 in FIG. 5) for associating between the first space and the second space with respect to the object to which the designated point belongs, and the second space Color adjusting means for adjusting the color information of the surface or object area in the spatial image captured in step (b) using the color information of the surface or object area in the first space associated with the space correspondence setting means ( For example, a space sharing device is proposed that includes the color adjustment unit 32 of FIG.

この発明によれば、(4)から(6)のいずれかの空間共有装置において、空間再現手段に、空間対応設定手段および色調整手段を設けることとした。このため、第2の空間で撮影された空間映像における表面または物体の領域の色情報を、第1の空間において対応する表面または物体の領域の色情報を用いて、調整することができる。   According to the present invention, in any one of the space sharing apparatuses (4) to (6), the space reproduction means is provided with the space correspondence setting means and the color adjustment means. Therefore, the color information of the surface or object region in the spatial image captured in the second space can be adjusted using the color information of the corresponding surface or object region in the first space.

(8) 本発明は、(7)の空間共有装置について、前記色情報抽出手段は、前記点群情報生成手段により生成された点群情報の色情報を、明るさの情報を独立に扱う色空間(例えば、後述のYCbCrやYUVやHSVに相当)に変換し、前記表面特定手段により特定された点が該当する表面のそれぞれと、前記物体特定手段により特定された点が属する物体のそれぞれと、について、前記色空間の各成分の平均値および分散値、または、前記色空間の各成分のカラーヒストグラムを求め、前記色調整手段は、前記第2の空間で撮影された空間映像における表面または物体の領域の色情報を、前記空間対応設定手段により対応付けられた前記第1の空間における表面または物体の領域について前記色情報抽出手段により求められた結果を用いて調整することを特徴とする空間共有装置を提案している。   (8) In the space sharing device according to (7), the color information extraction unit is a color that handles the color information of the point group information generated by the point group information generation unit independently of the brightness information. Each of the surfaces to which the point specified by the surface specifying unit corresponds to each of the surfaces to which the point specified by the object specifying unit belongs, and each of the objects to which the point specified by the object specifying unit belongs , The average value and the variance value of each component of the color space, or the color histogram of each component of the color space is obtained, and the color adjusting means is a surface in a spatial image captured in the second space or The color information of the object area is obtained by using the result obtained by the color information extraction means for the surface or the object area in the first space associated by the space correspondence setting means. It proposes a space sharing apparatus characterized by adjust it.

この発明によれば、(7)の空間共有装置において、色空間の各成分の平均値および分散値、または、色空間の各成分のカラーヒストグラムを用いて、第2の空間で撮影された空間映像における表面または物体の領域の色情報を調整することができる。   According to the present invention, in the space sharing device of (7), the space photographed in the second space using the average value and variance value of each component of the color space or the color histogram of each component of the color space. The color information of the surface or object area in the image can be adjusted.

(9) 本発明は、第1の空間(例えば、後述の自拠点の空間に相当)に配置された第1の空間共有装置と、第2の空間(例えば、後述の他拠点の空間に相当)に配置された第2の空間共有装置と、を備える空間共有システムであって、前記第1の空間共有装置は、前記第1の空間内の情報を取得する第1の空間取得手段(例えば、図1の空間取得部10に相当)と、前記第1の空間取得手段により取得された情報を解析する第1の空間解析手段(例えば、図1の空間解析部20に相当)と、前記第1の空間解析手段による解析結果に基づいて、前記第2の空間で撮影された空間映像のテクスチャを補正する第1の空間再現手段(例えば、図1の空間再現部30に相当)と、を備え、前記第2の空間共有装置は、前記第2の空間内の情報を取得する第2の空間取得手段(例えば、図1の空間取得部10に相当)と、前記第2の空間取得手段により取得された情報を解析する第2の空間解析手段(例えば、図1の空間解析部20に相当)と、前記第2の空間解析手段による解析結果に基づいて、前記第1の空間で撮影された空間映像のテクスチャを補正する第2の空間再現手段(例えば、図1の空間再現部30に相当)と、を備えることを特徴とする空間共有システムを提案している。   (9) The present invention corresponds to a first space sharing device arranged in a first space (for example, corresponding to the space of its own base described later) and a second space (for example, corresponding to a space of other base described later). And a second space sharing device disposed in the first space sharing device, wherein the first space sharing device acquires information in the first space (for example, , Corresponding to the space acquisition unit 10 in FIG. 1), first space analysis means for analyzing the information acquired by the first space acquisition means (for example, corresponding to the space analysis unit 20 in FIG. 1), First space reproduction means (for example, equivalent to the space reproduction unit 30 in FIG. 1) for correcting the texture of the spatial video imaged in the second space based on the analysis result by the first space analysis means; And the second space sharing device collects information in the second space. Second space acquisition means (for example, corresponding to the space acquisition unit 10 in FIG. 1) and second space analysis means (for example, the space in FIG. 1) for analyzing information acquired by the second space acquisition means. And a second space reproduction means (for example, FIG. 1) that corrects the texture of the spatial video imaged in the first space based on the analysis result by the second space analysis means. A space sharing system characterized in that the space sharing system is provided.

この発明によれば、上述した効果と同様の効果を奏することができる。   According to the present invention, the same effects as described above can be obtained.

(10) 本発明は、空間取得手段(例えば、図1の空間取得部10に相当)、空間解析手段(例えば、図1の空間解析部20に相当)、および空間再現手段(例えば、図1の空間再現部30に相当)を備え、第1の空間(例えば、後述の自拠点の空間に相当)とは異なる第2の空間(例えば、後述の他拠点の空間に相当)で撮影された空間映像を画像処理する空間共有装置における空間共有方法であって、前記空間取得手段が、前記第1の空間内の情報を取得する第1のステップと、前記空間解析手段が、前記第1のステップにより取得された情報を解析する第2のステップと、前記空間再現手段が、前記第2のステップによる解析結果に基づいて、前記第2の空間で撮影された空間映像のテクスチャを補正する第3のステップと、を備えることを特徴とする空間共有方法を提案している。   (10) The present invention provides space acquisition means (for example, equivalent to the space acquisition unit 10 in FIG. 1), space analysis means (for example, equivalent to the space analysis unit 20 in FIG. 1), and space reproduction means (for example, FIG. 1). In the second space (e.g., equivalent to the space of another base described later) different from the first space (e.g., equivalent to the space of the own base described later). A space sharing method in a space sharing apparatus that performs image processing of a space image, wherein the space acquisition unit acquires information in the first space, and the space analysis unit includes the first A second step of analyzing the information acquired in the step; and the space reproduction means corrects the texture of the spatial video imaged in the second space based on the analysis result in the second step. 3 steps Proposes a space sharing method characterized by.

この発明によれば、上述した効果と同様の効果を奏することができる。   According to the present invention, the same effects as described above can be obtained.

(11) 本発明は、空間取得手段(例えば、図1の空間取得部10に相当)、空間解析手段(例えば、図1の空間解析部20に相当)、および空間再現手段(例えば、図1の空間再現部30に相当)を備え、第1の空間(例えば、後述の自拠点の空間に相当)とは異なる第2の空間(例えば、後述の他拠点の空間に相当)で撮影された空間映像を画像処理する空間共有装置における空間共有方法を、コンピュータに実行させるためのプログラムであって、前記空間取得手段が、前記第1の空間内の情報を取得する第1のステップと、前記空間解析手段が、前記第1のステップにより取得された情報を解析する第2のステップと、前記空間再現手段が、前記第2のステップによる解析結果に基づいて、前記第2の空間で撮影された空間映像のテクスチャを補正する第3のステップと、をコンピュータに実行させるためのプログラムを提案している。   (11) The present invention provides a space acquisition unit (for example, equivalent to the space acquisition unit 10 in FIG. 1), a space analysis unit (for example, the space analysis unit 20 in FIG. 1), and a space reproduction unit (for example, FIG. 1). In the second space (e.g., equivalent to the space of another base described later) different from the first space (e.g., equivalent to the space of the own base described later). A program for causing a computer to execute a space sharing method in a space sharing device that performs image processing of a space image, wherein the space acquisition unit acquires information in the first space; A second step in which the space analysis unit analyzes the information acquired in the first step, and the space reproduction unit is photographed in the second space based on the analysis result in the second step. Of spatial images We propose a program for executing the third step of correction, the computer Kusucha.

この発明によれば、コンピュータを用いてプログラムを実行することで、上述した効果と同様の効果を奏することができる。   According to the present invention, the same effect as described above can be obtained by executing the program using a computer.

本発明によれば、互いに異なる空間に存在している参加者に、違和感を与えることなく、各参加者が同じ空間内に存在しているような感覚を提供することができる。   According to the present invention, it is possible to provide a sense that each participant is present in the same space without giving a sense of incongruity to participants present in different spaces.

本発明の一実施形態に係る空間共有システムのブロック図である。1 is a block diagram of a space sharing system according to an embodiment of the present invention. 前記実施形態に係る空間共有システムの動作を説明するための図である。It is a figure for demonstrating operation | movement of the space sharing system which concerns on the said embodiment. 前記実施形態に係る空間共有システムにおける空間共有装置が備える空間取得部のブロック図である。It is a block diagram of the space acquisition part with which the space sharing device in the space sharing system concerning the embodiment is provided. 前記実施形態に係る空間共有システムにおける空間共有装置が備える空間解析部のブロック図である。It is a block diagram of the space analysis part with which the space sharing device in the space sharing system concerning the embodiment is provided. 前記実施形態に係る空間共有システムにおける空間共有装置が備える空間再現部のブロック図である。It is a block diagram of the space reproduction part with which the space sharing apparatus in the space sharing system concerning the embodiment is provided.

以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の実施形態における構成要素は適宜、既存の構成要素などとの置き換えが可能であり、また、他の既存の構成要素との組み合せを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the constituent elements in the following embodiments can be appropriately replaced with existing constituent elements, and various variations including combinations with other existing constituent elements are possible. Accordingly, the description of the following embodiments does not limit the contents of the invention described in the claims.

[空間共有システムAAの構成および動作]
図1は、本発明の一実施形態に係る空間共有システムAAのブロック図である。空間共有システムAAは、複数(図1では2つ)の空間共有装置1を備える。これら複数の空間共有装置1のそれぞれは、互いに異なる空間に配置されており、インターネットや電話回線といった通信回線100を介して互いに通信可能に設けられている。
[Configuration and operation of space sharing system AA]
FIG. 1 is a block diagram of a space sharing system AA according to an embodiment of the present invention. The space sharing system AA includes a plurality (two in FIG. 1) of space sharing devices 1. Each of the plurality of space sharing apparatuses 1 is disposed in a different space and is provided so as to be able to communicate with each other via a communication line 100 such as the Internet or a telephone line.

空間共有装置1は、自身の配置されている空間の空間映像を、通信回線100を介して他の空間共有装置1に送信するとともに、他の空間共有装置1から送信された空間映像の配色を、自身の配置されている空間に応じて変更する。空間共有装置1が行う処理の概要について、図2を用いて以下に説明する。   The space sharing device 1 transmits a space image of the space in which the space sharing device 1 is arranged to the other space sharing device 1 via the communication line 100, and also changes the color arrangement of the space image transmitted from the other space sharing device 1. , Change according to the space where it is located. An overview of processing performed by the space sharing device 1 will be described below with reference to FIG.

図2は、空間共有システムAAにより、拠点Aに存在している参加者A11に対して、違和感を与えることなく、参加者B11が同じ空間内に存在しているような感覚を提供するとともに、拠点Bに存在している参加者B11に対して、違和感を与えることなく、参加者A11が同じ空間内に存在しているような感覚を提供する例を示す図である。   FIG. 2 provides a feeling that the participant B11 exists in the same space without giving a sense of incongruity to the participant A11 existing at the base A by the space sharing system AA. It is a figure which shows the example which provides the feeling that participant A11 exists in the same space, without giving discomfort to participant B11 which exists in the base B.

拠点Aでは、椅子A21に参加者A11が着席しており、参加者A11の近傍にテーブルA31が配置されている。一方、拠点Bでは、椅子B21に参加者B11が着席しており、参加者B11の近傍にテーブルB31が配置されている。なお、椅子A21と椅子B21とでは、形状や大きさや配色が異なっているとともに、テーブルA31とテーブルB31とでは、形状や大きさや配色が異なっているものとする。   In the base A, the participant A11 is seated on the chair A21, and the table A31 is arranged in the vicinity of the participant A11. On the other hand, at the base B, the participant B11 is seated on the chair B21, and the table B31 is arranged in the vicinity of the participant B11. The chair A21 and the chair B21 have different shapes, sizes, and color schemes, and the table A31 and the table B31 have different shapes, sizes, and color schemes.

また、拠点Aには、空間共有装置1(図示省略)と、拠点Bの空間映像を表示する表示手段A100と、が配置されている。拠点Aに配置されている空間共有装置1は、拠点Aの空間映像を撮影して、拠点Bに配置されている空間共有装置1に送信する。また、拠点Aに配置されている空間共有装置1は、拠点Bに配置されている空間共有装置1から送信された空間映像の配色を、拠点Aに応じて変更して、表示手段A100に表示させる。   In addition, at the site A, a space sharing device 1 (not shown) and display means A100 for displaying a spatial image of the site B are arranged. The space sharing device 1 arranged at the site A captures a spatial image of the site A and transmits it to the space sharing device 1 arranged at the site B. Further, the space sharing device 1 arranged at the site A changes the color scheme of the spatial video transmitted from the space sharing device 1 arranged at the site B according to the site A and displays it on the display unit A100. Let

なお、拠点Aに配置されている空間共有装置1による上述の配色の変更では、拠点Bに配置されている空間共有装置1から送信された空間映像において、椅子B21の配色を椅子A21の配色と同様に変更するとともに、テーブルB31の配色をテーブルA31の配色と同様に変更する。このため、表示手段A100には、椅子B61として、椅子A21と同様の配色で椅子B21が表示されるとともに、テーブルB71として、テーブルA31と同様の配色でテーブルB31が表示されることになる。これによれば、表示手段A100に表示されている映像を視認している参加者A11は、自身が着席している椅子A21と同様の配色の椅子に参加者B11が着席しているとともに、自身の近傍に配置されているテーブルA31と同様の配色のテーブルが参加者B11の近傍に配置されているように感じられるようになる。このため、参加者A11に、違和感を与えることなく、参加者B11が同じ空間内に存在しているような感覚を提供することができる。   In the above-described color change change by the space sharing device 1 arranged at the base A, the color arrangement of the chair B21 is changed to the color arrangement of the chair A21 in the space video transmitted from the space sharing device 1 arranged at the base B. Similarly, the color scheme of the table B31 is changed in the same manner as the color scheme of the table A31. For this reason, on the display means A100, the chair B21 is displayed as the chair B61 in the same color scheme as the chair A21, and the table B31 is displayed as the table B71 in the same color scheme as the table A31. According to this, the participant A11 who is viewing the video displayed on the display means A100, the participant B11 is seated in a chair with the same color scheme as the chair A21 in which he is seated, and himself / herself It is felt that a table with a color scheme similar to that of the table A31 arranged in the vicinity of the player B11 is arranged in the vicinity of the participant B11. Therefore, it is possible to provide a feeling that the participant B11 exists in the same space without giving the participant A11 a sense of incongruity.

また、拠点Bには、空間共有装置1(図示省略)と、拠点Aの空間映像を表示する表示手段B100と、が配置されている。拠点Bに配置されている空間共有装置1は、拠点Bの空間映像を撮影して、拠点Aに配置されている空間共有装置1に送信する。また、拠点Bに配置されている空間共有装置1は、拠点Aに配置されている空間共有装置1から送信された空間映像の配色を、拠点Bに応じて変更して、表示手段B100に表示させる。   In addition, at the base B, a space sharing device 1 (not shown) and display means B100 for displaying the spatial video of the base A are arranged. The space sharing device 1 arranged at the site B captures a spatial image of the site B and transmits it to the space sharing device 1 arranged at the site A. Further, the space sharing device 1 arranged at the site B changes the color scheme of the spatial video transmitted from the space sharing device 1 arranged at the site A according to the site B and displays it on the display means B100. Let

なお、拠点Bに配置されている空間共有装置1による上述の配色の変更では、拠点Aに配置されている空間共有装置1から送信された空間映像において、椅子A21の配色を椅子B21の配色と同様に変更するとともに、テーブルA31の配色をテーブルB31の配色と同様に変更する。このため、表示手段B100には、椅子A61として、椅子B21と同様の配色で椅子A21が表示されるとともに、テーブルA71として、テーブルB31と同様の配色でテーブルA31が表示されることになる。これによれば、表示手段B100に表示されている映像を視認している参加者B11は、自身が着席している椅子B21と同様の配色の椅子に参加者A11が着席しているとともに、自身の近傍に配置されているテーブルB31と同様の配色のテーブルが参加者A11の近傍に配置されているように感じられるようになる。このため、参加者B11に、違和感を与えることなく、参加者A11が同じ空間内に存在しているような感覚を提供することができる。   In addition, in the change of the above-described color arrangement by the space sharing device 1 arranged at the base B, the color arrangement of the chair A21 is changed to the color arrangement of the chair B21 in the space image transmitted from the space sharing device 1 arranged at the base A. Similarly, the color scheme of the table A31 is changed in the same manner as the color scheme of the table B31. Therefore, the chair A21 is displayed as the chair A61 in the same color scheme as the chair B21, and the table A31 is displayed as the table A71 in the same color scheme as the table B31. According to this, the participant B11 who is viewing the video displayed on the display means B100 is seated on the chair having the same color scheme as the chair B21 on which the participant B11 is seated, It can be felt that a table with the same color scheme as the table B31 arranged in the vicinity of the player A11 is arranged in the vicinity of the participant A11. For this reason, it is possible to provide a feeling that the participant A11 exists in the same space without giving the participant B11 a sense of incongruity.

[空間共有装置1の構成]
図1に戻って、空間共有装置1は、空間取得部10、空間解析部20、空間再現部30、送信部40、および受信部50を備える。
[Configuration of Space Sharing Device 1]
Returning to FIG. 1, the space sharing device 1 includes a space acquisition unit 10, a space analysis unit 20, a space reproduction unit 30, a transmission unit 40, and a reception unit 50.

[空間取得部10の構成および動作]
図3は、空間取得部10のブロック図である。空間取得部10は、自身が配置されている空間における奥行情報およびテクスチャ情報を取得する。この空間取得部10は、例えばKinect(登録商標)といったカメラを用いて構成され、奥行情報取得部11およびテクスチャ情報取得部12を備える。
[Configuration and Operation of Space Acquisition Unit 10]
FIG. 3 is a block diagram of the space acquisition unit 10. The space acquisition unit 10 acquires depth information and texture information in a space in which the space acquisition unit 10 is arranged. The space acquisition unit 10 is configured using a camera such as Kinect (registered trademark), for example, and includes a depth information acquisition unit 11 and a texture information acquisition unit 12.

奥行情報取得部11は、例えばデプスカメラを用いて構成され、参加者のほぼ正面から参加者を撮影できる位置に配置される。この奥行情報取得部11は、視野領域内の奥行情報を取得する。   The depth information acquisition unit 11 is configured using, for example, a depth camera, and is arranged at a position where the participant can be photographed from almost the front of the participant. The depth information acquisition unit 11 acquires depth information in the visual field area.

テクスチャ情報取得部12は、例えばカラーカメラを用いて構成され、奥行情報取得部11と略同一の位置に配置され、奥行情報取得部11と略同一の視野領域を有する。このテクスチャ情報取得部12は、視野領域内のテクスチャ情報(空間映像)を取得する。   The texture information acquisition unit 12 is configured by using, for example, a color camera, is disposed at substantially the same position as the depth information acquisition unit 11, and has a visual field region substantially the same as the depth information acquisition unit 11. The texture information acquisition unit 12 acquires texture information (spatial video) in the visual field region.

[空間解析部20の構成および動作]
図4は、空間解析部20のブロック図である。空間解析部20は、空間取得部10により取得された奥行情報およびテクスチャ情報を解析する。この空間解析部20は、被写体抽出部21、点群情報生成部22、表面特定部23、物体特定部24、色情報抽出部25、およびテクスチャ分割部26を備える。
[Configuration and Operation of Spatial Analysis Unit 20]
FIG. 4 is a block diagram of the space analysis unit 20. The space analysis unit 20 analyzes the depth information and texture information acquired by the space acquisition unit 10. The space analysis unit 20 includes a subject extraction unit 21, a point group information generation unit 22, a surface identification unit 23, an object identification unit 24, a color information extraction unit 25, and a texture division unit 26.

被写体抽出部21は、空間取得部10により取得された奥行情報およびテクスチャ情報を用いて、自身が配置されている空間の空間映像の中から、参加者の画像の領域である被写体領域を抽出する。被写体領域の抽出には、例えば、「山田健太郎、菅野勝、内藤整、柳原広昌、“テレプレゼンスのための距離・画像情報の適応参照による人物領域抽出”、2013年度画像電子学会第41回年次大会、2013.6.」に示されている手法を用いることができる。   The subject extraction unit 21 uses the depth information and texture information acquired by the space acquisition unit 10 to extract a subject region that is a region of the participant's image from the spatial video of the space in which the subject extraction unit 21 is located. . For extracting the subject area, for example, “Kentaro Yamada, Masaru Kanno, Satoshi Naito, Hiromasa Yanagihara,“ Extracting Person Area by Adaptive Reference of Distance and Image Information for Telepresence ”, 2013 Annual Meeting of the Institute of Image Electronics Engineers of Japan. It is possible to use the method shown in the next competition, 2013.

点群情報生成部22は、奥行情報取得部11により取得された奥行情報および計測条件と、テクスチャ情報取得部12により取得されたテクスチャ情報と、被写体抽出部21により抽出された被写体領域と、に基づいて、色情報を有する点群情報を生成する。   The point cloud information generation unit 22 includes depth information and measurement conditions acquired by the depth information acquisition unit 11, texture information acquired by the texture information acquisition unit 12, and a subject area extracted by the subject extraction unit 21. Based on this, point cloud information having color information is generated.

具体的には、点群情報生成部22は、まず、テクスチャ情報取得部12により取得されたテクスチャ情報から、被写体抽出部21により抽出された被写体領域を取り除く。次に、上述の計測条件を用いて、被写体領域を取り除いた後のテクスチャ情報における座標(x、y)上のマッピングとしての奥行情報d(x、y)を、対応する3次元実空間の座標値(X、Y、Z)に変換する。次に、変換した実空間の座標値のそれぞれに色情報を付加して、点群情報を生成する。   Specifically, the point cloud information generation unit 22 first removes the subject area extracted by the subject extraction unit 21 from the texture information acquired by the texture information acquisition unit 12. Next, the depth information d (x, y) as the mapping on the coordinates (x, y) in the texture information after removing the subject area using the measurement conditions described above, the coordinates of the corresponding three-dimensional real space Convert to values (X, Y, Z). Next, color group information is added to each coordinate value of the converted real space to generate point cloud information.

なお、空間映像における座標値x、yのそれぞれは、一般的に画素位置であって整数で与えられるが、点群情報における値X、Y、Zのそれぞれは、一般的に実数になる。また、上述のように色情報を付加するために、奥行情報取得部11とテクスチャ情報取得部12との対応関係が、校正器具などを用いて予め校正されているものとする。また、計測条件とは、テクスチャ情報取得部12により取得された空間映像上の各座標(x、y)が、奥行情報取得部11から見てどの方向であるか、といったことであり、奥行情報取得部11がデプスカメラを用いて構成されている場合には、このデプスカメラの画角や焦点距離などのパラメータのことである。   The coordinate values x and y in the spatial image are generally pixel positions and are given as integers, but the values X, Y, and Z in the point group information are generally real numbers. In addition, in order to add color information as described above, it is assumed that the correspondence relationship between the depth information acquisition unit 11 and the texture information acquisition unit 12 is calibrated in advance using a calibration tool or the like. In addition, the measurement condition means which direction each coordinate (x, y) on the spatial image acquired by the texture information acquisition unit 12 is viewed from the depth information acquisition unit 11. In the case where the acquisition unit 11 is configured using a depth camera, it refers to parameters such as the angle of view and the focal length of the depth camera.

表面特定部23は、点群情報生成部22により生成された点群情報を有する点群のうち、空間を構成する表面(例えば、壁や床など)に該当する点を特定する。これによれば、点群情報生成部22により生成された点群情報を有する点群のうち、表面特定部23により特定された表面に該当する点を除くものが、上述の空間に配置される物体(例えば、椅子やテーブルなど)に属する点の候補になる。   The surface specifying unit 23 specifies a point corresponding to a surface (for example, a wall or a floor) constituting the space from the point group having the point group information generated by the point group information generating unit 22. According to this, out of the point cloud having the point cloud information generated by the point cloud information generating unit 22, those excluding the points corresponding to the surface specified by the surface specifying unit 23 are arranged in the above-described space. Candidate points belong to an object (for example, a chair or a table).

なお、所定の表面モデルを与えることにより、曲面といった任意形状の面として表面を特定することができる。例えば、表面の形状を平面としてモデル化する場合には、RANSACモデルに基づいて、各平面に属する点を推定することができる。そこで、表面特定部23は、点群情報生成部22により生成された点群情報を有する点群のうち表面に該当する点を特定する際には、点群情報生成部22により生成された点群情報に対して所定の表面モデルを当てはめる。   By giving a predetermined surface model, the surface can be specified as a surface having an arbitrary shape such as a curved surface. For example, when the surface shape is modeled as a plane, points belonging to each plane can be estimated based on the RANSAC model. Therefore, when the surface specifying unit 23 specifies a point corresponding to the surface among the point groups having the point group information generated by the point group information generating unit 22, the points generated by the point group information generating unit 22 are used. A predetermined surface model is applied to the group information.

RANSACモデルに基づいて各平面に属する点を推定する場合、まず、第1の処理として、点群情報生成部22により生成された点群情報を有する点群の中からランダムに点を取得して平面を形成し、他の全ての点に対してその平面との距離を求める。次に、第2の処理として、求めた距離が予め定められた閾値以上になる点を外れ値とする。次に、外れ値を除く全ての点と平面との距離が上述の閾値未満になるように、上述の第1の処理および第2の処理を繰り返す。これによれば、最終的な平面が求まるとともに、求まった平面に対して外れ値にならなかった点を、この平面に属する点として特定することができる。   When estimating points belonging to each plane based on the RANSAC model, first, as a first process, points are randomly acquired from the point cloud having the point cloud information generated by the point cloud information generation unit 22. A plane is formed and the distance to the plane is obtained for all other points. Next, as a second process, a point where the obtained distance is equal to or greater than a predetermined threshold is set as an outlier. Next, the first process and the second process described above are repeated so that the distances between all points except for outliers and the plane are less than the threshold value described above. According to this, a final plane is obtained, and a point that does not become an outlier with respect to the obtained plane can be specified as a point belonging to this plane.

なお、点群情報生成部22により生成された点群情報を有する点群の中から、上述のように平面に属する点として特定されたものを除去した後に、上述の第1の処理および第2の処理を再度繰り返すことで、最終的な平面を複数求めるとともに、求めた平面ごとに属する点を特定してもよい。この場合、例えば、上述の第1の処理および第2の処理の繰り返しを、上述のように平面に属する点として抽出されたものを除去した後に残った点群の数が予め定められた数以下になったり、最終的に求めた平面の数が予め定められた数になったりしたら、終了することとしてもよい。   In addition, after removing what was specified as the point which belongs to a plane as mentioned above from the point cloud which has the point cloud information produced | generated by the point cloud information production | generation part 22, the above-mentioned 1st process and 2nd By repeating this process again, a plurality of final planes may be obtained, and points belonging to the obtained planes may be specified. In this case, for example, the number of point groups remaining after removing the points extracted as the points belonging to the plane as described above by repeating the first process and the second process described above is equal to or less than a predetermined number. Or when the number of planes finally obtained reaches a predetermined number.

物体特定部24は、点群情報生成部22により生成された点群情報を有する点群のうち表面特定部23により特定された点を除くものを対象として、各物体に属する点を特定する。各物体に属する点を特定する際には、例えば、点群情報生成部22により生成された点群情報のうち表面特定部23により特定された点を除くものについて、ユークリッド距離に基づいたクラスタリングを行ってグループ分けを行う。具体的には、1つの物体として統合する最大のユークリッド距離を指定し、ユークリッド距離が指定した値以下になる点を同一の物体に属する点とする。これによれば、点群情報生成部22により生成された点群情報を有する点群のうち表面特定部23により特定された点を除くものが、各物体に属する点と、表面にも物体にも属さない点と、に分類されることになる。   The object specifying unit 24 specifies a point belonging to each object for a point group having the point group information generated by the point group information generating unit 22 excluding the point specified by the surface specifying unit 23. When specifying the points belonging to each object, for example, clustering based on the Euclidean distance is performed on the point group information generated by the point group information generation unit 22 excluding the points specified by the surface specification unit 23. Go and group. Specifically, the maximum Euclidean distance to be integrated as one object is specified, and a point where the Euclidean distance is equal to or less than a specified value is set as a point belonging to the same object. According to this, points excluding the points specified by the surface specifying unit 23 among the point groups having the point group information generated by the point group information generating unit 22 belong to each object, and the surface is also an object. It is classified as a point that does not belong.

色情報抽出部25は、表面特定部23により特定された表面に該当する点と、物体特定部24により特定された各物体に属する点と、から色情報を統計的に抽出する。色情報の抽出は、表面や物体ごとに行われ、例えばYCbCr色空間であれば、色情報として、Y、Cb、Crの値の平均値および分散値や、Y、Cb、Crのカラーヒストグラムが求められる。   The color information extraction unit 25 statistically extracts color information from the points corresponding to the surface specified by the surface specification unit 23 and the points belonging to each object specified by the object specification unit 24. Extraction of color information is performed for each surface or object. For example, in the case of a YCbCr color space, an average value and a dispersion value of Y, Cb, and Cr values, and a color histogram of Y, Cb, and Cr are used as color information. Desired.

テクスチャ分割部26は、テクスチャ情報取得部12により取得されたテクスチャ情報と、被写体抽出部21により抽出された被写体領域についての情報と、表面特定部23により特定された表面に該当する点についての情報と、物体特定部24により特定された各物体に属する点についての情報と、を用いて、テクスチャ情報取得部12により取得された空間映像を、被写体領域と、表面の領域と、物体の領域と、その他の領域と、に分割する。   The texture dividing unit 26 includes the texture information acquired by the texture information acquiring unit 12, information about the subject area extracted by the subject extracting unit 21, and information about points corresponding to the surface specified by the surface specifying unit 23. And a spatial image acquired by the texture information acquisition unit 12 using the information about the points belonging to each object specified by the object specifying unit 24, a subject area, a surface area, and an object area , And other areas.

なお、空間映像から分割する被写体領域については、被写体抽出部21により抽出された被写体領域をそのまま適用する。一方、表面の領域については、表面特定部23により特定された表面に該当する点を、テクスチャ情報取得部12により取得された空間映像に投影し、投影した位置をシードとして例えばGrabCutアルゴリズムにより画像領域分割を行って、表面の領域を抽出する。また、物体の領域については、物体特定部24により特定された各物体に属する点を、テクスチャ情報取得部12により取得された空間映像に投影し、投影した位置をシードとして例えばGrabCutアルゴリズムにより画像領域分割を行って、物体の領域を抽出する。また、その他の領域については、テクスチャ情報取得部12により取得された空間映像のうち、被写体領域と、表面の領域と、物体の領域と、のいずれにも属さない領域を適用する。   Note that the subject area extracted by the subject extraction unit 21 is applied as it is to the subject area divided from the spatial video. On the other hand, for the surface area, a point corresponding to the surface specified by the surface specifying unit 23 is projected onto the spatial image acquired by the texture information acquiring unit 12, and the projected position is used as a seed to generate an image area using, for example, the GrabCut algorithm. Segmentation is performed to extract the surface area. As for the object region, the points belonging to each object specified by the object specifying unit 24 are projected onto the spatial video acquired by the texture information acquisition unit 12, and the projected position is used as a seed to generate an image region using, for example, the GrabCut algorithm. Segmentation is performed to extract an object region. For other regions, a region that does not belong to any of the subject region, the surface region, and the object region in the spatial video acquired by the texture information acquisition unit 12 is applied.

[送信部40の動作]
送信部40は、自身が配置されている拠点(自拠点)のテクスチャ情報取得部12により取得された空間映像と、自拠点の空間解析部20による解析結果と、を自拠点とは異なる拠点(他拠点)の受信部50に送信する。自拠点の空間解析部20による解析結果には、自拠点の表面特定部23により特定された表面に該当する点についての点群情報と、自拠点の物体特定部24により特定された物体に属する点についての点群情報と、自拠点の色情報抽出部25により抽出された色情報と、自拠点のテクスチャ分割部26による分割結果に関する情報と、が含まれる。
[Operation of Transmitter 40]
The transmission unit 40 transmits a spatial image acquired by the texture information acquisition unit 12 of the site (local site) where the transmission unit 40 is located and an analysis result by the spatial analysis unit 20 of the local site different from the local site ( It is transmitted to the receiving unit 50 at another base. The analysis result by the spatial analysis unit 20 at the local site belongs to the point cloud information about the point corresponding to the surface identified by the surface identification unit 23 at the local site and the object identified by the object identification unit 24 at the local site. The point group information about the point, the color information extracted by the color information extraction unit 25 at the local site, and information related to the division result by the texture division unit 26 at the local site are included.

[受信部50の動作]
受信部50は、他拠点のテクスチャ情報取得部12により取得された空間映像と、他拠点の空間解析部20による解析結果と、を受信する。他拠点の空間解析部20による解析結果には、他拠点の表面特定部23により特定された表面に該当する点についての点群情報と、他拠点の物体特定部24により特定された物体に属する点についての点群情報と、他拠点の色情報抽出部25により抽出された色情報と、他拠点のテクスチャ分割部26による分割結果に関する情報と、が含まれる。
[Operation of Receiving Unit 50]
The receiving unit 50 receives the spatial video acquired by the texture information acquisition unit 12 at the other site and the analysis result by the spatial analysis unit 20 at the other site. The analysis result by the space analysis unit 20 at the other site belongs to the point group information about the point corresponding to the surface specified by the surface specifying unit 23 at the other site and the object specified by the object specifying unit 24 at the other site. The point group information about the point, the color information extracted by the color information extraction unit 25 at the other site, and the information regarding the division result by the texture division unit 26 at the other site are included.

[空間再現部30の構成および動作]
図5は、空間再現部30のブロック図である。空間再現部30は、自拠点の空間解析部20による解析結果と、他拠点の空間解析部20による解析結果と、に基づいて、他拠点の空間映像の配色を変更する。この空間再現部30は、空間対応設定部31および色調整部32を備える。
[Configuration and operation of space reproduction unit 30]
FIG. 5 is a block diagram of the space reproduction unit 30. The space reproduction unit 30 changes the color scheme of the spatial video at the other site based on the analysis result by the space analysis unit 20 at the own site and the analysis result by the space analysis unit 20 at the other site. The space reproduction unit 30 includes a space correspondence setting unit 31 and a color adjustment unit 32.

空間対応設定部31は、自拠点の色情報抽出部25により抽出された色情報と、他拠点の色情報抽出部25により抽出された色情報と、自拠点の表面特定部23および物体特定部24のそれぞれにより特定された点についての点群情報と、他拠点の表面特定部23および物体特定部24のそれぞれにより特定された点についての点群情報と、を用いて、それぞれの拠点における各表面や各物体の対応を設定する。   The space correspondence setting unit 31 includes the color information extracted by the color information extraction unit 25 at the local site, the color information extracted by the color information extraction unit 25 at the other site, the surface identification unit 23 and the object identification unit at the local site. 24 using each of the point group information about the points specified by each of the points 24 and the point group information about the points specified by each of the surface specifying unit 23 and the object specifying unit 24 of the other bases. Set the correspondence of the surface and each object.

それぞれの拠点における各表面や各物体の対応を設定するとは、例えば、自拠点の床に相当する点群と、他拠点の床に相当する点群と、を対応付けたり、自拠点の椅子に相当する点群と、他拠点の椅子に相当する点群と、を対応付けたりすることである。これら対応の設定では、各表面および各物体に属する点で形成される3次元形状間の距離(相違度)や、各表面および各物体の色情報間の距離(輝度Yの平均・分散、または、ヒストグラムの距離)を求め、距離の小さい(すなわち類似した)表面同士や物体同士を対応付ける。3次元形状間の距離は、例えば3次元形状特徴を表す特徴量間の距離を計算する方法を用いて求めることができる。   Setting the correspondence between each surface and each object at each base is, for example, associating a point cloud corresponding to the floor of its own base with a point group corresponding to the floor of another base, Corresponding point groups are associated with point groups corresponding to chairs at other locations. With these corresponding settings, the distance (difference) between the three-dimensional shapes formed by the points belonging to each surface and each object, the distance between the color information of each surface and each object (average / dispersion of luminance Y, or , The distance of the histogram) is obtained, and the surfaces or objects having a small distance (that is, similar) are associated with each other. The distance between the three-dimensional shapes can be obtained by using, for example, a method for calculating the distance between the feature amounts representing the three-dimensional shape features.

なお、上述の対応の設定では、表面同士や物体同士が1対1で対応付けられる場合や、表面同士や物体同士が1体多で対応付けられる場合や、自拠点のいずれの表面や物体にも対応しない他拠点の表面や物体が存在する場合もある。例えば、上述の3次元形状間の距離が予め定められた閾値以上である場合に、他拠点の表面または物体が自拠点のいずれの表面および物体にも対応しないと判断してもよい。また、例えば、自拠点および他拠点における表面や物体の情報をユーザに提示して、上述の対応の設定をユーザが行うようにしてもよい。   In the above-mentioned correspondence setting, when the surfaces and objects are associated one-to-one, when the surfaces and objects are associated one-to-many, There are cases where there are surfaces or objects of other bases that do not correspond. For example, when the distance between the above-described three-dimensional shapes is equal to or greater than a predetermined threshold, it may be determined that the surface or object at the other site does not correspond to any surface or object at the own site. In addition, for example, information on the surface and objects at the local site and other sites may be presented to the user, and the user may perform the above-described setting.

色調整部32は、自拠点の色情報抽出部25により抽出された色情報と、自拠点の空間対応設定部31により設定された対応関係の情報と、他拠点の色情報抽出部25により抽出された色情報と、他拠点のテクスチャ分割部による分割結果と、を用いて、他拠点のテクスチャ情報取得部12により取得された空間映像に対して領域ごとに色調整処理を行う。具体的には、他拠点のテクスチャ分割部26により表面の領域または物体の領域として分割された領域のうち、自拠点の空間対応設定部31により自拠点の表面または物体と対応付けられた領域について、他拠点のテクスチャ情報取得部12により取得された空間映像の色調整を行う。   The color adjustment unit 32 extracts the color information extracted by the color information extraction unit 25 of the local site, the correspondence information set by the spatial correspondence setting unit 31 of the local site, and the color information extraction unit 25 of the other site. Color adjustment processing is performed for each area on the spatial video acquired by the texture information acquisition unit 12 at the other site using the color information thus obtained and the result of division by the texture division unit at the other site. Specifically, among the regions divided by the texture dividing unit 26 at the other site as the surface region or the object region, the region associated with the surface or the object at the own site by the space correspondence setting unit 31 at the own site Then, the color adjustment of the spatial video acquired by the texture information acquisition unit 12 at another base is performed.

上述の色調整処理について、自拠点の物体Pと、他拠点の物体Qと、が自拠点の空間対応設定部31により対応付けられた場合を例に、以下に説明する。この場合、他拠点のテクスチャ情報取得部12により取得された空間映像において、物体Qの色を物体Pに近づける。具体的には、まず、物体Pの領域の輝度平均値と、物体Qの領域の輝度平均値と、の差分を求め、求めた差分を物体Qの領域を構成する各画素の輝度値に加算する。次に、物体Pの領域の色差の平均と分散とを用いてランダムに値を生成し、生成した値に物体Qの領域を構成する各画素の色差値(Cb、Cr)を置き換える。   The color adjustment process described above will be described below by taking as an example a case where the object P at the local site and the object Q at the other site are associated with each other by the space correspondence setting unit 31 at the local site. In this case, the color of the object Q is brought close to the object P in the spatial image acquired by the texture information acquisition unit 12 at another base. Specifically, first, the difference between the average brightness value of the area of the object P and the average brightness value of the area of the object Q is obtained, and the obtained difference is added to the brightness value of each pixel constituting the area of the object Q. To do. Next, a value is randomly generated using the average and variance of the color differences in the area of the object P, and the color difference values (Cb, Cr) of each pixel constituting the area of the object Q are replaced with the generated values.

なお、他拠点のテクスチャ分割部26により被写体領域またはその他の領域として分割された領域については、上述の色調整処理を行わない。また、他拠点のテクスチャ分割部26により表面の領域または物体の領域として分割された領域のうち、自拠点の空間対応設定部31により自拠点のいずれの表面および物体にも対応しないと判断された領域についても、上述の色調整処理を行わない。   It should be noted that the above-described color adjustment processing is not performed on the subject region or the region divided as the other region by the texture dividing unit 26 at another base. Of the areas divided by the texture dividing unit 26 at the other site as the surface area or the object area, the space correspondence setting unit 31 at the own site has determined that it does not correspond to any surface or object at the own site. The above-described color adjustment process is not performed for the area.

以上の空間共有システムAAによれば、以下の効果を奏することができる。   According to the above space sharing system AA, the following effects can be produced.

空間共有システムAAは、参加者A11に、違和感を与えることなく、参加者B11が同じ空間内に存在しているような感覚を提供することができる。   The space sharing system AA can provide a feeling that the participant B11 exists in the same space without giving the participant A11 a sense of incongruity.

また、空間共有システムAAは、参加者B11に、違和感を与えることなく、参加者A11が同じ空間内に存在しているような感覚を提供することができる。   Further, the space sharing system AA can provide a feeling that the participant A11 exists in the same space without giving the participant B11 a sense of incongruity.

なお、本発明の空間共有装置1の処理を、コンピュータ読み取り可能な非一時的な記録媒体に記録し、この記録媒体に記録されたプログラムを空間共有装置1に読み込ませ、実行することによって、本発明を実現できる。   The processing of the space sharing apparatus 1 of the present invention is recorded on a computer-readable non-transitory recording medium, and the program recorded on the recording medium is read into the space sharing apparatus 1 and executed, thereby The invention can be realized.

ここで、上述の記録媒体には、例えば、EPROMやフラッシュメモリといった不揮発性のメモリ、ハードディスクといった磁気ディスク、CD−ROMなどを適用できる。また、この記録媒体に記録されたプログラムの読み込みおよび実行は、空間共有装置1に設けられたプロセッサによって行われる。   Here, for example, a nonvolatile memory such as an EPROM or a flash memory, a magnetic disk such as a hard disk, a CD-ROM, or the like can be applied to the above-described recording medium. Further, reading and execution of the program recorded on the recording medium is performed by a processor provided in the space sharing apparatus 1.

また、上述のプログラムは、このプログラムを記憶装置などに格納した空間共有装置1から、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   Further, the above-described program may be transmitted from the space sharing apparatus 1 storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上述のプログラムは、上述の機能の一部を実現するためのものであってもよい。さらに、上述の機能を空間共有装置1にすでに記録されているプログラムとの組み合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, the above-described program may be for realizing a part of the above-described function. Furthermore, what can implement | achieve the above-mentioned function in combination with the program already recorded on the space sharing apparatus 1, and what is called a difference file (difference program) may be sufficient.

以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design that does not depart from the gist of the present invention.

例えば、上述の実施形態では、図2を用いて上述したように椅子およびテーブルの配色のみを変更するものとした。しかし、これに限らず、例えば、壁や床の配色を変更するものとしてもよい。また、椅子やテーブルや壁や床について、模様を変更してもよいし、模様および配色を変更してもよい。   For example, in the above-described embodiment, only the color scheme of the chair and the table is changed as described above with reference to FIG. However, the present invention is not limited to this, and for example, the color scheme of walls and floors may be changed. Moreover, a pattern may be changed about a chair, a table, a wall, or a floor, and a pattern and a color scheme may be changed.

また、上述の実施形態では、色空間としてYCbCrを用いたが、これに限らず、YUVやHSVといった明るさの情報を独立に扱う色空間であれば用いることができる。   In the above-described embodiment, YCbCr is used as the color space. However, the present invention is not limited to this, and any color space that handles brightness information such as YUV and HSV independently can be used.

また、上述の実施形態において、点群情報に含まれる色情報が、上述の明るさの情報を独立に扱う色空間で表されていない場合(例えば、RGB色空間など)には、色情報抽出部25による色情報の統計的な抽出を行うよりも前に、色情報の色空間を、明るさの情報を独立に扱う色空間に変換するものとする。   Further, in the above-described embodiment, when the color information included in the point cloud information is not represented in a color space that handles the above-described brightness information independently (for example, an RGB color space), color information extraction is performed. Before the color information is statistically extracted by the unit 25, the color space of the color information is converted into a color space that handles brightness information independently.

AA・・・空間共有システム
1・・・空間共有装置
10・・・空間取得部
11・・・奥行情報取得部
12・・・テクスチャ情報取得部
20・・・空間解析部
21・・・被写体抽出部
22・・・点群情報生成部
23・・・表面特定部
24・・・物体特定部
25・・・色情報抽出部
26・・・テクスチャ分割部
30・・・空間再現部
31・・・空間対応設定部
32・・・色調整部
40・・・送信部
50・・・受信部
AA ... Space sharing system 1 ... Space sharing device 10 ... Space acquisition unit 11 ... Depth information acquisition unit 12 ... Texture information acquisition unit 20 ... Spatial analysis unit 21 ... Subject extraction Unit 22 ... Point cloud information generation unit 23 ... Surface identification unit 24 ... Object identification unit 25 ... Color information extraction unit 26 ... Texture division unit 30 ... Spatial reproduction unit 31 ... Spatial correspondence setting unit 32 ... color adjustment unit 40 ... transmission unit 50 ... reception unit

Claims (11)

第1の空間とは異なる第2の空間で撮影された空間映像を画像処理する空間共有装置であって、
前記第1の空間内の情報を取得する空間取得手段と、
前記空間取得手段により取得された情報を解析する空間解析手段と、
前記空間解析手段による解析結果に基づいて、前記第2の空間で撮影された空間映像のテクスチャを補正する空間再現手段と、を備えることを特徴とする空間共有装置。
A space sharing device that performs image processing on a spatial video captured in a second space different from the first space,
Space acquisition means for acquiring information in the first space;
Space analysis means for analyzing the information acquired by the space acquisition means;
A space sharing device, comprising: a space reproduction unit that corrects a texture of a spatial image captured in the second space based on an analysis result by the space analysis unit.
前記空間再現手段は、前記第2の空間で撮影された空間映像のテクスチャとして、前記第2の空間で撮影された空間映像における模様および色のうち少なくともいずれかを補正することを特徴とする請求項1に記載の空間共有装置。   The space reproduction unit corrects at least one of a pattern and a color in a spatial image captured in the second space as a texture of the spatial image captured in the second space. Item 2. The space sharing device according to Item 1. 前記空間取得手段は、
前記第1の空間内の奥行き情報を取得する奥行情報取得手段と、
前記第1の空間内のテクスチャ情報を取得するテクスチャ情報取得手段と、
を備えることを特徴とする請求項1または2に記載の空間共有装置。
The space acquisition means includes
Depth information acquisition means for acquiring depth information in the first space;
Texture information acquisition means for acquiring texture information in the first space;
The space sharing apparatus according to claim 1, further comprising:
前記空間解析手段は、
前記奥行情報取得手段により取得された奥行情報と、前記テクスチャ情報取得手段により取得されたテクスチャ情報と、に基づいて、色情報を有する点群情報を生成する点群情報生成手段と、
前記点群情報生成手段により生成された点群情報に対して予め定められた表面モデルを当てはめて、前記点群情報生成手段により生成された点群情報を有する点群のうち前記第1の空間を構成する表面に該当する点を特定する表面特定手段と、
前記点群情報生成手段により生成された点群情報を有する点群のうち前記表面特定手段により特定されたものを除くものをクラスタリングして、前記第1の空間に配置される物体ごとに当該物体に属する点を特定する物体特定手段と、
前記表面特定手段により特定された表面に該当する点と、前記物体特定手段により特定された物体に属する点と、から色情報を統計的に抽出する色情報抽出手段と、
テクスチャ情報取得手段により取得されたテクスチャ情報と、表面特定手段により特定された表面に該当する点についての情報と、物体特定手段により特定された物体に属する点についての情報と、を用いて、前記テクスチャ情報取得手段により取得された前記第1の空間内のテクスチャ情報を複数の領域に分割するテクスチャ分割手段と、を備えることを特徴とする請求項3に記載の空間共有装置。
The spatial analysis means includes
Point cloud information generating means for generating point cloud information having color information based on the depth information acquired by the depth information acquiring means and the texture information acquired by the texture information acquiring means;
By applying a predetermined surface model to the point cloud information generated by the point cloud information generating means, the first space among the point clouds having the point cloud information generated by the point cloud information generating means. A surface specifying means for specifying a point corresponding to the surface constituting
Clustering the point cloud having the point cloud information generated by the point cloud information generating means excluding the point cloud specified by the surface specifying means, the object for each object placed in the first space An object specifying means for specifying a point belonging to
Color information extracting means for statistically extracting color information from a point corresponding to the surface specified by the surface specifying means and a point belonging to the object specified by the object specifying means;
Using the texture information acquired by the texture information acquisition means, information about points corresponding to the surface specified by the surface specification means, and information about points belonging to the object specified by the object specification means, The space sharing apparatus according to claim 3, further comprising: a texture dividing unit that divides the texture information in the first space acquired by the texture information acquiring unit into a plurality of regions.
前記テクスチャ分割手段は、前記テクスチャ情報取得手段により取得された前記第1の空間内のテクスチャ情報を、表面の領域と、物体の領域と、前記表面の領域でも前記物体の領域でもない領域と、に分割することを特徴とする請求項4に記載の空間共有装置。   The texture dividing means includes texture information in the first space acquired by the texture information acquiring means, a surface area, an object area, an area that is neither the surface area nor the object area, The space sharing apparatus according to claim 4, wherein the space sharing apparatus is divided into two. 前記空間解析手段は、前記奥行情報取得手段により取得された奥行情報と、前記テクスチャ情報取得手段により取得されたテクスチャ情報と、を用いて、前記テクスチャ情報取得手段により取得されたテクスチャ情報の中から、被写体の画像の領域である被写体領域を抽出する被写体抽出手段を備え、
前記テクスチャ分割手段は、テクスチャ情報取得手段により取得されたテクスチャ情報と、前記表面特定手段により特定された表面に該当する点についての情報と、前記物体特定手段により特定された物体に属する点についての情報と、前記被写体抽出手段により抽出された被写体領域と、を用いて、前記テクスチャ情報取得手段により取得された前記第1の空間内のテクスチャ情報を、前記表面の領域と、前記物体の領域と、前記被写体領域と、前記表面の領域でも前記物体の領域でも前記被写体領域でもない領域と、に分割することを特徴とする請求項4または5に記載の空間共有装置。
The space analysis means uses the depth information acquired by the depth information acquisition means and the texture information acquired by the texture information acquisition means, from among the texture information acquired by the texture information acquisition means. A subject extracting means for extracting a subject area that is a subject image area;
The texture dividing unit includes the texture information acquired by the texture information acquiring unit, the information about the point corresponding to the surface specified by the surface specifying unit, and the point belonging to the object specified by the object specifying unit. Using the information and the subject area extracted by the subject extracting means, the texture information in the first space acquired by the texture information acquiring means, the surface area, and the object area, 6. The space sharing apparatus according to claim 4, wherein the subject region is divided into a region that is neither the surface region, the object region, nor the subject region.
前記空間再現手段は、
前記表面特定手段により特定された点が該当する表面と、前記物体特定手段により特定された点が属する物体と、について前記第1の空間と前記第2の空間との間で対応付ける空間対応設定手段と、
前記第2の空間で撮影された空間映像における表面または物体の領域の色情報を、前記空間対応設定手段により対応付けられた前記第1の空間における表面または物体の領域の色情報を用いて調整する色調整手段と、を備えることを特徴とする請求項4から6のいずれかに記載の空間共有装置。
The space reproduction means includes
Space correspondence setting means for associating between the first space and the second space the surface to which the point specified by the surface specifying means corresponds and the object to which the point specified by the object specifying means belongs When,
The color information of the surface or object region in the spatial image captured in the second space is adjusted using the color information of the surface or object region in the first space associated by the space correspondence setting means. The space sharing apparatus according to claim 4, further comprising a color adjusting unit configured to perform color adjustment.
前記色情報抽出手段は、前記点群情報生成手段により生成された点群情報の色情報を、明るさの情報を独立に扱う色空間に変換し、前記表面特定手段により特定された点が該当する表面のそれぞれと、前記物体特定手段により特定された点が属する物体のそれぞれと、について、前記色空間の各成分の平均値および分散値、または、前記色空間の各成分のカラーヒストグラムを求め、
前記色調整手段は、前記第2の空間で撮影された空間映像における表面または物体の領域の色情報を、前記空間対応設定手段により対応付けられた前記第1の空間における表面または物体の領域について前記色情報抽出手段により求められた結果を用いて調整することを特徴とする請求項7に記載の空間共有装置。
The color information extraction unit converts the color information of the point group information generated by the point group information generation unit into a color space that handles brightness information independently, and the point specified by the surface specification unit corresponds The average value and variance value of each component of the color space or the color histogram of each component of the color space is obtained for each of the surfaces to be processed and each of the objects to which the points specified by the object specifying means belong. ,
The color adjustment unit is configured to display color information of a surface or an object region in a spatial image captured in the second space with respect to the surface or object region in the first space associated with the space correspondence setting unit. The space sharing apparatus according to claim 7, wherein adjustment is performed using a result obtained by the color information extraction unit.
第1の空間に配置された第1の空間共有装置と、第2の空間に配置された第2の空間共有装置と、を備える空間共有システムであって、
前記第1の空間共有装置は、
前記第1の空間内の情報を取得する第1の空間取得手段と、
前記第1の空間取得手段により取得された情報を解析する第1の空間解析手段と、
前記第1の空間解析手段による解析結果に基づいて、前記第2の空間で撮影された空間映像のテクスチャを補正する第1の空間再現手段と、を備え、
前記第2の空間共有装置は、
前記第2の空間内の情報を取得する第2の空間取得手段と、
前記第2の空間取得手段により取得された情報を解析する第2の空間解析手段と、
前記第2の空間解析手段による解析結果に基づいて、前記第1の空間で撮影された空間映像のテクスチャを補正する第2の空間再現手段と、を備えることを特徴とする空間共有システム。
A space sharing system comprising: a first space sharing device arranged in a first space; and a second space sharing device arranged in a second space,
The first space sharing device includes:
First space acquisition means for acquiring information in the first space;
First space analysis means for analyzing the information acquired by the first space acquisition means;
First spatial reproduction means for correcting the texture of the spatial video imaged in the second space based on the analysis result by the first spatial analysis means,
The second space sharing device includes:
Second space acquisition means for acquiring information in the second space;
Second space analysis means for analyzing the information acquired by the second space acquisition means;
A space sharing system, comprising: second space reproduction means for correcting a texture of a spatial video imaged in the first space based on an analysis result by the second space analysis means.
空間取得手段、空間解析手段、および空間再現手段を備え、第1の空間とは異なる第2の空間で撮影された空間映像を画像処理する空間共有装置における空間共有方法であって、
前記空間取得手段が、前記第1の空間内の情報を取得する第1のステップと、
前記空間解析手段が、前記第1のステップにより取得された情報を解析する第2のステップと、
前記空間再現手段が、前記第2のステップによる解析結果に基づいて、前記第2の空間で撮影された空間映像のテクスチャを補正する第3のステップと、を備えることを特徴とする空間共有方法。
A space sharing method in a space sharing apparatus that includes a space acquisition unit, a space analysis unit, and a space reproduction unit, and performs image processing on a spatial video captured in a second space different from the first space,
A first step in which the space acquisition means acquires information in the first space;
A second step in which the spatial analysis means analyzes the information acquired in the first step;
And a third step of correcting the texture of the spatial image captured in the second space based on the analysis result of the second step. .
空間取得手段、空間解析手段、および空間再現手段を備え、第1の空間とは異なる第2の空間で撮影された空間映像を画像処理する空間共有装置における空間共有方法を、コンピュータに実行させるためのプログラムであって、
前記空間取得手段が、前記第1の空間内の情報を取得する第1のステップと、
前記空間解析手段が、前記第1のステップにより取得された情報を解析する第2のステップと、
前記空間再現手段が、前記第2のステップによる解析結果に基づいて、前記第2の空間で撮影された空間映像のテクスチャを補正する第3のステップと、をコンピュータに実行させるためのプログラム。
In order to cause a computer to execute a space sharing method in a space sharing apparatus that includes a space acquisition unit, a space analysis unit, and a space reproduction unit and performs image processing on a spatial video imaged in a second space different from the first space The program of
A first step in which the space acquisition means acquires information in the first space;
A second step in which the spatial analysis means analyzes the information acquired in the first step;
A program for causing the computer to execute a third step in which the space reproduction means corrects a texture of a spatial video imaged in the second space based on the analysis result in the second step.
JP2014035008A 2014-02-26 2014-02-26 Space sharing device, space sharing system, space sharing method, and program Expired - Fee Related JP6214427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014035008A JP6214427B2 (en) 2014-02-26 2014-02-26 Space sharing device, space sharing system, space sharing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014035008A JP6214427B2 (en) 2014-02-26 2014-02-26 Space sharing device, space sharing system, space sharing method, and program

Publications (2)

Publication Number Publication Date
JP2015162708A true JP2015162708A (en) 2015-09-07
JP6214427B2 JP6214427B2 (en) 2017-10-18

Family

ID=54185561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014035008A Expired - Fee Related JP6214427B2 (en) 2014-02-26 2014-02-26 Space sharing device, space sharing system, space sharing method, and program

Country Status (1)

Country Link
JP (1) JP6214427B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017143376A (en) * 2016-02-09 2017-08-17 三菱電機インフォメーションネットワーク株式会社 Image composition device and image composition program
JP2020057038A (en) * 2018-09-28 2020-04-09 凸版印刷株式会社 Pixel-region-to-be-changed extraction device, image processing system, pixel-region-to-be-changed extraction method, image processing method, and program
JP2020057037A (en) * 2018-09-28 2020-04-09 凸版印刷株式会社 Pixel-region-to-be-changed extraction device, image processing system, pixel-region-to-be-changed extraction method, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006333301A (en) * 2005-05-30 2006-12-07 Victor Co Of Japan Ltd Video communication apparatus
JP2013196154A (en) * 2012-03-16 2013-09-30 Ntt Docomo Inc Image communication system, ar (augmented reality) moving image generation device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006333301A (en) * 2005-05-30 2006-12-07 Victor Co Of Japan Ltd Video communication apparatus
JP2013196154A (en) * 2012-03-16 2013-09-30 Ntt Docomo Inc Image communication system, ar (augmented reality) moving image generation device and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017143376A (en) * 2016-02-09 2017-08-17 三菱電機インフォメーションネットワーク株式会社 Image composition device and image composition program
JP2020057038A (en) * 2018-09-28 2020-04-09 凸版印刷株式会社 Pixel-region-to-be-changed extraction device, image processing system, pixel-region-to-be-changed extraction method, image processing method, and program
JP2020057037A (en) * 2018-09-28 2020-04-09 凸版印刷株式会社 Pixel-region-to-be-changed extraction device, image processing system, pixel-region-to-be-changed extraction method, image processing method, and program
JP7119853B2 (en) 2018-09-28 2022-08-17 凸版印刷株式会社 Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program
JP7119854B2 (en) 2018-09-28 2022-08-17 凸版印刷株式会社 Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program

Also Published As

Publication number Publication date
JP6214427B2 (en) 2017-10-18

Similar Documents

Publication Publication Date Title
US9282285B2 (en) Providing user video having a virtual curtain to an online conference
US8638329B2 (en) Auto-stereoscopic interpolation
US8538135B2 (en) Pulling keys from color segmented images
US8817046B2 (en) Color channels and optical markers
EP3550522A1 (en) Image processing device and method
US9270943B2 (en) System and method for augmented reality-enabled interactions and collaboration
US11250619B2 (en) Image processing apparatus and method
US20150262427A1 (en) Augmented reality provision system, method, and non-transitory computer readable medium
JP6778163B2 (en) Video synthesizer, program and method for synthesizing viewpoint video by projecting object information onto multiple surfaces
JP2012247891A (en) Image processing device, image processing method, and program
JP6214427B2 (en) Space sharing device, space sharing system, space sharing method, and program
IL257304A (en) 2d-to-3d video frame conversion
JP5581452B2 (en) Parallax adjustment device and operation control method thereof
JP2016048467A (en) Motion parallax reproduction method, device and program
WO2012172853A1 (en) Apparatus for generating three-dimensional image, method for generating three-dimensional image, program, and recording medium
JP2017156880A (en) Image processing device and image processing method
JP6717486B1 (en) Extended virtual space providing system
CN106231350B (en) Main broadcaster's class interaction platform method for changing scenes and its device
TWI478100B (en) Method of image depth estimation and apparatus thereof
EP3493541A3 (en) Selecting an omnidirectional image for display
CN109151432B (en) A kind of stereo-picture color and depth edit methods
JP2017111620A (en) Image processing device, image processing method and image processing program
Jung et al. Geometric and colorimetric error compensation for multi-view images
WO2019039296A1 (en) Video processing device, video processing method, program, and remote communication system
CN114140580B (en) Texture adjusting method and equipment for hand three-dimensional model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170919

R150 Certificate of patent or registration of utility model

Ref document number: 6214427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees