JP2021144472A - Information processing system, information processing method, and program - Google Patents
Information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP2021144472A JP2021144472A JP2020042753A JP2020042753A JP2021144472A JP 2021144472 A JP2021144472 A JP 2021144472A JP 2020042753 A JP2020042753 A JP 2020042753A JP 2020042753 A JP2020042753 A JP 2020042753A JP 2021144472 A JP2021144472 A JP 2021144472A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional shape
- information
- contour
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
Abstract
Description
本発明は、情報処理システム、情報処理方法およびプログラムに関する。 The present invention relates to information processing systems, information processing methods and programs.
プロジェクションマッピングでは、プロジェクタとスクリーンとの3次元的な位置関係やスクリーンの凹凸を考慮して、投射される映像が計算される。スクリーン上に物体が挿入されると、スクリーンに投射すべく計算された映像が物体に投射され、物体上に歪んだ映像が表示される。そのため、物体を避けて映像を投射することが検討されている。物体を避けて映像を投射する技術としては、例えば、特許文献1,2の技術が知られている。 In projection mapping, the projected image is calculated in consideration of the three-dimensional positional relationship between the projector and the screen and the unevenness of the screen. When an object is inserted on the screen, the image calculated to be projected on the screen is projected on the object, and a distorted image is displayed on the object. Therefore, it is considered to project an image while avoiding an object. As a technique for projecting an image while avoiding an object, for example, the techniques of Patent Documents 1 and 2 are known.
上記の従来技術では、カメラで撮影された物体の2次元形状のみに基づいて非投射領域が設定される。カメラの死角になる物体の背面部分の形状は、カメラの画像からは把握できない。そのため、物体によってカメラの死角になるスクリーン上の領域に、物体の輪郭に沿った映像を投射することは難しい。 In the above prior art, the non-projection region is set based only on the two-dimensional shape of the object photographed by the camera. The shape of the back part of the object that becomes the blind spot of the camera cannot be grasped from the image of the camera. Therefore, it is difficult to project an image along the contour of the object on the area on the screen that becomes the blind spot of the camera due to the object.
そこで、本開示では、物体の全周にわたって物体の輪郭に沿った映像を生成することが可能な情報処理システム、情報処理方法およびプログラムを提案する。 Therefore, the present disclosure proposes an information processing system, an information processing method, and a program capable of generating an image along the contour of an object over the entire circumference of the object.
本開示によれば、スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定する推定部と、前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する映像生成部と、を有する情報処理システムが提供される。また、本開示によれば、前記情報処理システムの情報処理をコンピュータにより実行される情報処理方法、ならびに、前記情報処理システムの情報処理をコンピュータに実現させるプログラムが提供される。 According to the present disclosure, an estimation unit that estimates the three-dimensional shape of the object based on an image of the object on the screen, and an estimation unit that estimates the space occupied by the object on the screen based on the three-dimensional shape of the object. An information processing system including an image generation unit that generates an image projected on the screen while avoiding the space is provided. Further, according to the present disclosure, there is provided an information processing method in which the information processing of the information processing system is executed by a computer, and a program for realizing the information processing of the information processing system in the computer.
以下に、本開示の実施形態について図面に基づいて詳細に説明する。以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In each of the following embodiments, the same parts are designated by the same reference numerals, so that duplicate description will be omitted.
なお、説明は以下の順序で行われる。
[1.第1実施形態]
[1−1.情報処理システムの構成]
[1−2.情報処理方法]
[1−3.効果]
[1−4.変形例1]
[1−5.変形例2]
[1−6.変形例3]
[2.第2実施形態]
[2−1.情報処理システムの構成]
[2−2.情報処理方法]
[2−3.効果]
[3.第3実施形態]
[3−1.情報処理システムの構成]
[3−2.情報処理方法]
[3−3.効果]
The explanation will be given in the following order.
[1. First Embodiment]
[1-1. Information processing system configuration]
[1-2. Information processing method]
[1-3. effect]
[1-4. Modification 1]
[1-5. Modification 2]
[1-6. Modification 3]
[2. Second Embodiment]
[2-1. Information processing system configuration]
[2-2. Information processing method]
[2-3. effect]
[3. Third Embodiment]
[3-1. Information processing system configuration]
[3-2. Information processing method]
[3-3. effect]
[1.第1実施形態]
[1−1.情報処理システムの構成]
図1は、第1実施形態の情報処理システム1の概略図である。
[1. First Embodiment]
[1-1. Information processing system configuration]
FIG. 1 is a schematic view of the information processing system 1 of the first embodiment.
情報処理システム1は、例えば、処理装置10と、記憶装置20と、1以上のプロジェクタ30と、カメラ40と、を有する。
The information processing system 1 includes, for example, a
処理装置10は、スクリーンSCR上に1以上のプロジェクタ30からの映像IMをマッピングする装置である。スクリーンSCRは、例えば、建築物または家具である。処理装置10は、例えば、カメラ40によって撮影された画像に基づいて、スクリーンSCR上に挿入された物体OBを検出する。処理装置10は、物体OBを避けてスクリーンSCR上に投射される映像IMを生成する。
The
カメラ40は、被写体の奥行情報を検出可能なカメラである。カメラ40は、例えば、スクリーンSCRの上方に設置される。カメラ40は、スクリーンSCRの上方の1か所からスクリーンSCR全体を撮影する。処理装置10は、カメラ40で撮影された画像に基づいて、スクリーンSCR上に挿入された物体OBの奥行情報を検出する。
The
奥行情報を検出する方法としては、例えば、パッシブステレオ方式、アクティブステレオ方式およびTOF方式(Time of Flight)が採用される。パッシブステレオ方式は、2台のカメラの画像間でマッチングを行って被写体の奥行情報を検出する方式である。アクティブステレオ方式は、プロジェクタから投射されるパターンの画像と,カメラで撮影された画像と、の間でマッチングを行って被写体の奥行情報を検出する方式である。TOF方式は、光源から光を照射し,物体で反射して戻るまでの時間差を調べることで、被写体の奥行情報を検出する方式である。 As a method for detecting the depth information, for example, a passive stereo method, an active stereo method, and a TOF method (Time of Flight) are adopted. The passive stereo method is a method of detecting the depth information of a subject by matching between the images of two cameras. The active stereo method is a method of detecting the depth information of a subject by matching between an image of a pattern projected from a projector and an image taken by a camera. The TOF method is a method of detecting depth information of a subject by irradiating light from a light source and examining the time difference between reflection by an object and return.
スクリーンSCRの上方には、1以上のプロジェクタ30が設置されている。図1の例では、第1プロジェクタ30Aおよび第2プロジェクタ30Bを含む複数のプロジェクタ30がスクリーンSCR上に設置されている。第1プロジェクタ30Aと第2プロジェクタ30Bとは、例えば、スクリーンSCRの中心を挟んで向かい合う位置に設置されている。第2プロジェクタ30Bは、例えば、カメラ40の近傍に設置されている。カメラ40の光軸と第2プロジェクタ30Bの光軸とは概ね一致する。
One or
処理装置10は、例えば、画像取得部11と、座標情報抽出部12と、概形判定部13と、推定部14と、映像生成部15と、を有する。
The
画像取得部11は、カメラ40で撮影された画像のデータを取得する。画像取得部11は、画像のデータを座標情報抽出部12に出力する。
The
座標情報抽出部12は、カメラ40で撮影された画像から物体OBの3次元空間上の座標情報を抽出する。座標情報抽出部12は、例えば、物体OBの奥行情報を3次元空間上の座標情報に変換する。座標情報抽出部12は、例えば、物体OBを構成する点群のうち、カメラ40の死角になっていない物体OBの前面部分の点群の一部または全部の座標情報を物体OBの座標情報として抽出する。
The coordinate
概形判定部13は、物体OBの座標情報に基づいて物体OBの概形を判定する。概形判定部13は、例えば、物体OBの座標情報から抽出された物体OBの局所特徴を分析モデル23に当てはめて物体OBの概形を判定する。
The
分析モデル23は、例えば、物体OBの局所特徴と物体OBの概形との対応関係を規定する。分析モデル23は、例えば、局所特徴として、高さの異なる複数の物体OBの断面の形状および面積の比率に関する情報を規定する。概形は、例えば、球、円柱、角柱、円錐などの単純物体の種別として規定される。分析モデル23には、複数の単純物体の概形の情報が規定されている。
The
概形判定部13は、例えば、物体OBの座標情報から、高さの異なる複数の物体OBの断面の形状および面積の比率に関する情報を抽出する。カメラ40の死角になる背面部分の物体OBの形状はカメラ40の画像からは把握できない。そのため、概形判定部13は、カメラ40の死角になっていない前面部分の物体OBの形状に基づいて、物体OBの断面形状を推定する。例えば、概形判定部13は、断面の輪郭を構成する点群を囲むバウンディングボックスを設定する。バウンディングボックスの角部に点群の座標が存在しない場合には、概形判定部13は、断面形状を円と判定する。バウンディングボックスの角部に点群の座標が存在する場合には、概形判定部13は、断面形状を四角と判定する。概形判定部13は、抽出された情報に関連付けられた単純物体の種別を物体OBの概形と判定する。概形判定部13は、物体OBの概形の情報を推定部14に出力する。
The
図2は、分析モデル23で規定される局所特徴と概形との対応関係を示す図である。
FIG. 2 is a diagram showing the correspondence between the local features defined by the
図2の例では、概形の判定基準となる複数の断面として、第1断面CT1、第2断面CT2および第3断面CT3が用いられる。第1断面CT1は、例えば、物体OBの最低面(スクリーンSCRと対向する面)である。第2断面CT2は、例えば、物体OBの最高面(スクリーンSCRから最も離れた面)である。第3断面CT3は、例えば、第1断面CT1と第2断面CT2との中間の高さの断面である。 In the example of FIG. 2, a first cross section CT1, a second cross section CT2, and a third cross section CT3 are used as a plurality of cross sections that serve as criteria for determining the outline. The first cross section CT1 is, for example, the lowest surface of the object OB (the surface facing the screen SCR). The second cross section CT2 is, for example, the highest surface of the object OB (the surface farthest from the screen SCR). The third cross section CT3 is, for example, a cross section having a height intermediate between the first cross section CT1 and the second cross section CT2.
第1断面CT1と第2断面CT2とのうち、大きい方の断面の面積をAとし、小さい方の断面の面積をBとする。第3断面の面積をCとする。例えば、B/Aが第1閾値以上で、且つ、C/Aが第2閾値以下である場合には、物体OBの概形は柱状であると判定される。面積Aを有する断面のバウンディングボックスの角部に点群の座標が存在しない場合には、円柱と判定され、点群の座標が存在する場合には、角柱であると判定される。 Of the first cross section CT1 and the second cross section CT2, the area of the larger cross section is A, and the area of the smaller cross section is B. Let C be the area of the third cross section. For example, when the B / A is equal to or higher than the first threshold value and the C / A is equal to or lower than the second threshold value, the general shape of the object OB is determined to be columnar. If the coordinates of the point cloud do not exist at the corners of the bounding box of the cross section having the area A, it is determined to be a cylinder, and if the coordinates of the point cloud exist, it is determined to be a prism.
例えば、C/Aが第3閾値よりも大きい場合には、物体OBの概形は球であると判定される。B/Aが第1閾値未満で、且つ、C/Aが第3閾値以下である場合には、物体OBの概形は錐体であると判定される。面積Aを有する断面のバウンディングボックスの角部に点群の座標が存在しない場合には、円錐と判定され、点群の座標が存在する場合には、四角錐であると判定される。 For example, when the C / A is larger than the third threshold value, it is determined that the approximate shape of the object OB is a sphere. When the B / A is less than the first threshold value and the C / A is less than or equal to the third threshold value, it is determined that the approximate shape of the object OB is a cone. If the coordinates of the point cloud do not exist at the corners of the bounding box of the cross section having the area A, it is determined to be a cone, and if the coordinates of the point cloud exist, it is determined to be a quadrangular pyramid.
図1に戻って、推定部14は、スクリーンSCR上の物体OBの画像に基づいて物体OBの3次元形状を推定する。推定部14は、例えば、物体OBの概形および座標情報に基づいて、物体OBを単純化した疑似物体POBの3次元モデルを生成する。疑似物体POBの3次元モデルは、例えば、物体OBの概形の情報に疑似物体POBの寸法情報(疑似物体POBの断面の径および高さなどの情報)を組み合わせて生成される。疑似物体POBの寸法情報は、例えば、物体OBの座標情報に基づいて推定される。推定部14は、疑似物体POBの3次元形状を物体OBの3次元形状と推定する。 Returning to FIG. 1, the estimation unit 14 estimates the three-dimensional shape of the object OB based on the image of the object OB on the screen SCR. The estimation unit 14 generates, for example, a three-dimensional model of a pseudo-object POB that simplifies the object OB based on the outline shape and coordinate information of the object OB. The three-dimensional model of the pseudo-object POB is generated, for example, by combining the information on the outline of the object OB with the dimensional information of the pseudo-object POB (information such as the diameter and height of the cross section of the pseudo-object POB). The dimensional information of the pseudo object POB is estimated based on, for example, the coordinate information of the object OB. The estimation unit 14 estimates the three-dimensional shape of the pseudo-object POB as the three-dimensional shape of the object OB.
映像生成部15は、推定部14で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。
The
図3は、疑似物体POBと映像IMとの関係を示す図である。 FIG. 3 is a diagram showing the relationship between the pseudo-object POB and the video IM.
疑似物体POBの周囲には、1以上のプロジェクタ30からの映像IMが投射される。映像IMには、例えば、第1プロジェクタ30Aから投射される第1映像IM1と第2プロジェクタ30Bから投射される第2映像IM2とが含まれる。
Image IMs from one or
スクリーンSCR上には、物体OBによってカメラ40の死角になる領域SAが形成される。領域SAの輪郭SLは、疑似物体POBの前面部分の輪郭POLをスクリーンSCR上に投影したものである。領域SAは軸AXに沿って延びる。軸AXは、カメラ40の光軸をスクリーンSCR上に投影した軸である。
A region SA that becomes a blind spot of the
映像生成部15は、疑似物体POBの3次元形状に基づいて、領域SAに投射される映像を生成する。生成された映像は、カメラ40と異なる位置に設置された第1プロジェクタ30Aから領域SAに投射される。カメラ40の死角にならないスクリーンSCR上の領域NSAには、疑似物体POBの3次元形状に基づいて生成された第1映像IM1および第2映像IM2が投射される。第1映像IM1および第2映像IM2は、疑似物体POBの底面の輪郭に沿った映像として生成される。疑似物体POBは物体OBを模した形状を有する。そのため、スクリーンSCR上には、物体OBの全周にわたって物体OBの輪郭に沿った映像IMが表示される。
The
図1に戻って、記憶装置20は、スクリーンモデル21と、PJパラメータ22と、分析モデル23と、プログラム24と、を記憶する。
Returning to FIG. 1, the
スクリーンモデル21は、スクリーンSCRの3次元モデルである。スクリーンモデル21は、例えば、映像IMが投射されるスクリーンSCRの表面の座標情報を含む。PJパラメータ22は、例えば、プロジェクタ30ごとの、内部パラメータ、設置位置、および、設置位置における姿勢などの情報を含む。
The
映像生成部15は、スクリーンモデル21およびPJパラメータ22を用いて、プロジェクタ30ごとに、幾何補正された表示コンテンツの映像IMを生成する。映像生成部15は、例えば、推定部14で推定された物体OBの3次元形状およびPJパラメータ22に基づいて、プロジェクタ30ごとに、映像IMを投射しないスクリーンSCR上の領域を設定する。
The
プログラム24は、本実施形態に係る情報処理をコンピュータに実行させるプログラムである。処理装置10は、記憶装置20に記憶されているプログラム24にしたがって各種の処理を行う。記憶装置20は、処理装置10の処理結果を一時的に記憶する作業領域として利用されてもよい。記憶装置20は、例えば、半導体記憶媒体および磁気記憶媒体などの任意の非一過的な記憶媒体を含む。記憶装置20は、例えば、光ディスク、光磁気ディスクまたはフラッシュメモリを含んで構成される。プログラム24は、例えば、コンピュータにより読み取り可能な非一過的な記憶媒体に記憶されている。
The
処理装置10は、例えば、プロセッサとメモリとで構成されるコンピュータである。処理装置10のメモリには、RAM(Random Access Memory)およびROM(Read Only Memory)が含まれる。処理装置10は、プログラム24を実行することにより、画像取得部11、座標情報抽出部12、概形判定部13、推定部14および映像生成部15として機能する。
The
[1−2.情報処理方法]
図4は、本実施形態の情報処理方法を示すフローチャートである。
[1-2. Information processing method]
FIG. 4 is a flowchart showing the information processing method of the present embodiment.
ステップS1において、画像取得部11は、カメラ40が撮影したスクリーンSCRの画像を取得する。画像は、スクリーンSCR上に挿入された物体OBの奥行情報を含む。
In step S1, the
ステップS2において、座標情報抽出部12は、物体OBの奥行情報に基づいて、物体OBの3次元空間上の座標情報を抽出する。抽出される座標情報は、カメラ40の死角にならない物体OBの前面部分の座標情報である。カメラ40の死角となる物体OBの背面部分の座標情報は取得されない。
In step S2, the coordinate
ステップS3において、概形判定部13は、物体OBの座標情報に基づいて、物体OBの概形を判定する。概形判定部13は、例えば、物体OBの特定高さの複数の断面の形状および面積の比率などに基づいて、物体OBの特徴を含む単純物体の種別を物体OBの概形として判定する。
In step S3, the
ステップS4において、推定部14は、画像内の物体OBを単純化した疑似物体POBの3次元モデルを生成する。推定部14は、例えば、概形判定部13で判定された概形の情報に、物体OBの座標情報から推定される疑似物体POBの寸法情報を組み合わせて、疑似物体POBの3次元モデルを生成する。
In step S4, the estimation unit 14 generates a three-dimensional model of the pseudo-object POB which is a simplification of the object OB in the image. For example, the estimation unit 14 combines the rough shape information determined by the rough
ステップS5において、推定部14は、疑似物体POBの3次元形状を物体OBの3次元形状と推定する。 In step S5, the estimation unit 14 estimates the three-dimensional shape of the pseudo-object POB as the three-dimensional shape of the object OB.
ステップS6において、映像生成部15は、推定部14で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。
In step S6, the
[1−3.効果]
情報処理システム1は、推定部14と映像生成部15とを有する。推定部14は、スクリーンSCR上の物体OBの画像に基づいて物体OBの3次元形状を推定する。映像生成部15は、物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定し、この空間を避けてスクリーンSCRに投射される映像IMを生成する。本実施形態の情報処理方法は、上述した情報処理システム1の情報処理がコンピュータにより実行される。本実施形態のプログラム24は、上述した情報処理システム1の情報処理をコンピュータに実現させる。
[1-3. effect]
The information processing system 1 has an estimation unit 14 and a
この構成によれば、物体OBの3次元形状に基づいて映像IMの非投射領域が設定される。そのため、物体OBの全周にわたって物体OBの輪郭に沿った映像IMを生成することができる。 According to this configuration, the non-projection region of the image IM is set based on the three-dimensional shape of the object OB. Therefore, it is possible to generate a video IM along the contour of the object OB over the entire circumference of the object OB.
映像生成部15は、例えば、物体OBによって、画像を撮影したカメラ40の死角になるスクリーンSCR上の領域に投射される映像IMを生成する。
The
この構成によれば、カメラ40の死角になる領域にも、物体OBの輪郭に沿った映像IMが投射される。
According to this configuration, the image IM along the contour of the object OB is also projected on the area that becomes the blind spot of the
情報処理システム1は、例えば、座標情報抽出部12と概形判定部13とを有する。座標情報抽出部12は、例えば、画像から物体OBの座標情報を抽出する。概形判定部13は、例えば、物体OBの座標情報に基づいて物体OBの概形を判定する。推定部14は、例えば、物体OBの概形および座標情報に基づいて、物体OBを単純化した疑似物体POBの3次元モデルを生成する。推定部14は、例えば、疑似物体POBの3次元形状を物体OBの3次元形状と推定する。
The information processing system 1 has, for example, a coordinate
この構成によれば、物体OBの3次元形状が簡易な計算で推定される。実際の物体OBの3次元形状と疑似物体POBの3次元形状との間には誤差が生じる可能性がある。しかし、物体OBが占有する空間には映像IMは投射されない。疑似物体POBの3次元形状と実際の物体OBの3次元形状との間に誤差があっても、映像IMの投射されない領域が増減するのみである。よって、表示品質は大きく損なわれない。 According to this configuration, the three-dimensional shape of the object OB is estimated by a simple calculation. There may be an error between the three-dimensional shape of the actual object OB and the three-dimensional shape of the pseudo-object POB. However, the image IM is not projected in the space occupied by the object OB. Even if there is an error between the three-dimensional shape of the pseudo-object POB and the three-dimensional shape of the actual object OB, the area where the image IM is not projected only increases or decreases. Therefore, the display quality is not significantly impaired.
[1−4.変形例1]
本実施形態では、概形判定部13から出力された概形の情報に疑似物体POBの寸法情報を組み合わせて、疑似物体POBの3次元モデルが生成された。しかし、疑似物体POBの3次元モデルの生成方法はこれに限られない。例えば、推定部14は、カメラ40の画像から抽出された物体OBの複数の点群の座標を滑らかな曲線で接続することで、疑似物体POBの3次元モデルを生成してもよい。例えば、物体OBの高さの異なる複数の断面をNURBS(Non−Uniform Rational B−Spline)で接続して疑似物体POBの3次元モデルを生成することができる。
[1-4. Modification 1]
In the present embodiment, the three-dimensional model of the pseudo-object POB is generated by combining the outline information output from the
[1−5.変形例2]
本実施形態では、概形判定部13は、高さの異なる複数の物体OBの断面の形状および面積の比率に関する情報に基づいて物体OBの概形を判定した。しかし、概形の判定方法はこれに限られない。例えば、概形判定部13は、カメラ40の画像に写る物体OBの輪郭に基づいて物体OBの概形を判定することができる。
[1-5. Modification 2]
In the present embodiment, the
図5および図6は、本変形例における概形の判定方法の一例を示す図である。 5 and 6 are diagrams showing an example of a method for determining the outline shape in this modified example.
図5は、カメラ40によって撮影された物体OBの画像を示す。カメラ40は、例えば、スクリーンSCRの中心部の上方に設置される。概形判定部13は、例えば、画像に写る物体OBの2次元的な形状から物体OBの輪郭OLを抽出する。概形判定部13は、例えば、画像を撮影したカメラ40の光軸に沿って輪郭OLをスクリーンSCR上に投影して得られる輪郭を疑似輪郭PCとして検出する。図6は、輪郭OLと疑似輪郭PCとの関係を示す図である。概形判定部13は、例えば、疑似輪郭PCを最低面の輪郭とする柱状体を物体OBの概形と判定する。
FIG. 5 shows an image of the object OB taken by the
推定部14は、物体OBの概形および座標情報に基づいて、柱状体の3次元モデルを生成する。柱状体である疑似物体POBの3次元モデルは、疑似輪郭PCの形状および寸法の情報に物体OBの高さの情報を組み合わせて生成される。物体OBの高さは、物体OBの最低面の輪郭LOLと最高面の輪郭HOLの高さ方向の座標の差として算出される。推定部14は、疑似物体POBの3次元形状を物体OBの3次元形状と推定する。 The estimation unit 14 generates a three-dimensional model of the columnar body based on the outline shape and coordinate information of the object OB. The three-dimensional model of the pseudo-object POB, which is a columnar body, is generated by combining the information on the shape and dimensions of the pseudo-contour PC with the information on the height of the object OB. The height of the object OB is calculated as the difference between the coordinates of the contour LOL of the lowest surface of the object OB and the contour HOL of the highest surface in the height direction. The estimation unit 14 estimates the three-dimensional shape of the pseudo-object POB as the three-dimensional shape of the object OB.
映像生成部15は、推定部14で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。疑似物体POBは、疑似輪郭PCを最低面とする柱状体である。そのため、映像生成部15は、例えば、疑似輪郭PCに沿った映像IMを生成する。
The
映像生成部15は、例えば、輪郭OLの内側(物体OB側)と外側(スクリーンSCR側)とで被写体の奥行情報に不連続的な変化が生じる輪郭OLの領域を段差領域LLと推定する。段差領域LLは物体OBの最低面としての尤度が低い。そのため、映像生成部15は、段差領域LLに対応する疑似輪郭PCの領域を低尤度輪郭領域LAと推定する。映像生成部15は、低尤度輪郭領域LAに沿って表示される映像IMをぼかす。映像をぼかす方法としては、ガウスぼかしなどの公知の方法が採用される。
For example, the
映像生成部15は、例えば、尤度に応じてぼかす量を異ならせる。映像生成部15は、例えば、低尤度輪郭領域LAの尤度を、低尤度輪郭領域LAに対応する段差領域LLにおいて生じる前記奥行情報の変化量に基づいて判定する。映像生成部15は、例えば、奥行情報の変化量が大きい段差領域LLに対応する低尤度輪郭領域LAほど尤度が小さいと判定する。映像生成部15は、例えば、尤度の小さい低尤度輪郭領域LAに沿った映像IMほど大きくぼかす。
The
映像生成部15は、例えば、輪郭OLの内側と外側とで被写体の奥行情報に連続的な変化が生じる輪郭OLの領域を非段差領域HLと推定する。非段差領域HLは、物体OBの最低面としての尤度が高い。そのため、映像生成部15は、非段差領域HLに対応する疑似輪郭PCの領域を高尤度輪郭領域HAと推定する。映像生成部15は、高尤度輪郭領域HAに沿って表示される映像IMをぼかさない。
For example, the
図7は、低尤度輪郭領域LAに沿って投射される映像の一例を示す図である。図7では、ドットパターンの明るさに勾配をつけて映像IMをぼかしている。図7の上段は、映像IMと疑似物体POBとの位置関係を示す。図7の下段は、映像IMと物体OBとの位置関係を示す。 FIG. 7 is a diagram showing an example of an image projected along the low-likelihood contour region LA. In FIG. 7, the image IM is blurred by adding a gradient to the brightness of the dot pattern. The upper part of FIG. 7 shows the positional relationship between the video IM and the pseudo-object POB. The lower part of FIG. 7 shows the positional relationship between the image IM and the object OB.
低尤度輪郭領域LAに面した物体OBの背面部分はカメラの死角となる。カメラ40の死角になる背面部分の物体OBの形状は、カメラ40の画像からは把握できない。疑似輪郭PCに沿って映像IMを投射する場合、推定された物体OBの3次元形状と実際の物体OBの3次元形状との間にずれδが生じると、実際の物体OBの輪郭とは異なる位置(疑似輪郭PCの位置)に映像IMの境界ができる。しかし、映像がぼかされていれば、明確な境界線が形成されない。そのため、表示に違和感が生じにくい。尤度に応じてぼかす量を異ならせることで、より違和感が少なくなる。
The back portion of the object OB facing the low-likelihood contour region LA is a blind spot of the camera. The shape of the object OB on the back surface, which is the blind spot of the
[1−6.変形例3]
本実施形態では、被写体の奥行情報を検出するカメラ40がスクリーンSCRの上方の1か所に設けられたが、カメラ40の数は1つに限られない。複数のカメラ40がスクリーンSCRの上方に設置されてもよい。
[1-6. Modification 3]
In the present embodiment, the
[2.第2実施形態]
[2−1.情報処理システムの構成]
図8は、第2実施形態の情報処理システム2の概略図である。
[2. Second Embodiment]
[2-1. Information processing system configuration]
FIG. 8 is a schematic view of the information processing system 2 of the second embodiment.
本実施形態において第1実施形態と異なる点は、物体認識技術を用いて物体OBの属するクラスが判定される点、および、クラスごとに規定された1以上の物体モデルの情報と物体OBの座標情報とを照合して物体OBの3次元形状が推定される点である。以下、第1実施形態との相違点を中心に説明を行う。 The points different from the first embodiment in this embodiment are that the class to which the object OB belongs is determined by using the object recognition technique, and the information of one or more object models defined for each class and the coordinates of the object OB. This is a point where the three-dimensional shape of the object OB is estimated by collating with the information. Hereinafter, the differences from the first embodiment will be mainly described.
処理装置50は、例えば、クラス判定部51と照合部52とを有する。記憶装置60は、例えば、物体モデル情報61と分析モデル62とを記憶する。
The
分析モデル62は、被写体の画像を入力層とし、被写体の属するクラスを出力層とする機械学習モデルである。分析モデル62は、ディープラーニングによる一般物体認識技術を用いて、被写体をペットボトル、時計、スマートフォン、椅子、机などのクラスに分類する。
The
物体モデル情報61は、例えば、クラスごとに、クラスに属する1以上の物体モデルの特徴を規定する。例えば、ペットボトルのクラスには、3次元形状の異なる複数のペットボトルが複数の物体モデルとして登録される。物体モデル情報61には、ペットボトルのクラスにおいて、複数のペットボトルと、それぞれのペットボトルの3次元形状の特徴と、が関連付けて規定される。
The
画像取得部11は、カメラ40から取得した画像をクラス判定部51および座標情報抽出部12に出力する。クラス判定部51は、例えば、画像取得部11から出力された画像を分析モデル62に当てはめ、物体OBの画像に基づいて、物体OBのクラスを判定する。画像が複数の物体やノイズとなる環境物体を含む可能性がある場合には、例えば、クラス判定部51は、セマンティックセグメンテーションを用いて、対象となる物体OBを分離し、物体OBのクラス分類を行う。
The
照合部52は、例えば、物体OBの座標情報から抽出された物体OBの特徴を、物体OBのクラスに属する1以上の物体モデルの特徴と照合し、物体OBの特徴を含む物体モデルを判定する。照合は、例えば、SHOT(Signature of Histograms of OrienTations)、PFH(Point Feature Histograms)、PPF(Point Pair Feature)などの公知の3次元特徴量を用いて行われる。
For example, the collating
推定部53は、例えば、物体OBの特徴を含む物体モデルの特徴の情報と物体OBの座標情報とに基づいて物体OBの3次元形状を推定する。物体OBの3次元形状は、例えば、物体モデルの特徴に基づいて規定される形状に物体OBの寸法情報を組み合わせて推定される。物体OBの寸法情報は、例えば、物体OBの座標情報に基づいて推定される。
The
プログラム63は、本実施形態に係る情報処理をコンピュータに実行させるプログラムである。処理装置50は、記憶装置60に記憶されているプログラム63にしたがって各種の処理を行う。処理装置50は、プログラム63を実行することにより、画像取得部11、座標情報抽出部12、クラス判定部51、照合部52、推定部53および映像生成部15として機能する。
The
[2−2.情報処理方法]
図9は、本実施形態の情報処理方法を示すフローチャートである。
[2-2. Information processing method]
FIG. 9 is a flowchart showing the information processing method of the present embodiment.
ステップS11において、画像取得部11はカメラ40が撮影したスクリーンSCRの画像を取得する。画像は、スクリーンSCR上に挿入された物体OBの奥行情報を含む。
In step S11, the
ステップS12において、座標情報抽出部12は、物体OBの奥行情報に基づいて、物体OBの座標情報を抽出する。座標情報抽出部12は、例えば、画像から、物体OBの点群の座標情報を座標情報として抽出する。
In step S12, the coordinate
ステップS13において、クラス判定部51は、画像取得部11から出力された画像を分析モデル62に当てはめ、物体OBの画像に基づいて、物体OBのクラスを判定する。
In step S13, the
ステップS14において、照合部52は、物体OBの座標情報から抽出された物体OBの特徴を、物体OBのクラスに属する1以上の物体モデルの特徴と照合し、物体OBの特徴を含む物体モデルを判定する。
In step S14, the collating
ステップS15において、推定部53は、物体OBの特徴を含む物体モデルの特徴の情報と物体OBの座標情報とに基づいて物体OBの3次元形状を推定する。
In step S15, the
ステップS16において、映像生成部15は、推定部53で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。
In step S16, the
[2−3.効果]
情報処理システム2は、クラス判定部51と照合部52とを有する。クラス判定部51は、スクリーンSCR上に挿入された物体OBの画像に基づいて、物体OBのクラスを判定する。記憶装置60は、クラスごとに、クラスに属する1以上の物体モデルの特徴を規定した物体モデル情報61を記憶する。照合部52は、物体OBの座標情報から抽出された物体OBの特徴を、物体OBのクラスに属する1以上の物体モデルの特徴と照合し、物体OBの特徴を含む物体モデルを判定する。推定部53は、物体OBの特徴を含む物体モデルの特徴の情報と物体OBの座標情報とに基づいて物体OBの3次元形状を推定する。
[2-3. effect]
The information processing system 2 has a
この構成によれば、様々な物体について精度よく3次元形状を推定することができる。 According to this configuration, it is possible to accurately estimate the three-dimensional shape of various objects.
[3.第3実施形態]
[3−1.情報処理システムの構成]
図10は、第3実施形態の情報処理システム3の概略図である。
[3. Third Embodiment]
[3-1. Information processing system configuration]
FIG. 10 is a schematic view of the information processing system 3 of the third embodiment.
本実施形態において第1実施形態と異なる点は、1以上の物体モデルの情報と物体OBの座標情報とを照合して物体OBの3次元形状が推定される点である。情報処理システム3は、例えば、利用可能な玩具が特定された遊戯施設など、物体OBの種類が限定される環境に適用される。そのため、第2実施形態のような物体認識技術を用いたクラス分類は行われない。以下、第1実施形態との相違点を中心に説明を行う。 The difference from the first embodiment in this embodiment is that the three-dimensional shape of the object OB is estimated by collating the information of one or more object models with the coordinate information of the object OB. The information processing system 3 is applied to an environment in which the types of objects OB are limited, such as a play facility in which available toys are specified. Therefore, the classification using the object recognition technique as in the second embodiment is not performed. Hereinafter, the differences from the first embodiment will be mainly described.
記憶装置80は、例えば、物体モデル情報81を記憶する。物体モデル情報81は、例えば、1以上の物体モデルの特徴を規定する。例えば、遊戯施設に積み木などの玩具が備えられている場合には、物体モデル情報81には、利用可能な1以上の玩具と、それぞれの玩具の3次元形状の特徴と、が関連付けて規定される。
The
処理装置70は、例えば、照合部71を有する。照合部71は、例えば、物体OBの座標情報から抽出された物体OBの特徴を1以上の物体モデルの特徴と照合し、物体OBの特徴を含む1以上の物体モデルを判定する。推定部72は、例えば、物体OBの特徴を有する1以上の物体モデルの3次元形状に基づいて物体OBの3次元形状を推定する。
The
図11および図12は、物体モデル情報81に規定される物体モデルOMBの一例を示す図である。
11 and 12 are diagrams showing an example of the object model OMB defined in the
図11は、複数のキューブ状の単位構造体TUが結合した玩具Tを示す。遊戯施設には、単位構造体TYの組み合わせに応じた複数種類の玩具Tが提供される。物体モデル情報81には、単位構造体TUが物体モデルOBMとして規定される。
FIG. 11 shows a toy T in which a plurality of cube-shaped unit structure TUs are combined. The amusement facility is provided with a plurality of types of toys T according to the combination of the unit structure TY. In the
推定部72は、例えば、物体OBの特徴を含む1つの物体モデルを単位構造体YUの物体モデルOBMと推定する。推定部72は、例えば、複数の単位構造体TUを結合させた構造物(玩具T)の3次元形状を物体OBの3次元形状と推定する。単位構造体YUの数および接続構造は、例えば、物体OBの座標情報に基づいて推定される。
The
図12は、物体モデルOBMとして登録される複数種類の積み木を示す。図12の例では、5種類の積み木が物体モデルOBMとして登録される。例えば、物体モデルOBM1は、正方形の板面を有する板状の積み木である。物体モデルOBM2は、円柱状の積み木である。物体モデルOBM3は、キューブ状の積み木である。物体モデルOBM4は、長方形の板面を有する板状の積み木である。物体モデルOBM5は、三角柱状の積み木である。物体モデル情報81には、5種類の物体モデルOBMと、それぞれの物体モデルOBMの3次元形状の特徴と、が関連付けられて規定される。
FIG. 12 shows a plurality of types of building blocks registered as an object model OBM. In the example of FIG. 12, five types of building blocks are registered as the object model OBM. For example, the object model OBM1 is a plate-shaped building block having a square plate surface. The object model OBM2 is a columnar building block. The object model OBM3 is a cube-shaped building block. The object model OBM4 is a plate-shaped building block having a rectangular plate surface. The object model OBM5 is a triangular columnar building block. In the
推定部72は、例えば、物体OBの特徴を有する1以上の物体モデルOBMを特定する。図12では、例えば、物体モデルOBM3、物体モデルOBM2および物体モデルOBM1をこの順に下から積み上げて得られる物体OBが示されている。推定部72は、例えば、物体OBの座標情報に基づいて、1以上の物体モデルOBMの相対位置を判定する。推定部72は、例えば、それぞれの物体モデルOBMの3次元形状および相対位置に基づいて物体OBの3次元形状を推定する。
The
プログラム82は、本実施形態に係る情報処理をコンピュータに実行させるプログラムである。処理装置70は、記憶装置80に記憶されるプログラム82にしたがって各種の処理を行う。処理装置70は、プログラム82を実行することにより、画像取得部11、座標情報抽出部12、照合部71、推定部72および映像生成部15として機能する。
The
[3−2.情報処理方法]
図13は、本実施形態の情報処理方法を示すフローチャートである。
[3-2. Information processing method]
FIG. 13 is a flowchart showing the information processing method of the present embodiment.
ステップS21において、画像取得部11はカメラ40が撮影したスクリーンSCRの画像を取得する。画像は、スクリーンSCR上に挿入された物体OBの奥行情報を含む。
In step S21, the
ステップS22において、座標情報抽出部12は、物体OBの奥行情報に基づいて、物体OBの座標情報を抽出する。座標情報抽出部12は、例えば、画像から、物体OBの点群の座標情報を座標情報として抽出する。
In step S22, the coordinate
ステップS23において、照合部71は、物体OBの座標情報から抽出された物体OBの特徴を1以上の物体モデルOBMの特徴と照合し、物体OBの特徴を含む1以上の物体モデルOBMを判定する。
In step S23, the collating
ステップS24において、推定部72は、物体OBの特徴を有する1以上の物体モデルOBMの3次元形状に基づいて物体OBの3次元形状を推定する。
In step S24, the
ステップS25において、映像生成部15は、推定部72で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。
In step S25, the
[3−3.効果]
情報処理システム3は、照合部71を有する。記憶装置80は、1以上の物体モデルOBMの特徴を規定した物体モデル情報81を記憶する。照合部71は、物体OBの座標情報から抽出された物体OBの特徴を1以上の物体モデルOBMの特徴と照合し、物体OBの特徴を含む1以上の物体モデルOBMを判定する。推定部72は、物体OBの特徴を有する1以上の物体モデルOBMの3次元形状に基づいて物体OBの3次元形状を推定する。
[3-3. effect]
The information processing system 3 has a
この構成によれば、物体モデル情報81に基づいて精度よく物体OBの3次元形状が推定される。
According to this configuration, the three-dimensional shape of the object OB is accurately estimated based on the
推定部72は、例えば、物体OBの特徴を含む1つの物体モデルOBMを単位構造体TUの物体モデルOBMと推定し、複数の単位構造体TUを結合させた構造物(玩具T)の3次元形状を物体OBの3次元形状と推定する。
For example, the
この構成によれば、複数の単位構造体TUを結合させた構造物の3次元形状を精度よく推定することができる。物体モデル情報81に登録される物体モデルOBMの数も少なくすることができる。
According to this configuration, the three-dimensional shape of a structure in which a plurality of unit structures TUs are combined can be accurately estimated. The number of object model OBMs registered in the
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
なお、本技術は以下のような構成も取ることができる。 The present technology can also have the following configurations.
(1)
スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定する推定部と、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する映像生成部と、
を有する情報処理システム。
(2)
前記映像生成部は、前記物体によって、前記画像を撮影したカメラの死角になる前記スクリーン上の領域に投射される映像を生成する
前記(1)に記載の情報処理システム。
(3)
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報に基づいて前記物体の概形を判定する概形判定部と、
を有し、
前記推定部は、前記物体の概形および前記座標情報に基づいて、前記物体を単純化した疑似物体の3次元モデルを生成し、前記疑似物体の3次元形状を前記物体の3次元形状と推定する
前記(1)または(2)に記載の情報処理システム。
(4)
前記概形判定部は、前記画像に写る前記物体の2次元的な形状から前記物体の輪郭を抽出し、前記画像を撮影したカメラの光軸に沿って前記輪郭を前記スクリーン上に投影して得られる輪郭を疑似輪郭として検出し、前記疑似輪郭を最低面の輪郭とする柱状体を前記物体の概形と判定する
前記(3)に記載の情報処理システム。
(5)
前記画像は被写体の奥行情報を含み、
前記映像生成部は、前記輪郭の内側と外側とで、前記被写体の奥行情報に不連続的な変化が生じる前記輪郭の領域を段差領域と推定し、前記段差領域に対応する前記疑似輪郭の領域を低尤度輪郭領域と推定し、前記低尤度輪郭領域に沿った前記映像をぼかす
前記(4)に記載の情報処理システム。
(6)
前記映像生成部は、前記低尤度輪郭領域の尤度を、前記低尤度輪郭領域に対応する前記段差領域において生じる前記奥行情報の変化量に基づいて判定し、
前記映像生成部は、前記奥行情報の変化量が大きい前記段差領域に対応する前記低尤度輪郭領域ほど尤度が小さいと判定し、
前記映像生成部は、尤度の小さい前記低尤度輪郭領域に沿った前記映像ほど大きくぼかす
前記(5)に記載の情報処理システム。
(7)
前記画像に基づいて、前記物体のクラスを判定するクラス判定部と、
クラスごとに、前記クラスに属する1以上の物体モデルの特徴を規定した物体モデル情報を記憶する記憶装置と、
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報から抽出された前記物体の特徴を、前記物体のクラスに属する前記1以上の物体モデルの特徴と照合し、前記物体の特徴を含む物体モデルを判定する照合部と、
を有し、
前記推定部は、前記物体の特徴を含む物体モデルの特徴の情報と前記物体の座標情報とに基づいて前記物体の3次元形状を推定する
前記(1)または(2)に記載の情報処理システム。
(8)
1以上の物体モデルの特徴を規定した物体モデル情報を記憶する記憶装置と、
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報から抽出された前記物体の特徴を前記1以上の物体モデルの特徴と照合し、前記物体の特徴を含む1以上の物体モデルを判定する照合部と、
を有し、
前記推定部は、前記物体の特徴を有する1以上の物体モデルの3次元形状に基づいて前記物体の3次元形状を推定する
前記(1)または(2)に記載の情報処理システム。
(9)
前記推定部は、前記物体の特徴を含む1つの物体モデルを単位構造体の物体モデルと推定し、複数の前記単位構造体を結合させた構造物の3次元形状を前記物体の3次元形状と推定する
前記(8)に記載の情報処理システム。
(10)
スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定し、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する、
ことを有する、コンピュータにより実行される情報処理方法。
(11)
スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定し、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する、
ことをコンピュータに実現させるプログラム。
(1)
An estimation unit that estimates the three-dimensional shape of the object based on the image of the object on the screen,
An image generation unit that estimates the space on the screen occupied by the object based on the three-dimensional shape of the object and generates an image projected on the screen while avoiding the space.
Information processing system with.
(2)
The information processing system according to (1), wherein the image generation unit generates an image projected by the object onto an area on the screen that becomes a blind spot of a camera that has taken the image.
(3)
A coordinate information extraction unit that extracts coordinate information of the object from the image,
An outline determination unit that determines the outline of the object based on the coordinate information of the object,
Have,
The estimation unit generates a three-dimensional model of a pseudo-object that simplifies the object based on the outline shape of the object and the coordinate information, and estimates the three-dimensional shape of the pseudo-object as the three-dimensional shape of the object. The information processing system according to (1) or (2) above.
(4)
The rough shape determination unit extracts the contour of the object from the two-dimensional shape of the object reflected in the image, and projects the contour onto the screen along the optical axis of the camera that captured the image. The information processing system according to (3) above, wherein the obtained contour is detected as a pseudo contour, and a columnar body having the pseudo contour as the contour of the lowest surface is determined as a rough shape of the object.
(5)
The image contains depth information of the subject and contains
The image generation unit estimates that the contour region where the depth information of the subject changes discontinuously inside and outside the contour as a step region, and the pseudo contour region corresponding to the step region. Is estimated as a low-likelihood contour region, and the image along the low-likelihood contour region is blurred. The information processing system according to (4).
(6)
The video generation unit determines the likelihood of the low likelihood contour region based on the amount of change in the depth information that occurs in the step region corresponding to the low likelihood contour region.
The image generation unit determines that the lower likelihood contour region corresponding to the step region where the amount of change in the depth information is larger has a smaller likelihood.
The information processing system according to (5), wherein the image generation unit blurs the image along the low-likelihood contour region having a small likelihood.
(7)
A class determination unit that determines the class of the object based on the image,
A storage device that stores object model information that defines the characteristics of one or more object models belonging to the class for each class.
A coordinate information extraction unit that extracts coordinate information of the object from the image,
A collating unit that collates the features of the object extracted from the coordinate information of the object with the features of the one or more object models belonging to the class of the object and determines the object model including the features of the object.
Have,
The information processing system according to (1) or (2) above, wherein the estimation unit estimates a three-dimensional shape of the object based on the feature information of the object model including the feature of the object and the coordinate information of the object. ..
(8)
A storage device that stores object model information that defines the characteristics of one or more object models, and
A coordinate information extraction unit that extracts coordinate information of the object from the image,
A collating unit that collates the features of the object extracted from the coordinate information of the object with the features of the one or more object models and determines one or more object models including the features of the object.
Have,
The information processing system according to (1) or (2) above, wherein the estimation unit estimates the three-dimensional shape of the object based on the three-dimensional shape of one or more object models having the characteristics of the object.
(9)
The estimation unit estimates one object model including the features of the object as an object model of the unit structure, and sets the three-dimensional shape of the structure in which a plurality of the unit structures are combined as the three-dimensional shape of the object. The information processing system according to (8) above.
(10)
The three-dimensional shape of the object is estimated based on the image of the object on the screen.
Based on the three-dimensional shape of the object, the space on the screen occupied by the object is estimated, and an image projected on the screen is generated while avoiding the space.
A method of information processing performed by a computer that has.
(11)
The three-dimensional shape of the object is estimated based on the image of the object on the screen.
Based on the three-dimensional shape of the object, the space on the screen occupied by the object is estimated, and an image projected on the screen is generated while avoiding the space.
A program that makes a computer realize that.
1,2,3 情報処理システム
12 座標情報抽出部
13 概形判定部
14,53,72 推定部
15 映像生成部
40 カメラ
51 クラス判定部
52,71 照合部
60,80 記憶装置
61,81 物体モデル情報
LA 低尤度輪郭領域
IM 映像
LL 段差領域
OB 物体
OBM 物体モデル
OL 輪郭
POB 疑似物体
PC 疑似輪郭
SCR スクリーン
TU 単位構造体
1,2,3
Claims (11)
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する映像生成部と、
を有する情報処理システム。 An estimation unit that estimates the three-dimensional shape of the object based on the image of the object on the screen,
An image generation unit that estimates the space on the screen occupied by the object based on the three-dimensional shape of the object and generates an image projected on the screen while avoiding the space.
Information processing system with.
請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the image generation unit generates an image projected by the object onto an area on the screen that becomes a blind spot of a camera that has taken the image.
前記物体の座標情報に基づいて前記物体の概形を判定する概形判定部と、
を有し、
前記推定部は、前記物体の概形および前記座標情報に基づいて、前記物体を単純化した疑似物体の3次元モデルを生成し、前記疑似物体の3次元形状を前記物体の3次元形状と推定する
請求項1に記載の情報処理システム。 A coordinate information extraction unit that extracts coordinate information of the object from the image,
An outline determination unit that determines the outline of the object based on the coordinate information of the object,
Have,
The estimation unit generates a three-dimensional model of a pseudo-object that simplifies the object based on the outline shape of the object and the coordinate information, and estimates the three-dimensional shape of the pseudo-object as the three-dimensional shape of the object. The information processing system according to claim 1.
請求項3に記載の情報処理システム。 The rough shape determination unit extracts the contour of the object from the two-dimensional shape of the object reflected in the image, and projects the contour onto the screen along the optical axis of the camera that captured the image. The information processing system according to claim 3, wherein the obtained contour is detected as a pseudo contour, and a columnar body having the pseudo contour as the contour of the lowest surface is determined as an outline of the object.
前記映像生成部は、前記輪郭の内側と外側とで、前記被写体の奥行情報に不連続的な変化が生じる前記輪郭の領域を段差領域と推定し、前記段差領域に対応する前記疑似輪郭の領域を低尤度輪郭領域と推定し、前記低尤度輪郭領域に沿って投射される前記映像をぼかす
請求項4に記載の情報処理システム。 The image contains depth information of the subject and contains
The image generation unit estimates that the contour region in which the depth information of the subject changes discontinuously between the inside and the outside of the contour as a step region, and the pseudo contour region corresponding to the step region. The information processing system according to claim 4, wherein is estimated to be a low-likelihood contour region, and the image projected along the low-likelihood contour region is blurred.
前記映像生成部は、前記奥行情報の変化量が大きい前記段差領域に対応する前記低尤度輪郭領域ほど尤度が小さいと判定し、
前記映像生成部は、尤度の小さい前記低尤度輪郭領域に沿った前記映像ほど大きくぼかす
請求項5に記載の情報処理システム。 The video generation unit determines the likelihood of the low likelihood contour region based on the amount of change in the depth information that occurs in the step region corresponding to the low likelihood contour region.
The image generation unit determines that the lower likelihood contour region corresponding to the step region where the amount of change in the depth information is larger has a smaller likelihood.
The information processing system according to claim 5, wherein the image generation unit blurs the image along the low-likelihood contour region having a small likelihood.
クラスごとに、前記クラスに属する1以上の物体モデルの特徴を規定した物体モデル情報を記憶する記憶装置と、
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報から抽出された前記物体の特徴を、前記物体のクラスに属する前記1以上の物体モデルの特徴と照合し、前記物体の特徴を含む物体モデルを判定する照合部と、
を有し、
前記推定部は、前記物体の特徴を含む物体モデルの特徴の情報と前記物体の座標情報とに基づいて前記物体の3次元形状を推定する
請求項1に記載の情報処理システム。 A class determination unit that determines the class of the object based on the image,
A storage device that stores object model information that defines the characteristics of one or more object models belonging to the class for each class.
A coordinate information extraction unit that extracts coordinate information of the object from the image,
A collating unit that collates the features of the object extracted from the coordinate information of the object with the features of the one or more object models belonging to the class of the object and determines the object model including the features of the object.
Have,
The information processing system according to claim 1, wherein the estimation unit estimates a three-dimensional shape of the object based on the feature information of the object model including the feature of the object and the coordinate information of the object.
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報から抽出された前記物体の特徴を前記1以上の物体モデルの特徴と照合し、前記物体の特徴を含む1以上の物体モデルを判定する照合部と、
を有し、
前記推定部は、前記物体の特徴を有する1以上の物体モデルの3次元形状に基づいて前記物体の3次元形状を推定する
請求項1に記載の情報処理システム。 A storage device that stores object model information that defines the characteristics of one or more object models, and
A coordinate information extraction unit that extracts coordinate information of the object from the image,
A collating unit that collates the features of the object extracted from the coordinate information of the object with the features of the one or more object models and determines one or more object models including the features of the object.
Have,
The information processing system according to claim 1, wherein the estimation unit estimates the three-dimensional shape of the object based on the three-dimensional shape of one or more object models having the characteristics of the object.
請求項8に記載の情報処理システム。 The estimation unit estimates one object model including the features of the object as an object model of the unit structure, and sets the three-dimensional shape of the structure in which a plurality of the unit structures are combined as the three-dimensional shape of the object. The information processing system according to claim 8.
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する、
ことを有する、コンピュータにより実行される情報処理方法。 The three-dimensional shape of the object is estimated based on the image of the object on the screen.
Based on the three-dimensional shape of the object, the space on the screen occupied by the object is estimated, and an image projected on the screen is generated while avoiding the space.
A method of information processing performed by a computer that has.
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する、
ことをコンピュータに実現させるプログラム。 The three-dimensional shape of the object is estimated based on the image of the object on the screen.
Based on the three-dimensional shape of the object, the space on the screen occupied by the object is estimated, and an image projected on the screen is generated while avoiding the space.
A program that makes a computer realize that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020042753A JP2021144472A (en) | 2020-03-12 | 2020-03-12 | Information processing system, information processing method, and program |
PCT/JP2021/004923 WO2021181988A1 (en) | 2020-03-12 | 2021-02-10 | Information processing system, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020042753A JP2021144472A (en) | 2020-03-12 | 2020-03-12 | Information processing system, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021144472A true JP2021144472A (en) | 2021-09-24 |
Family
ID=77671410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020042753A Pending JP2021144472A (en) | 2020-03-12 | 2020-03-12 | Information processing system, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021144472A (en) |
WO (1) | WO2021181988A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6860604B1 (en) * | 2004-01-09 | 2005-03-01 | Imatte, Inc. | Method and apparatus for inhibiting the projection of a shadow of a presenter onto a projection screen |
JP4270264B2 (en) * | 2006-11-01 | 2009-05-27 | セイコーエプソン株式会社 | Image correction apparatus, projection system, image correction method, image correction program, and recording medium |
JP2015177383A (en) * | 2014-03-17 | 2015-10-05 | カシオ計算機株式会社 | Projection device and program |
WO2016125359A1 (en) * | 2015-02-03 | 2016-08-11 | ソニー株式会社 | Information processing device, information processing method and program |
WO2019009100A1 (en) * | 2017-07-07 | 2019-01-10 | ソニー株式会社 | Control device, control method, and program |
-
2020
- 2020-03-12 JP JP2020042753A patent/JP2021144472A/en active Pending
-
2021
- 2021-02-10 WO PCT/JP2021/004923 patent/WO2021181988A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021181988A1 (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9905032B2 (en) | Object removal using lidar-based classification | |
US10824862B2 (en) | Three-dimensional object detection for autonomous robotic systems using image proposals | |
EP3168812B1 (en) | System and method for scoring clutter for use in 3d point cloud matching in a vision system | |
Lysenkov et al. | Recognition and pose estimation of rigid transparent objects with a kinect sensor | |
US9594950B2 (en) | Depth mapping with enhanced resolution | |
CN102572505B (en) | System and method for calibrating a depth imaging sensor | |
Azad et al. | 6-DoF model-based tracking of arbitrarily shaped 3D objects | |
JP5484133B2 (en) | Method for estimating the 3D pose of a specular object | |
US11615547B2 (en) | Light field image rendering method and system for creating see-through effects | |
Berger et al. | A state of the art report on kinect sensor setups in computer vision | |
CN113689503B (en) | Target object posture detection method, device, equipment and storage medium | |
WO2021114776A1 (en) | Object detection method, object detection device, terminal device, and medium | |
CN111415420A (en) | Spatial information determination method and device and electronic equipment | |
CN110189343A (en) | Image labeling method, apparatus and system | |
TWI684956B (en) | Object recognition and tracking system and method thereof | |
WO2021181988A1 (en) | Information processing system, information processing method, and program | |
Hu et al. | R-CNN based 3D object detection for autonomous driving | |
Coenen et al. | Detection and 3d modelling of vehicles from terrestrial stereo image pairs | |
CN110009683B (en) | Real-time on-plane object detection method based on MaskRCNN | |
Xu et al. | Kinect-based easy 3d object reconstruction | |
English et al. | Development of a practical 3D automatic target recognition and pose estimation algorithm | |
EP4073698A1 (en) | Object detection method, object detection device, terminal device, and medium | |
Coenen et al. | Recovering the 3d pose and shape of vehicles from stereo images | |
Riecický et al. | Optical-inertial Synchronization of MoCap Suit with Single Camera Setup for Reliable Position Tracking. | |
Vaughn et al. | Workstation recognition using a constrained edge-based hough transform for mobile robot navigation |