JP2021144472A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2021144472A
JP2021144472A JP2020042753A JP2020042753A JP2021144472A JP 2021144472 A JP2021144472 A JP 2021144472A JP 2020042753 A JP2020042753 A JP 2020042753A JP 2020042753 A JP2020042753 A JP 2020042753A JP 2021144472 A JP2021144472 A JP 2021144472A
Authority
JP
Japan
Prior art keywords
image
dimensional shape
information
contour
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020042753A
Other languages
Japanese (ja)
Inventor
芳宏 真鍋
Yoshihiro Manabe
芳宏 真鍋
光祐 吉富
Kosuke Yoshitomi
光祐 吉富
崇裕 坂本
Takahiro Sakamoto
崇裕 坂本
忠義 村上
Tadayoshi Murakami
忠義 村上
健志 後藤
Kenji Goto
健志 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020042753A priority Critical patent/JP2021144472A/en
Priority to PCT/JP2021/004923 priority patent/WO2021181988A1/en
Publication of JP2021144472A publication Critical patent/JP2021144472A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Abstract

To provide an information processing system, information processing method and program, which allow for generating images all around an object along a contour thereof.SOLUTION: An information processing system provided herein comprises an estimation unit and an image generation unit. The estimation unit estimates a three-dimensional shape of an object based on an image of the object on a screen. The image generation unit estimates a space occupied by the object on the screen based on the three-dimensional shape of the object and generates an image to be projected on the screen avoiding the space.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理方法およびプログラムに関する。 The present invention relates to information processing systems, information processing methods and programs.

プロジェクションマッピングでは、プロジェクタとスクリーンとの3次元的な位置関係やスクリーンの凹凸を考慮して、投射される映像が計算される。スクリーン上に物体が挿入されると、スクリーンに投射すべく計算された映像が物体に投射され、物体上に歪んだ映像が表示される。そのため、物体を避けて映像を投射することが検討されている。物体を避けて映像を投射する技術としては、例えば、特許文献1,2の技術が知られている。 In projection mapping, the projected image is calculated in consideration of the three-dimensional positional relationship between the projector and the screen and the unevenness of the screen. When an object is inserted on the screen, the image calculated to be projected on the screen is projected on the object, and a distorted image is displayed on the object. Therefore, it is considered to project an image while avoiding an object. As a technique for projecting an image while avoiding an object, for example, the techniques of Patent Documents 1 and 2 are known.

特開2018−097148号公報Japanese Unexamined Patent Publication No. 2018-09714 特開2016−130663号公報Japanese Unexamined Patent Publication No. 2016-130663

上記の従来技術では、カメラで撮影された物体の2次元形状のみに基づいて非投射領域が設定される。カメラの死角になる物体の背面部分の形状は、カメラの画像からは把握できない。そのため、物体によってカメラの死角になるスクリーン上の領域に、物体の輪郭に沿った映像を投射することは難しい。 In the above prior art, the non-projection region is set based only on the two-dimensional shape of the object photographed by the camera. The shape of the back part of the object that becomes the blind spot of the camera cannot be grasped from the image of the camera. Therefore, it is difficult to project an image along the contour of the object on the area on the screen that becomes the blind spot of the camera due to the object.

そこで、本開示では、物体の全周にわたって物体の輪郭に沿った映像を生成することが可能な情報処理システム、情報処理方法およびプログラムを提案する。 Therefore, the present disclosure proposes an information processing system, an information processing method, and a program capable of generating an image along the contour of an object over the entire circumference of the object.

本開示によれば、スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定する推定部と、前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する映像生成部と、を有する情報処理システムが提供される。また、本開示によれば、前記情報処理システムの情報処理をコンピュータにより実行される情報処理方法、ならびに、前記情報処理システムの情報処理をコンピュータに実現させるプログラムが提供される。 According to the present disclosure, an estimation unit that estimates the three-dimensional shape of the object based on an image of the object on the screen, and an estimation unit that estimates the space occupied by the object on the screen based on the three-dimensional shape of the object. An information processing system including an image generation unit that generates an image projected on the screen while avoiding the space is provided. Further, according to the present disclosure, there is provided an information processing method in which the information processing of the information processing system is executed by a computer, and a program for realizing the information processing of the information processing system in the computer.

第1実施形態の情報処理システムの概略図である。It is the schematic of the information processing system of 1st Embodiment. 分析モデルで規定される局所特徴と概形との対応関係を示す図である。It is a figure which shows the correspondence relationship between a local feature defined by an analysis model, and an outline. 疑似物体と映像との関係を示す図である。It is a figure which shows the relationship between a pseudo object and an image. 情報処理方法を示すフローチャートである。It is a flowchart which shows the information processing method. 変形例における概形の判定方法の一例を示す図である。It is a figure which shows an example of the determination method of the outline in a modification. 変形例における概形の判定方法の一例を示す図である。It is a figure which shows an example of the determination method of the outline in a modification. 低尤度輪郭領域に沿って投射される映像の一例を示す図である。It is a figure which shows an example of the image projected along the low-likelihood contour region. 第2実施形態の情報処理システムの概略図である。It is the schematic of the information processing system of 2nd Embodiment. 情報処理方法を示すフローチャートである。It is a flowchart which shows the information processing method. 第3実施形態の情報処理システムの概略図である。It is the schematic of the information processing system of 3rd Embodiment. 物体モデル情報に規定される物体モデルの一例を示す図である。It is a figure which shows an example of the object model defined in the object model information. 物体モデル情報に規定される物体モデルの一例を示す図である。It is a figure which shows an example of the object model defined in the object model information. 情報処理方法を示すフローチャートである。It is a flowchart which shows the information processing method.

以下に、本開示の実施形態について図面に基づいて詳細に説明する。以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In each of the following embodiments, the same parts are designated by the same reference numerals, so that duplicate description will be omitted.

なお、説明は以下の順序で行われる。
[1.第1実施形態]
[1−1.情報処理システムの構成]
[1−2.情報処理方法]
[1−3.効果]
[1−4.変形例1]
[1−5.変形例2]
[1−6.変形例3]
[2.第2実施形態]
[2−1.情報処理システムの構成]
[2−2.情報処理方法]
[2−3.効果]
[3.第3実施形態]
[3−1.情報処理システムの構成]
[3−2.情報処理方法]
[3−3.効果]
The explanation will be given in the following order.
[1. First Embodiment]
[1-1. Information processing system configuration]
[1-2. Information processing method]
[1-3. effect]
[1-4. Modification 1]
[1-5. Modification 2]
[1-6. Modification 3]
[2. Second Embodiment]
[2-1. Information processing system configuration]
[2-2. Information processing method]
[2-3. effect]
[3. Third Embodiment]
[3-1. Information processing system configuration]
[3-2. Information processing method]
[3-3. effect]

[1.第1実施形態]
[1−1.情報処理システムの構成]
図1は、第1実施形態の情報処理システム1の概略図である。
[1. First Embodiment]
[1-1. Information processing system configuration]
FIG. 1 is a schematic view of the information processing system 1 of the first embodiment.

情報処理システム1は、例えば、処理装置10と、記憶装置20と、1以上のプロジェクタ30と、カメラ40と、を有する。 The information processing system 1 includes, for example, a processing device 10, a storage device 20, one or more projectors 30, and a camera 40.

処理装置10は、スクリーンSCR上に1以上のプロジェクタ30からの映像IMをマッピングする装置である。スクリーンSCRは、例えば、建築物または家具である。処理装置10は、例えば、カメラ40によって撮影された画像に基づいて、スクリーンSCR上に挿入された物体OBを検出する。処理装置10は、物体OBを避けてスクリーンSCR上に投射される映像IMを生成する。 The processing device 10 is a device that maps image IMs from one or more projectors 30 on the screen SCR. The screen SCR is, for example, a building or furniture. The processing device 10 detects the object OB inserted on the screen SCR, for example, based on the image taken by the camera 40. The processing device 10 avoids the object OB and generates a video IM projected on the screen SCR.

カメラ40は、被写体の奥行情報を検出可能なカメラである。カメラ40は、例えば、スクリーンSCRの上方に設置される。カメラ40は、スクリーンSCRの上方の1か所からスクリーンSCR全体を撮影する。処理装置10は、カメラ40で撮影された画像に基づいて、スクリーンSCR上に挿入された物体OBの奥行情報を検出する。 The camera 40 is a camera capable of detecting the depth information of the subject. The camera 40 is installed above the screen SCR, for example. The camera 40 captures the entire screen SCR from one location above the screen SCR. The processing device 10 detects the depth information of the object OB inserted on the screen SCR based on the image taken by the camera 40.

奥行情報を検出する方法としては、例えば、パッシブステレオ方式、アクティブステレオ方式およびTOF方式(Time of Flight)が採用される。パッシブステレオ方式は、2台のカメラの画像間でマッチングを行って被写体の奥行情報を検出する方式である。アクティブステレオ方式は、プロジェクタから投射されるパターンの画像と,カメラで撮影された画像と、の間でマッチングを行って被写体の奥行情報を検出する方式である。TOF方式は、光源から光を照射し,物体で反射して戻るまでの時間差を調べることで、被写体の奥行情報を検出する方式である。 As a method for detecting the depth information, for example, a passive stereo method, an active stereo method, and a TOF method (Time of Flight) are adopted. The passive stereo method is a method of detecting the depth information of a subject by matching between the images of two cameras. The active stereo method is a method of detecting the depth information of a subject by matching between an image of a pattern projected from a projector and an image taken by a camera. The TOF method is a method of detecting depth information of a subject by irradiating light from a light source and examining the time difference between reflection by an object and return.

スクリーンSCRの上方には、1以上のプロジェクタ30が設置されている。図1の例では、第1プロジェクタ30Aおよび第2プロジェクタ30Bを含む複数のプロジェクタ30がスクリーンSCR上に設置されている。第1プロジェクタ30Aと第2プロジェクタ30Bとは、例えば、スクリーンSCRの中心を挟んで向かい合う位置に設置されている。第2プロジェクタ30Bは、例えば、カメラ40の近傍に設置されている。カメラ40の光軸と第2プロジェクタ30Bの光軸とは概ね一致する。 One or more projectors 30 are installed above the screen SCR. In the example of FIG. 1, a plurality of projectors 30 including the first projector 30A and the second projector 30B are installed on the screen SCR. The first projector 30A and the second projector 30B are installed at positions facing each other with the center of the screen SCR, for example. The second projector 30B is installed in the vicinity of the camera 40, for example. The optical axis of the camera 40 and the optical axis of the second projector 30B are substantially the same.

処理装置10は、例えば、画像取得部11と、座標情報抽出部12と、概形判定部13と、推定部14と、映像生成部15と、を有する。 The processing device 10 includes, for example, an image acquisition unit 11, a coordinate information extraction unit 12, a rough shape determination unit 13, an estimation unit 14, and a video generation unit 15.

画像取得部11は、カメラ40で撮影された画像のデータを取得する。画像取得部11は、画像のデータを座標情報抽出部12に出力する。 The image acquisition unit 11 acquires data of an image taken by the camera 40. The image acquisition unit 11 outputs the image data to the coordinate information extraction unit 12.

座標情報抽出部12は、カメラ40で撮影された画像から物体OBの3次元空間上の座標情報を抽出する。座標情報抽出部12は、例えば、物体OBの奥行情報を3次元空間上の座標情報に変換する。座標情報抽出部12は、例えば、物体OBを構成する点群のうち、カメラ40の死角になっていない物体OBの前面部分の点群の一部または全部の座標情報を物体OBの座標情報として抽出する。 The coordinate information extraction unit 12 extracts the coordinate information of the object OB in the three-dimensional space from the image taken by the camera 40. The coordinate information extraction unit 12 converts, for example, the depth information of the object OB into the coordinate information in the three-dimensional space. For example, the coordinate information extraction unit 12 uses the coordinate information of a part or all of the point cloud of the front portion of the object OB that is not the blind spot of the camera 40 as the coordinate information of the object OB among the point clouds constituting the object OB. Extract.

概形判定部13は、物体OBの座標情報に基づいて物体OBの概形を判定する。概形判定部13は、例えば、物体OBの座標情報から抽出された物体OBの局所特徴を分析モデル23に当てはめて物体OBの概形を判定する。 The outline determination unit 13 determines the outline of the object OB based on the coordinate information of the object OB. For example, the outline determination unit 13 applies the local features of the object OB extracted from the coordinate information of the object OB to the analysis model 23 to determine the outline of the object OB.

分析モデル23は、例えば、物体OBの局所特徴と物体OBの概形との対応関係を規定する。分析モデル23は、例えば、局所特徴として、高さの異なる複数の物体OBの断面の形状および面積の比率に関する情報を規定する。概形は、例えば、球、円柱、角柱、円錐などの単純物体の種別として規定される。分析モデル23には、複数の単純物体の概形の情報が規定されている。 The analysis model 23 defines, for example, the correspondence between the local feature of the object OB and the outline shape of the object OB. The analytical model 23 defines, for example, information about the cross-sectional shape and area ratio of a plurality of objects OBs having different heights as local features. The outline is defined as a type of simple object such as a sphere, a cylinder, a prism, or a cone. The analysis model 23 defines information on the outlines of a plurality of simple objects.

概形判定部13は、例えば、物体OBの座標情報から、高さの異なる複数の物体OBの断面の形状および面積の比率に関する情報を抽出する。カメラ40の死角になる背面部分の物体OBの形状はカメラ40の画像からは把握できない。そのため、概形判定部13は、カメラ40の死角になっていない前面部分の物体OBの形状に基づいて、物体OBの断面形状を推定する。例えば、概形判定部13は、断面の輪郭を構成する点群を囲むバウンディングボックスを設定する。バウンディングボックスの角部に点群の座標が存在しない場合には、概形判定部13は、断面形状を円と判定する。バウンディングボックスの角部に点群の座標が存在する場合には、概形判定部13は、断面形状を四角と判定する。概形判定部13は、抽出された情報に関連付けられた単純物体の種別を物体OBの概形と判定する。概形判定部13は、物体OBの概形の情報を推定部14に出力する。 The outline determination unit 13 extracts, for example, information on the ratio of the cross-sectional shapes and areas of a plurality of objects OB having different heights from the coordinate information of the object OB. The shape of the object OB on the back surface, which is the blind spot of the camera 40, cannot be grasped from the image of the camera 40. Therefore, the outline determination unit 13 estimates the cross-sectional shape of the object OB based on the shape of the object OB in the front portion of the camera 40 that is not a blind spot. For example, the outline determination unit 13 sets a bounding box that surrounds a point cloud that constitutes the contour of the cross section. If the coordinates of the point cloud do not exist at the corners of the bounding box, the outline determination unit 13 determines that the cross-sectional shape is a circle. When the coordinates of the point cloud are present at the corners of the bounding box, the outline determination unit 13 determines that the cross-sectional shape is a square. The outline determination unit 13 determines the type of the simple object associated with the extracted information as the outline of the object OB. The outline determination unit 13 outputs information on the outline of the object OB to the estimation unit 14.

図2は、分析モデル23で規定される局所特徴と概形との対応関係を示す図である。 FIG. 2 is a diagram showing the correspondence between the local features defined by the analysis model 23 and the outline.

図2の例では、概形の判定基準となる複数の断面として、第1断面CT1、第2断面CT2および第3断面CT3が用いられる。第1断面CT1は、例えば、物体OBの最低面(スクリーンSCRと対向する面)である。第2断面CT2は、例えば、物体OBの最高面(スクリーンSCRから最も離れた面)である。第3断面CT3は、例えば、第1断面CT1と第2断面CT2との中間の高さの断面である。 In the example of FIG. 2, a first cross section CT1, a second cross section CT2, and a third cross section CT3 are used as a plurality of cross sections that serve as criteria for determining the outline. The first cross section CT1 is, for example, the lowest surface of the object OB (the surface facing the screen SCR). The second cross section CT2 is, for example, the highest surface of the object OB (the surface farthest from the screen SCR). The third cross section CT3 is, for example, a cross section having a height intermediate between the first cross section CT1 and the second cross section CT2.

第1断面CT1と第2断面CT2とのうち、大きい方の断面の面積をAとし、小さい方の断面の面積をBとする。第3断面の面積をCとする。例えば、B/Aが第1閾値以上で、且つ、C/Aが第2閾値以下である場合には、物体OBの概形は柱状であると判定される。面積Aを有する断面のバウンディングボックスの角部に点群の座標が存在しない場合には、円柱と判定され、点群の座標が存在する場合には、角柱であると判定される。 Of the first cross section CT1 and the second cross section CT2, the area of the larger cross section is A, and the area of the smaller cross section is B. Let C be the area of the third cross section. For example, when the B / A is equal to or higher than the first threshold value and the C / A is equal to or lower than the second threshold value, the general shape of the object OB is determined to be columnar. If the coordinates of the point cloud do not exist at the corners of the bounding box of the cross section having the area A, it is determined to be a cylinder, and if the coordinates of the point cloud exist, it is determined to be a prism.

例えば、C/Aが第3閾値よりも大きい場合には、物体OBの概形は球であると判定される。B/Aが第1閾値未満で、且つ、C/Aが第3閾値以下である場合には、物体OBの概形は錐体であると判定される。面積Aを有する断面のバウンディングボックスの角部に点群の座標が存在しない場合には、円錐と判定され、点群の座標が存在する場合には、四角錐であると判定される。 For example, when the C / A is larger than the third threshold value, it is determined that the approximate shape of the object OB is a sphere. When the B / A is less than the first threshold value and the C / A is less than or equal to the third threshold value, it is determined that the approximate shape of the object OB is a cone. If the coordinates of the point cloud do not exist at the corners of the bounding box of the cross section having the area A, it is determined to be a cone, and if the coordinates of the point cloud exist, it is determined to be a quadrangular pyramid.

図1に戻って、推定部14は、スクリーンSCR上の物体OBの画像に基づいて物体OBの3次元形状を推定する。推定部14は、例えば、物体OBの概形および座標情報に基づいて、物体OBを単純化した疑似物体POBの3次元モデルを生成する。疑似物体POBの3次元モデルは、例えば、物体OBの概形の情報に疑似物体POBの寸法情報(疑似物体POBの断面の径および高さなどの情報)を組み合わせて生成される。疑似物体POBの寸法情報は、例えば、物体OBの座標情報に基づいて推定される。推定部14は、疑似物体POBの3次元形状を物体OBの3次元形状と推定する。 Returning to FIG. 1, the estimation unit 14 estimates the three-dimensional shape of the object OB based on the image of the object OB on the screen SCR. The estimation unit 14 generates, for example, a three-dimensional model of a pseudo-object POB that simplifies the object OB based on the outline shape and coordinate information of the object OB. The three-dimensional model of the pseudo-object POB is generated, for example, by combining the information on the outline of the object OB with the dimensional information of the pseudo-object POB (information such as the diameter and height of the cross section of the pseudo-object POB). The dimensional information of the pseudo object POB is estimated based on, for example, the coordinate information of the object OB. The estimation unit 14 estimates the three-dimensional shape of the pseudo-object POB as the three-dimensional shape of the object OB.

映像生成部15は、推定部14で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。 The image generation unit 15 estimates the space on the screen SCR occupied by the object OB based on the three-dimensional shape of the object OB estimated by the estimation unit 14. The image generation unit 15 avoids this space and generates an image IM projected on the screen SCR.

図3は、疑似物体POBと映像IMとの関係を示す図である。 FIG. 3 is a diagram showing the relationship between the pseudo-object POB and the video IM.

疑似物体POBの周囲には、1以上のプロジェクタ30からの映像IMが投射される。映像IMには、例えば、第1プロジェクタ30Aから投射される第1映像IM1と第2プロジェクタ30Bから投射される第2映像IM2とが含まれる。 Image IMs from one or more projectors 30 are projected around the pseudo-object POB. The video IM includes, for example, a first video IM1 projected from the first projector 30A and a second video IM2 projected from the second projector 30B.

スクリーンSCR上には、物体OBによってカメラ40の死角になる領域SAが形成される。領域SAの輪郭SLは、疑似物体POBの前面部分の輪郭POLをスクリーンSCR上に投影したものである。領域SAは軸AXに沿って延びる。軸AXは、カメラ40の光軸をスクリーンSCR上に投影した軸である。 A region SA that becomes a blind spot of the camera 40 is formed on the screen SCR by the object OB. The contour SL of the region SA is a projection of the contour POL of the front portion of the pseudo-object POB on the screen SCR. Region SA extends along axis AX. The axis AX is an axis obtained by projecting the optical axis of the camera 40 onto the screen SCR.

映像生成部15は、疑似物体POBの3次元形状に基づいて、領域SAに投射される映像を生成する。生成された映像は、カメラ40と異なる位置に設置された第1プロジェクタ30Aから領域SAに投射される。カメラ40の死角にならないスクリーンSCR上の領域NSAには、疑似物体POBの3次元形状に基づいて生成された第1映像IM1および第2映像IM2が投射される。第1映像IM1および第2映像IM2は、疑似物体POBの底面の輪郭に沿った映像として生成される。疑似物体POBは物体OBを模した形状を有する。そのため、スクリーンSCR上には、物体OBの全周にわたって物体OBの輪郭に沿った映像IMが表示される。 The image generation unit 15 generates an image projected on the region SA based on the three-dimensional shape of the pseudo object POB. The generated image is projected onto the area SA from the first projector 30A installed at a position different from that of the camera 40. The first image IM1 and the second image IM2 generated based on the three-dimensional shape of the pseudo object POB are projected on the region NSA on the screen SCR that does not become a blind spot of the camera 40. The first video IM1 and the second video IM2 are generated as images along the contour of the bottom surface of the pseudo-object POB. The pseudo-object POB has a shape that imitates the object OB. Therefore, the image IM along the contour of the object OB is displayed on the screen SCR over the entire circumference of the object OB.

図1に戻って、記憶装置20は、スクリーンモデル21と、PJパラメータ22と、分析モデル23と、プログラム24と、を記憶する。 Returning to FIG. 1, the storage device 20 stores the screen model 21, the PJ parameter 22, the analysis model 23, and the program 24.

スクリーンモデル21は、スクリーンSCRの3次元モデルである。スクリーンモデル21は、例えば、映像IMが投射されるスクリーンSCRの表面の座標情報を含む。PJパラメータ22は、例えば、プロジェクタ30ごとの、内部パラメータ、設置位置、および、設置位置における姿勢などの情報を含む。 The screen model 21 is a three-dimensional model of the screen SCR. The screen model 21 includes, for example, coordinate information on the surface of the screen SCR on which the image IM is projected. The PJ parameter 22 includes, for example, information such as an internal parameter, an installation position, and a posture at the installation position for each projector 30.

映像生成部15は、スクリーンモデル21およびPJパラメータ22を用いて、プロジェクタ30ごとに、幾何補正された表示コンテンツの映像IMを生成する。映像生成部15は、例えば、推定部14で推定された物体OBの3次元形状およびPJパラメータ22に基づいて、プロジェクタ30ごとに、映像IMを投射しないスクリーンSCR上の領域を設定する。 The video generation unit 15 uses the screen model 21 and the PJ parameter 22 to generate a video IM of geometrically corrected display content for each projector 30. The image generation unit 15 sets, for example, an area on the screen SCR that does not project the image IM for each projector 30 based on the three-dimensional shape of the object OB estimated by the estimation unit 14 and the PJ parameter 22.

プログラム24は、本実施形態に係る情報処理をコンピュータに実行させるプログラムである。処理装置10は、記憶装置20に記憶されているプログラム24にしたがって各種の処理を行う。記憶装置20は、処理装置10の処理結果を一時的に記憶する作業領域として利用されてもよい。記憶装置20は、例えば、半導体記憶媒体および磁気記憶媒体などの任意の非一過的な記憶媒体を含む。記憶装置20は、例えば、光ディスク、光磁気ディスクまたはフラッシュメモリを含んで構成される。プログラム24は、例えば、コンピュータにより読み取り可能な非一過的な記憶媒体に記憶されている。 The program 24 is a program that causes a computer to execute information processing according to the present embodiment. The processing device 10 performs various processes according to the program 24 stored in the storage device 20. The storage device 20 may be used as a work area for temporarily storing the processing result of the processing device 10. The storage device 20 includes any non-transient storage medium such as, for example, a semiconductor storage medium and a magnetic storage medium. The storage device 20 includes, for example, an optical disk, a magneto-optical disk, or a flash memory. The program 24 is stored, for example, in a non-transient storage medium that can be read by a computer.

処理装置10は、例えば、プロセッサとメモリとで構成されるコンピュータである。処理装置10のメモリには、RAM(Random Access Memory)およびROM(Read Only Memory)が含まれる。処理装置10は、プログラム24を実行することにより、画像取得部11、座標情報抽出部12、概形判定部13、推定部14および映像生成部15として機能する。 The processing device 10 is, for example, a computer composed of a processor and a memory. The memory of the processing device 10 includes a RAM (Random Access Memory) and a ROM (Read Only Memory). By executing the program 24, the processing device 10 functions as an image acquisition unit 11, a coordinate information extraction unit 12, a rough shape determination unit 13, an estimation unit 14, and a video generation unit 15.

[1−2.情報処理方法]
図4は、本実施形態の情報処理方法を示すフローチャートである。
[1-2. Information processing method]
FIG. 4 is a flowchart showing the information processing method of the present embodiment.

ステップS1において、画像取得部11は、カメラ40が撮影したスクリーンSCRの画像を取得する。画像は、スクリーンSCR上に挿入された物体OBの奥行情報を含む。 In step S1, the image acquisition unit 11 acquires an image of the screen SCR taken by the camera 40. The image includes depth information of the object OB inserted on the screen SCR.

ステップS2において、座標情報抽出部12は、物体OBの奥行情報に基づいて、物体OBの3次元空間上の座標情報を抽出する。抽出される座標情報は、カメラ40の死角にならない物体OBの前面部分の座標情報である。カメラ40の死角となる物体OBの背面部分の座標情報は取得されない。 In step S2, the coordinate information extraction unit 12 extracts the coordinate information of the object OB in the three-dimensional space based on the depth information of the object OB. The extracted coordinate information is the coordinate information of the front portion of the object OB that does not become a blind spot of the camera 40. The coordinate information of the back surface portion of the object OB, which is the blind spot of the camera 40, is not acquired.

ステップS3において、概形判定部13は、物体OBの座標情報に基づいて、物体OBの概形を判定する。概形判定部13は、例えば、物体OBの特定高さの複数の断面の形状および面積の比率などに基づいて、物体OBの特徴を含む単純物体の種別を物体OBの概形として判定する。 In step S3, the outline determination unit 13 determines the outline of the object OB based on the coordinate information of the object OB. The outline determination unit 13 determines the type of a simple object including the characteristics of the object OB as the outline of the object OB, based on, for example, the ratio of the shapes and areas of a plurality of cross sections at a specific height of the object OB.

ステップS4において、推定部14は、画像内の物体OBを単純化した疑似物体POBの3次元モデルを生成する。推定部14は、例えば、概形判定部13で判定された概形の情報に、物体OBの座標情報から推定される疑似物体POBの寸法情報を組み合わせて、疑似物体POBの3次元モデルを生成する。 In step S4, the estimation unit 14 generates a three-dimensional model of the pseudo-object POB which is a simplification of the object OB in the image. For example, the estimation unit 14 combines the rough shape information determined by the rough shape determination unit 13 with the dimensional information of the pseudo object POB estimated from the coordinate information of the object OB to generate a three-dimensional model of the pseudo object POB. do.

ステップS5において、推定部14は、疑似物体POBの3次元形状を物体OBの3次元形状と推定する。 In step S5, the estimation unit 14 estimates the three-dimensional shape of the pseudo-object POB as the three-dimensional shape of the object OB.

ステップS6において、映像生成部15は、推定部14で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。 In step S6, the image generation unit 15 estimates the space on the screen SCR occupied by the object OB based on the three-dimensional shape of the object OB estimated by the estimation unit 14. The image generation unit 15 avoids this space and generates an image IM projected on the screen SCR.

[1−3.効果]
情報処理システム1は、推定部14と映像生成部15とを有する。推定部14は、スクリーンSCR上の物体OBの画像に基づいて物体OBの3次元形状を推定する。映像生成部15は、物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定し、この空間を避けてスクリーンSCRに投射される映像IMを生成する。本実施形態の情報処理方法は、上述した情報処理システム1の情報処理がコンピュータにより実行される。本実施形態のプログラム24は、上述した情報処理システム1の情報処理をコンピュータに実現させる。
[1-3. effect]
The information processing system 1 has an estimation unit 14 and a video generation unit 15. The estimation unit 14 estimates the three-dimensional shape of the object OB based on the image of the object OB on the screen SCR. The image generation unit 15 estimates the space on the screen SCR occupied by the object OB based on the three-dimensional shape of the object OB, and generates the image IM projected on the screen SCR while avoiding this space. In the information processing method of the present embodiment, the information processing of the information processing system 1 described above is executed by the computer. The program 24 of the present embodiment makes the computer realize the information processing of the information processing system 1 described above.

この構成によれば、物体OBの3次元形状に基づいて映像IMの非投射領域が設定される。そのため、物体OBの全周にわたって物体OBの輪郭に沿った映像IMを生成することができる。 According to this configuration, the non-projection region of the image IM is set based on the three-dimensional shape of the object OB. Therefore, it is possible to generate a video IM along the contour of the object OB over the entire circumference of the object OB.

映像生成部15は、例えば、物体OBによって、画像を撮影したカメラ40の死角になるスクリーンSCR上の領域に投射される映像IMを生成する。 The image generation unit 15 generates, for example, an image IM projected by the object OB onto an area on the screen SCR that becomes a blind spot of the camera 40 that captured the image.

この構成によれば、カメラ40の死角になる領域にも、物体OBの輪郭に沿った映像IMが投射される。 According to this configuration, the image IM along the contour of the object OB is also projected on the area that becomes the blind spot of the camera 40.

情報処理システム1は、例えば、座標情報抽出部12と概形判定部13とを有する。座標情報抽出部12は、例えば、画像から物体OBの座標情報を抽出する。概形判定部13は、例えば、物体OBの座標情報に基づいて物体OBの概形を判定する。推定部14は、例えば、物体OBの概形および座標情報に基づいて、物体OBを単純化した疑似物体POBの3次元モデルを生成する。推定部14は、例えば、疑似物体POBの3次元形状を物体OBの3次元形状と推定する。 The information processing system 1 has, for example, a coordinate information extraction unit 12 and a rough shape determination unit 13. The coordinate information extraction unit 12 extracts, for example, the coordinate information of the object OB from the image. The outline determination unit 13 determines the outline of the object OB based on the coordinate information of the object OB, for example. The estimation unit 14 generates, for example, a three-dimensional model of a pseudo-object POB that simplifies the object OB based on the outline shape and coordinate information of the object OB. The estimation unit 14 estimates, for example, the three-dimensional shape of the pseudo-object POB as the three-dimensional shape of the object OB.

この構成によれば、物体OBの3次元形状が簡易な計算で推定される。実際の物体OBの3次元形状と疑似物体POBの3次元形状との間には誤差が生じる可能性がある。しかし、物体OBが占有する空間には映像IMは投射されない。疑似物体POBの3次元形状と実際の物体OBの3次元形状との間に誤差があっても、映像IMの投射されない領域が増減するのみである。よって、表示品質は大きく損なわれない。 According to this configuration, the three-dimensional shape of the object OB is estimated by a simple calculation. There may be an error between the three-dimensional shape of the actual object OB and the three-dimensional shape of the pseudo-object POB. However, the image IM is not projected in the space occupied by the object OB. Even if there is an error between the three-dimensional shape of the pseudo-object POB and the three-dimensional shape of the actual object OB, the area where the image IM is not projected only increases or decreases. Therefore, the display quality is not significantly impaired.

[1−4.変形例1]
本実施形態では、概形判定部13から出力された概形の情報に疑似物体POBの寸法情報を組み合わせて、疑似物体POBの3次元モデルが生成された。しかし、疑似物体POBの3次元モデルの生成方法はこれに限られない。例えば、推定部14は、カメラ40の画像から抽出された物体OBの複数の点群の座標を滑らかな曲線で接続することで、疑似物体POBの3次元モデルを生成してもよい。例えば、物体OBの高さの異なる複数の断面をNURBS(Non−Uniform Rational B−Spline)で接続して疑似物体POBの3次元モデルを生成することができる。
[1-4. Modification 1]
In the present embodiment, the three-dimensional model of the pseudo-object POB is generated by combining the outline information output from the outline determination unit 13 with the dimensional information of the pseudo-object POB. However, the method of generating a three-dimensional model of the pseudo-object POB is not limited to this. For example, the estimation unit 14 may generate a three-dimensional model of the pseudo-object POB by connecting the coordinates of a plurality of point clouds of the object OB extracted from the image of the camera 40 with a smooth curve. For example, a plurality of cross sections having different heights of an object OB can be connected by NURBS (Non-Uniform Regional B-Spline) to generate a three-dimensional model of a pseudo object POB.

[1−5.変形例2]
本実施形態では、概形判定部13は、高さの異なる複数の物体OBの断面の形状および面積の比率に関する情報に基づいて物体OBの概形を判定した。しかし、概形の判定方法はこれに限られない。例えば、概形判定部13は、カメラ40の画像に写る物体OBの輪郭に基づいて物体OBの概形を判定することができる。
[1-5. Modification 2]
In the present embodiment, the outline determination unit 13 determines the outline of the object OB based on the information regarding the shape and the area ratio of the cross sections of the plurality of objects OB having different heights. However, the method for determining the outline is not limited to this. For example, the outline determination unit 13 can determine the outline of the object OB based on the contour of the object OB captured in the image of the camera 40.

図5および図6は、本変形例における概形の判定方法の一例を示す図である。 5 and 6 are diagrams showing an example of a method for determining the outline shape in this modified example.

図5は、カメラ40によって撮影された物体OBの画像を示す。カメラ40は、例えば、スクリーンSCRの中心部の上方に設置される。概形判定部13は、例えば、画像に写る物体OBの2次元的な形状から物体OBの輪郭OLを抽出する。概形判定部13は、例えば、画像を撮影したカメラ40の光軸に沿って輪郭OLをスクリーンSCR上に投影して得られる輪郭を疑似輪郭PCとして検出する。図6は、輪郭OLと疑似輪郭PCとの関係を示す図である。概形判定部13は、例えば、疑似輪郭PCを最低面の輪郭とする柱状体を物体OBの概形と判定する。 FIG. 5 shows an image of the object OB taken by the camera 40. The camera 40 is installed, for example, above the center of the screen SCR. The outline determination unit 13 extracts, for example, the contour OL of the object OB from the two-dimensional shape of the object OB shown in the image. The outline determination unit 13 detects, for example, the contour obtained by projecting the contour OL on the screen SCR along the optical axis of the camera 40 that captured the image as a pseudo contour PC. FIG. 6 is a diagram showing the relationship between the contour OL and the pseudo contour PC. The outline determination unit 13 determines, for example, a columnar body having the pseudo-contour PC as the outline of the lowest surface as the outline of the object OB.

推定部14は、物体OBの概形および座標情報に基づいて、柱状体の3次元モデルを生成する。柱状体である疑似物体POBの3次元モデルは、疑似輪郭PCの形状および寸法の情報に物体OBの高さの情報を組み合わせて生成される。物体OBの高さは、物体OBの最低面の輪郭LOLと最高面の輪郭HOLの高さ方向の座標の差として算出される。推定部14は、疑似物体POBの3次元形状を物体OBの3次元形状と推定する。 The estimation unit 14 generates a three-dimensional model of the columnar body based on the outline shape and coordinate information of the object OB. The three-dimensional model of the pseudo-object POB, which is a columnar body, is generated by combining the information on the shape and dimensions of the pseudo-contour PC with the information on the height of the object OB. The height of the object OB is calculated as the difference between the coordinates of the contour LOL of the lowest surface of the object OB and the contour HOL of the highest surface in the height direction. The estimation unit 14 estimates the three-dimensional shape of the pseudo-object POB as the three-dimensional shape of the object OB.

映像生成部15は、推定部14で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。疑似物体POBは、疑似輪郭PCを最低面とする柱状体である。そのため、映像生成部15は、例えば、疑似輪郭PCに沿った映像IMを生成する。 The image generation unit 15 estimates the space on the screen SCR occupied by the object OB based on the three-dimensional shape of the object OB estimated by the estimation unit 14. The image generation unit 15 avoids this space and generates an image IM projected on the screen SCR. The pseudo-object POB is a columnar body having a pseudo-contour PC as the lowest surface. Therefore, the video generation unit 15 generates, for example, a video IM along the pseudo-contour PC.

映像生成部15は、例えば、輪郭OLの内側(物体OB側)と外側(スクリーンSCR側)とで被写体の奥行情報に不連続的な変化が生じる輪郭OLの領域を段差領域LLと推定する。段差領域LLは物体OBの最低面としての尤度が低い。そのため、映像生成部15は、段差領域LLに対応する疑似輪郭PCの領域を低尤度輪郭領域LAと推定する。映像生成部15は、低尤度輪郭領域LAに沿って表示される映像IMをぼかす。映像をぼかす方法としては、ガウスぼかしなどの公知の方法が採用される。 For example, the image generation unit 15 estimates that the region of the contour OL where the depth information of the subject changes discontinuously between the inside (object OB side) and the outside (screen SCR side) of the contour OL is the step region LL. The step region LL has a low likelihood as the lowest surface of the object OB. Therefore, the image generation unit 15 estimates that the region of the pseudo contour PC corresponding to the step region LL is the low likelihood contour region LA. The image generation unit 15 blurs the image IM displayed along the low-likelihood contour region LA. As a method of blurring the image, a known method such as Gaussian blur is adopted.

映像生成部15は、例えば、尤度に応じてぼかす量を異ならせる。映像生成部15は、例えば、低尤度輪郭領域LAの尤度を、低尤度輪郭領域LAに対応する段差領域LLにおいて生じる前記奥行情報の変化量に基づいて判定する。映像生成部15は、例えば、奥行情報の変化量が大きい段差領域LLに対応する低尤度輪郭領域LAほど尤度が小さいと判定する。映像生成部15は、例えば、尤度の小さい低尤度輪郭領域LAに沿った映像IMほど大きくぼかす。 The image generation unit 15 makes the amount of blur different depending on the likelihood, for example. The image generation unit 15 determines, for example, the likelihood of the low-likelihood contour region LA based on the amount of change in the depth information that occurs in the step region LL corresponding to the low-likelihood contour region LA. The image generation unit 15 determines, for example, that the lower the likelihood contour region LA corresponding to the step region LL in which the amount of change in depth information is large, the smaller the likelihood. The image generation unit 15 blurs the image IM along the low-likelihood contour region LA, which has a small likelihood, as much as possible.

映像生成部15は、例えば、輪郭OLの内側と外側とで被写体の奥行情報に連続的な変化が生じる輪郭OLの領域を非段差領域HLと推定する。非段差領域HLは、物体OBの最低面としての尤度が高い。そのため、映像生成部15は、非段差領域HLに対応する疑似輪郭PCの領域を高尤度輪郭領域HAと推定する。映像生成部15は、高尤度輪郭領域HAに沿って表示される映像IMをぼかさない。 For example, the image generation unit 15 estimates that the region of the contour OL where the depth information of the subject continuously changes between the inside and the outside of the contour OL is the non-step region HL. The non-step region HL has a high likelihood as the lowest surface of the object OB. Therefore, the image generation unit 15 estimates that the region of the pseudo contour PC corresponding to the non-step region HL is the high likelihood contour region HA. The image generation unit 15 does not blur the image IM displayed along the high-likelihood contour region HA.

図7は、低尤度輪郭領域LAに沿って投射される映像の一例を示す図である。図7では、ドットパターンの明るさに勾配をつけて映像IMをぼかしている。図7の上段は、映像IMと疑似物体POBとの位置関係を示す。図7の下段は、映像IMと物体OBとの位置関係を示す。 FIG. 7 is a diagram showing an example of an image projected along the low-likelihood contour region LA. In FIG. 7, the image IM is blurred by adding a gradient to the brightness of the dot pattern. The upper part of FIG. 7 shows the positional relationship between the video IM and the pseudo-object POB. The lower part of FIG. 7 shows the positional relationship between the image IM and the object OB.

低尤度輪郭領域LAに面した物体OBの背面部分はカメラの死角となる。カメラ40の死角になる背面部分の物体OBの形状は、カメラ40の画像からは把握できない。疑似輪郭PCに沿って映像IMを投射する場合、推定された物体OBの3次元形状と実際の物体OBの3次元形状との間にずれδが生じると、実際の物体OBの輪郭とは異なる位置(疑似輪郭PCの位置)に映像IMの境界ができる。しかし、映像がぼかされていれば、明確な境界線が形成されない。そのため、表示に違和感が生じにくい。尤度に応じてぼかす量を異ならせることで、より違和感が少なくなる。 The back portion of the object OB facing the low-likelihood contour region LA is a blind spot of the camera. The shape of the object OB on the back surface, which is the blind spot of the camera 40, cannot be grasped from the image of the camera 40. When the image IM is projected along the pseudo-contour PC, if a deviation δ occurs between the estimated three-dimensional shape of the object OB and the three-dimensional shape of the actual object OB, the contour of the actual object OB is different. A boundary of the image IM is formed at the position (the position of the pseudo-contour PC). However, if the image is blurred, a clear boundary line cannot be formed. Therefore, the display is less likely to cause discomfort. By making the amount of blur different according to the likelihood, the feeling of discomfort is reduced.

[1−6.変形例3]
本実施形態では、被写体の奥行情報を検出するカメラ40がスクリーンSCRの上方の1か所に設けられたが、カメラ40の数は1つに限られない。複数のカメラ40がスクリーンSCRの上方に設置されてもよい。
[1-6. Modification 3]
In the present embodiment, the camera 40 for detecting the depth information of the subject is provided at one place above the screen SCR, but the number of cameras 40 is not limited to one. A plurality of cameras 40 may be installed above the screen SCR.

[2.第2実施形態]
[2−1.情報処理システムの構成]
図8は、第2実施形態の情報処理システム2の概略図である。
[2. Second Embodiment]
[2-1. Information processing system configuration]
FIG. 8 is a schematic view of the information processing system 2 of the second embodiment.

本実施形態において第1実施形態と異なる点は、物体認識技術を用いて物体OBの属するクラスが判定される点、および、クラスごとに規定された1以上の物体モデルの情報と物体OBの座標情報とを照合して物体OBの3次元形状が推定される点である。以下、第1実施形態との相違点を中心に説明を行う。 The points different from the first embodiment in this embodiment are that the class to which the object OB belongs is determined by using the object recognition technique, and the information of one or more object models defined for each class and the coordinates of the object OB. This is a point where the three-dimensional shape of the object OB is estimated by collating with the information. Hereinafter, the differences from the first embodiment will be mainly described.

処理装置50は、例えば、クラス判定部51と照合部52とを有する。記憶装置60は、例えば、物体モデル情報61と分析モデル62とを記憶する。 The processing device 50 has, for example, a class determination unit 51 and a collation unit 52. The storage device 60 stores, for example, the object model information 61 and the analysis model 62.

分析モデル62は、被写体の画像を入力層とし、被写体の属するクラスを出力層とする機械学習モデルである。分析モデル62は、ディープラーニングによる一般物体認識技術を用いて、被写体をペットボトル、時計、スマートフォン、椅子、机などのクラスに分類する。 The analysis model 62 is a machine learning model in which the image of the subject is used as an input layer and the class to which the subject belongs is used as an output layer. The analysis model 62 classifies subjects into classes such as PET bottles, watches, smartphones, chairs, and desks by using general object recognition technology based on deep learning.

物体モデル情報61は、例えば、クラスごとに、クラスに属する1以上の物体モデルの特徴を規定する。例えば、ペットボトルのクラスには、3次元形状の異なる複数のペットボトルが複数の物体モデルとして登録される。物体モデル情報61には、ペットボトルのクラスにおいて、複数のペットボトルと、それぞれのペットボトルの3次元形状の特徴と、が関連付けて規定される。 The object model information 61 defines, for example, the characteristics of one or more object models belonging to a class for each class. For example, in the PET bottle class, a plurality of PET bottles having different three-dimensional shapes are registered as a plurality of object models. In the object model information 61, a plurality of PET bottles and the characteristics of the three-dimensional shape of each PET bottle are defined in association with each other in the PET bottle class.

画像取得部11は、カメラ40から取得した画像をクラス判定部51および座標情報抽出部12に出力する。クラス判定部51は、例えば、画像取得部11から出力された画像を分析モデル62に当てはめ、物体OBの画像に基づいて、物体OBのクラスを判定する。画像が複数の物体やノイズとなる環境物体を含む可能性がある場合には、例えば、クラス判定部51は、セマンティックセグメンテーションを用いて、対象となる物体OBを分離し、物体OBのクラス分類を行う。 The image acquisition unit 11 outputs the image acquired from the camera 40 to the class determination unit 51 and the coordinate information extraction unit 12. For example, the class determination unit 51 applies the image output from the image acquisition unit 11 to the analysis model 62, and determines the class of the object OB based on the image of the object OB. When the image may contain a plurality of objects or environmental objects that become noise, for example, the class determination unit 51 uses semantic segmentation to separate the target objects OB and classify the objects OB. conduct.

照合部52は、例えば、物体OBの座標情報から抽出された物体OBの特徴を、物体OBのクラスに属する1以上の物体モデルの特徴と照合し、物体OBの特徴を含む物体モデルを判定する。照合は、例えば、SHOT(Signature of Histograms of OrienTations)、PFH(Point Feature Histograms)、PPF(Point Pair Feature)などの公知の3次元特徴量を用いて行われる。 For example, the collating unit 52 collates the features of the object OB extracted from the coordinate information of the object OB with the features of one or more object models belonging to the class of the object OB, and determines the object model including the features of the object OB. .. The collation is performed using, for example, known three-dimensional features such as SHOT (Signature of Histograms of Origin States), PFH (Point Fature Histograms), and PPF (Point Pair Histogram).

推定部53は、例えば、物体OBの特徴を含む物体モデルの特徴の情報と物体OBの座標情報とに基づいて物体OBの3次元形状を推定する。物体OBの3次元形状は、例えば、物体モデルの特徴に基づいて規定される形状に物体OBの寸法情報を組み合わせて推定される。物体OBの寸法情報は、例えば、物体OBの座標情報に基づいて推定される。 The estimation unit 53 estimates the three-dimensional shape of the object OB based on, for example, the feature information of the object model including the feature of the object OB and the coordinate information of the object OB. The three-dimensional shape of the object OB is estimated by combining the dimensional information of the object OB with the shape defined based on the characteristics of the object model, for example. The dimensional information of the object OB is estimated based on, for example, the coordinate information of the object OB.

プログラム63は、本実施形態に係る情報処理をコンピュータに実行させるプログラムである。処理装置50は、記憶装置60に記憶されているプログラム63にしたがって各種の処理を行う。処理装置50は、プログラム63を実行することにより、画像取得部11、座標情報抽出部12、クラス判定部51、照合部52、推定部53および映像生成部15として機能する。 The program 63 is a program that causes a computer to execute information processing according to the present embodiment. The processing device 50 performs various processes according to the program 63 stored in the storage device 60. By executing the program 63, the processing device 50 functions as an image acquisition unit 11, a coordinate information extraction unit 12, a class determination unit 51, a collation unit 52, an estimation unit 53, and a video generation unit 15.

[2−2.情報処理方法]
図9は、本実施形態の情報処理方法を示すフローチャートである。
[2-2. Information processing method]
FIG. 9 is a flowchart showing the information processing method of the present embodiment.

ステップS11において、画像取得部11はカメラ40が撮影したスクリーンSCRの画像を取得する。画像は、スクリーンSCR上に挿入された物体OBの奥行情報を含む。 In step S11, the image acquisition unit 11 acquires an image of the screen SCR taken by the camera 40. The image includes depth information of the object OB inserted on the screen SCR.

ステップS12において、座標情報抽出部12は、物体OBの奥行情報に基づいて、物体OBの座標情報を抽出する。座標情報抽出部12は、例えば、画像から、物体OBの点群の座標情報を座標情報として抽出する。 In step S12, the coordinate information extraction unit 12 extracts the coordinate information of the object OB based on the depth information of the object OB. The coordinate information extraction unit 12 extracts, for example, the coordinate information of the point cloud of the object OB as the coordinate information from the image.

ステップS13において、クラス判定部51は、画像取得部11から出力された画像を分析モデル62に当てはめ、物体OBの画像に基づいて、物体OBのクラスを判定する。 In step S13, the class determination unit 51 applies the image output from the image acquisition unit 11 to the analysis model 62, and determines the class of the object OB based on the image of the object OB.

ステップS14において、照合部52は、物体OBの座標情報から抽出された物体OBの特徴を、物体OBのクラスに属する1以上の物体モデルの特徴と照合し、物体OBの特徴を含む物体モデルを判定する。 In step S14, the collating unit 52 collates the features of the object OB extracted from the coordinate information of the object OB with the features of one or more object models belonging to the class of the object OB, and creates an object model including the features of the object OB. judge.

ステップS15において、推定部53は、物体OBの特徴を含む物体モデルの特徴の情報と物体OBの座標情報とに基づいて物体OBの3次元形状を推定する。 In step S15, the estimation unit 53 estimates the three-dimensional shape of the object OB based on the feature information of the object model including the feature of the object OB and the coordinate information of the object OB.

ステップS16において、映像生成部15は、推定部53で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。 In step S16, the image generation unit 15 estimates the space on the screen SCR occupied by the object OB based on the three-dimensional shape of the object OB estimated by the estimation unit 53. The image generation unit 15 avoids this space and generates an image IM projected on the screen SCR.

[2−3.効果]
情報処理システム2は、クラス判定部51と照合部52とを有する。クラス判定部51は、スクリーンSCR上に挿入された物体OBの画像に基づいて、物体OBのクラスを判定する。記憶装置60は、クラスごとに、クラスに属する1以上の物体モデルの特徴を規定した物体モデル情報61を記憶する。照合部52は、物体OBの座標情報から抽出された物体OBの特徴を、物体OBのクラスに属する1以上の物体モデルの特徴と照合し、物体OBの特徴を含む物体モデルを判定する。推定部53は、物体OBの特徴を含む物体モデルの特徴の情報と物体OBの座標情報とに基づいて物体OBの3次元形状を推定する。
[2-3. effect]
The information processing system 2 has a class determination unit 51 and a collation unit 52. The class determination unit 51 determines the class of the object OB based on the image of the object OB inserted on the screen SCR. The storage device 60 stores the object model information 61 that defines the characteristics of one or more object models belonging to the class for each class. The collation unit 52 collates the features of the object OB extracted from the coordinate information of the object OB with the features of one or more object models belonging to the class of the object OB, and determines the object model including the features of the object OB. The estimation unit 53 estimates the three-dimensional shape of the object OB based on the feature information of the object model including the feature of the object OB and the coordinate information of the object OB.

この構成によれば、様々な物体について精度よく3次元形状を推定することができる。 According to this configuration, it is possible to accurately estimate the three-dimensional shape of various objects.

[3.第3実施形態]
[3−1.情報処理システムの構成]
図10は、第3実施形態の情報処理システム3の概略図である。
[3. Third Embodiment]
[3-1. Information processing system configuration]
FIG. 10 is a schematic view of the information processing system 3 of the third embodiment.

本実施形態において第1実施形態と異なる点は、1以上の物体モデルの情報と物体OBの座標情報とを照合して物体OBの3次元形状が推定される点である。情報処理システム3は、例えば、利用可能な玩具が特定された遊戯施設など、物体OBの種類が限定される環境に適用される。そのため、第2実施形態のような物体認識技術を用いたクラス分類は行われない。以下、第1実施形態との相違点を中心に説明を行う。 The difference from the first embodiment in this embodiment is that the three-dimensional shape of the object OB is estimated by collating the information of one or more object models with the coordinate information of the object OB. The information processing system 3 is applied to an environment in which the types of objects OB are limited, such as a play facility in which available toys are specified. Therefore, the classification using the object recognition technique as in the second embodiment is not performed. Hereinafter, the differences from the first embodiment will be mainly described.

記憶装置80は、例えば、物体モデル情報81を記憶する。物体モデル情報81は、例えば、1以上の物体モデルの特徴を規定する。例えば、遊戯施設に積み木などの玩具が備えられている場合には、物体モデル情報81には、利用可能な1以上の玩具と、それぞれの玩具の3次元形状の特徴と、が関連付けて規定される。 The storage device 80 stores, for example, the object model information 81. The object model information 81 defines, for example, the features of one or more object models. For example, when a toy such as a building block is provided in a play facility, the object model information 81 defines one or more toys that can be used and the three-dimensional shape characteristics of each toy in association with each other. NS.

処理装置70は、例えば、照合部71を有する。照合部71は、例えば、物体OBの座標情報から抽出された物体OBの特徴を1以上の物体モデルの特徴と照合し、物体OBの特徴を含む1以上の物体モデルを判定する。推定部72は、例えば、物体OBの特徴を有する1以上の物体モデルの3次元形状に基づいて物体OBの3次元形状を推定する。 The processing device 70 has, for example, a collating unit 71. For example, the collating unit 71 collates the features of the object OB extracted from the coordinate information of the object OB with the features of the one or more object models, and determines one or more object models including the features of the object OB. The estimation unit 72 estimates the three-dimensional shape of the object OB based on, for example, the three-dimensional shape of one or more object models having the characteristics of the object OB.

図11および図12は、物体モデル情報81に規定される物体モデルOMBの一例を示す図である。 11 and 12 are diagrams showing an example of the object model OMB defined in the object model information 81.

図11は、複数のキューブ状の単位構造体TUが結合した玩具Tを示す。遊戯施設には、単位構造体TYの組み合わせに応じた複数種類の玩具Tが提供される。物体モデル情報81には、単位構造体TUが物体モデルOBMとして規定される。 FIG. 11 shows a toy T in which a plurality of cube-shaped unit structure TUs are combined. The amusement facility is provided with a plurality of types of toys T according to the combination of the unit structure TY. In the object model information 81, the unit structure TU is defined as the object model OBM.

推定部72は、例えば、物体OBの特徴を含む1つの物体モデルを単位構造体YUの物体モデルOBMと推定する。推定部72は、例えば、複数の単位構造体TUを結合させた構造物(玩具T)の3次元形状を物体OBの3次元形状と推定する。単位構造体YUの数および接続構造は、例えば、物体OBの座標情報に基づいて推定される。 The estimation unit 72 estimates, for example, one object model including the features of the object OB as the object model OBM of the unit structure YU. The estimation unit 72 estimates, for example, the three-dimensional shape of the structure (toy T) in which a plurality of unit structures TUs are combined as the three-dimensional shape of the object OB. The number of unit structures YU and the connection structure are estimated based on, for example, the coordinate information of the object OB.

図12は、物体モデルOBMとして登録される複数種類の積み木を示す。図12の例では、5種類の積み木が物体モデルOBMとして登録される。例えば、物体モデルOBM1は、正方形の板面を有する板状の積み木である。物体モデルOBM2は、円柱状の積み木である。物体モデルOBM3は、キューブ状の積み木である。物体モデルOBM4は、長方形の板面を有する板状の積み木である。物体モデルOBM5は、三角柱状の積み木である。物体モデル情報81には、5種類の物体モデルOBMと、それぞれの物体モデルOBMの3次元形状の特徴と、が関連付けられて規定される。 FIG. 12 shows a plurality of types of building blocks registered as an object model OBM. In the example of FIG. 12, five types of building blocks are registered as the object model OBM. For example, the object model OBM1 is a plate-shaped building block having a square plate surface. The object model OBM2 is a columnar building block. The object model OBM3 is a cube-shaped building block. The object model OBM4 is a plate-shaped building block having a rectangular plate surface. The object model OBM5 is a triangular columnar building block. In the object model information 81, five types of object model OBMs and the features of the three-dimensional shapes of the respective object model OBMs are defined in association with each other.

推定部72は、例えば、物体OBの特徴を有する1以上の物体モデルOBMを特定する。図12では、例えば、物体モデルOBM3、物体モデルOBM2および物体モデルOBM1をこの順に下から積み上げて得られる物体OBが示されている。推定部72は、例えば、物体OBの座標情報に基づいて、1以上の物体モデルOBMの相対位置を判定する。推定部72は、例えば、それぞれの物体モデルOBMの3次元形状および相対位置に基づいて物体OBの3次元形状を推定する。 The estimation unit 72 identifies, for example, one or more object model OBMs having the characteristics of the object OB. In FIG. 12, for example, an object OB obtained by stacking an object model OBM3, an object model OBM2, and an object model OBM1 from the bottom in this order is shown. The estimation unit 72 determines, for example, the relative position of one or more object model OBMs based on the coordinate information of the object OB. The estimation unit 72 estimates the three-dimensional shape of the object OB based on, for example, the three-dimensional shape and the relative position of each object model OBM.

プログラム82は、本実施形態に係る情報処理をコンピュータに実行させるプログラムである。処理装置70は、記憶装置80に記憶されるプログラム82にしたがって各種の処理を行う。処理装置70は、プログラム82を実行することにより、画像取得部11、座標情報抽出部12、照合部71、推定部72および映像生成部15として機能する。 The program 82 is a program that causes a computer to execute information processing according to the present embodiment. The processing device 70 performs various processes according to the program 82 stored in the storage device 80. By executing the program 82, the processing device 70 functions as an image acquisition unit 11, a coordinate information extraction unit 12, a collation unit 71, an estimation unit 72, and a video generation unit 15.

[3−2.情報処理方法]
図13は、本実施形態の情報処理方法を示すフローチャートである。
[3-2. Information processing method]
FIG. 13 is a flowchart showing the information processing method of the present embodiment.

ステップS21において、画像取得部11はカメラ40が撮影したスクリーンSCRの画像を取得する。画像は、スクリーンSCR上に挿入された物体OBの奥行情報を含む。 In step S21, the image acquisition unit 11 acquires an image of the screen SCR taken by the camera 40. The image includes depth information of the object OB inserted on the screen SCR.

ステップS22において、座標情報抽出部12は、物体OBの奥行情報に基づいて、物体OBの座標情報を抽出する。座標情報抽出部12は、例えば、画像から、物体OBの点群の座標情報を座標情報として抽出する。 In step S22, the coordinate information extraction unit 12 extracts the coordinate information of the object OB based on the depth information of the object OB. The coordinate information extraction unit 12 extracts, for example, the coordinate information of the point cloud of the object OB as the coordinate information from the image.

ステップS23において、照合部71は、物体OBの座標情報から抽出された物体OBの特徴を1以上の物体モデルOBMの特徴と照合し、物体OBの特徴を含む1以上の物体モデルOBMを判定する。 In step S23, the collating unit 71 collates the features of the object OB extracted from the coordinate information of the object OB with the features of the one or more object model OBM, and determines one or more object model OBM including the features of the object OB. ..

ステップS24において、推定部72は、物体OBの特徴を有する1以上の物体モデルOBMの3次元形状に基づいて物体OBの3次元形状を推定する。 In step S24, the estimation unit 72 estimates the three-dimensional shape of the object OB based on the three-dimensional shape of one or more object model OBMs having the characteristics of the object OB.

ステップS25において、映像生成部15は、推定部72で推定された物体OBの3次元形状に基づいて、物体OBが占有するスクリーンSCR上の空間を推定する。映像生成部15は、この空間を避けてスクリーンSCRに投射される映像IMを生成する。 In step S25, the image generation unit 15 estimates the space on the screen SCR occupied by the object OB based on the three-dimensional shape of the object OB estimated by the estimation unit 72. The image generation unit 15 avoids this space and generates an image IM projected on the screen SCR.

[3−3.効果]
情報処理システム3は、照合部71を有する。記憶装置80は、1以上の物体モデルOBMの特徴を規定した物体モデル情報81を記憶する。照合部71は、物体OBの座標情報から抽出された物体OBの特徴を1以上の物体モデルOBMの特徴と照合し、物体OBの特徴を含む1以上の物体モデルOBMを判定する。推定部72は、物体OBの特徴を有する1以上の物体モデルOBMの3次元形状に基づいて物体OBの3次元形状を推定する。
[3-3. effect]
The information processing system 3 has a collation unit 71. The storage device 80 stores the object model information 81 that defines the characteristics of one or more object model OBMs. The collation unit 71 collates the features of the object OB extracted from the coordinate information of the object OB with the features of the one or more object model OBM, and determines one or more object model OBM including the features of the object OB. The estimation unit 72 estimates the three-dimensional shape of the object OB based on the three-dimensional shape of one or more object model OBMs having the characteristics of the object OB.

この構成によれば、物体モデル情報81に基づいて精度よく物体OBの3次元形状が推定される。 According to this configuration, the three-dimensional shape of the object OB is accurately estimated based on the object model information 81.

推定部72は、例えば、物体OBの特徴を含む1つの物体モデルOBMを単位構造体TUの物体モデルOBMと推定し、複数の単位構造体TUを結合させた構造物(玩具T)の3次元形状を物体OBの3次元形状と推定する。 For example, the estimation unit 72 estimates one object model OBM including the features of the object OB as the object model OBM of the unit structure TU, and three-dimensionally of the structure (toy T) in which a plurality of unit structure TUs are combined. The shape is estimated to be the three-dimensional shape of the object OB.

この構成によれば、複数の単位構造体TUを結合させた構造物の3次元形状を精度よく推定することができる。物体モデル情報81に登録される物体モデルOBMの数も少なくすることができる。 According to this configuration, the three-dimensional shape of a structure in which a plurality of unit structures TUs are combined can be accurately estimated. The number of object model OBMs registered in the object model information 81 can also be reduced.

なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.

なお、本技術は以下のような構成も取ることができる。 The present technology can also have the following configurations.

(1)
スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定する推定部と、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する映像生成部と、
を有する情報処理システム。
(2)
前記映像生成部は、前記物体によって、前記画像を撮影したカメラの死角になる前記スクリーン上の領域に投射される映像を生成する
前記(1)に記載の情報処理システム。
(3)
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報に基づいて前記物体の概形を判定する概形判定部と、
を有し、
前記推定部は、前記物体の概形および前記座標情報に基づいて、前記物体を単純化した疑似物体の3次元モデルを生成し、前記疑似物体の3次元形状を前記物体の3次元形状と推定する
前記(1)または(2)に記載の情報処理システム。
(4)
前記概形判定部は、前記画像に写る前記物体の2次元的な形状から前記物体の輪郭を抽出し、前記画像を撮影したカメラの光軸に沿って前記輪郭を前記スクリーン上に投影して得られる輪郭を疑似輪郭として検出し、前記疑似輪郭を最低面の輪郭とする柱状体を前記物体の概形と判定する
前記(3)に記載の情報処理システム。
(5)
前記画像は被写体の奥行情報を含み、
前記映像生成部は、前記輪郭の内側と外側とで、前記被写体の奥行情報に不連続的な変化が生じる前記輪郭の領域を段差領域と推定し、前記段差領域に対応する前記疑似輪郭の領域を低尤度輪郭領域と推定し、前記低尤度輪郭領域に沿った前記映像をぼかす
前記(4)に記載の情報処理システム。
(6)
前記映像生成部は、前記低尤度輪郭領域の尤度を、前記低尤度輪郭領域に対応する前記段差領域において生じる前記奥行情報の変化量に基づいて判定し、
前記映像生成部は、前記奥行情報の変化量が大きい前記段差領域に対応する前記低尤度輪郭領域ほど尤度が小さいと判定し、
前記映像生成部は、尤度の小さい前記低尤度輪郭領域に沿った前記映像ほど大きくぼかす
前記(5)に記載の情報処理システム。
(7)
前記画像に基づいて、前記物体のクラスを判定するクラス判定部と、
クラスごとに、前記クラスに属する1以上の物体モデルの特徴を規定した物体モデル情報を記憶する記憶装置と、
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報から抽出された前記物体の特徴を、前記物体のクラスに属する前記1以上の物体モデルの特徴と照合し、前記物体の特徴を含む物体モデルを判定する照合部と、
を有し、
前記推定部は、前記物体の特徴を含む物体モデルの特徴の情報と前記物体の座標情報とに基づいて前記物体の3次元形状を推定する
前記(1)または(2)に記載の情報処理システム。
(8)
1以上の物体モデルの特徴を規定した物体モデル情報を記憶する記憶装置と、
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報から抽出された前記物体の特徴を前記1以上の物体モデルの特徴と照合し、前記物体の特徴を含む1以上の物体モデルを判定する照合部と、
を有し、
前記推定部は、前記物体の特徴を有する1以上の物体モデルの3次元形状に基づいて前記物体の3次元形状を推定する
前記(1)または(2)に記載の情報処理システム。
(9)
前記推定部は、前記物体の特徴を含む1つの物体モデルを単位構造体の物体モデルと推定し、複数の前記単位構造体を結合させた構造物の3次元形状を前記物体の3次元形状と推定する
前記(8)に記載の情報処理システム。
(10)
スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定し、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する、
ことを有する、コンピュータにより実行される情報処理方法。
(11)
スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定し、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する、
ことをコンピュータに実現させるプログラム。
(1)
An estimation unit that estimates the three-dimensional shape of the object based on the image of the object on the screen,
An image generation unit that estimates the space on the screen occupied by the object based on the three-dimensional shape of the object and generates an image projected on the screen while avoiding the space.
Information processing system with.
(2)
The information processing system according to (1), wherein the image generation unit generates an image projected by the object onto an area on the screen that becomes a blind spot of a camera that has taken the image.
(3)
A coordinate information extraction unit that extracts coordinate information of the object from the image,
An outline determination unit that determines the outline of the object based on the coordinate information of the object,
Have,
The estimation unit generates a three-dimensional model of a pseudo-object that simplifies the object based on the outline shape of the object and the coordinate information, and estimates the three-dimensional shape of the pseudo-object as the three-dimensional shape of the object. The information processing system according to (1) or (2) above.
(4)
The rough shape determination unit extracts the contour of the object from the two-dimensional shape of the object reflected in the image, and projects the contour onto the screen along the optical axis of the camera that captured the image. The information processing system according to (3) above, wherein the obtained contour is detected as a pseudo contour, and a columnar body having the pseudo contour as the contour of the lowest surface is determined as a rough shape of the object.
(5)
The image contains depth information of the subject and contains
The image generation unit estimates that the contour region where the depth information of the subject changes discontinuously inside and outside the contour as a step region, and the pseudo contour region corresponding to the step region. Is estimated as a low-likelihood contour region, and the image along the low-likelihood contour region is blurred. The information processing system according to (4).
(6)
The video generation unit determines the likelihood of the low likelihood contour region based on the amount of change in the depth information that occurs in the step region corresponding to the low likelihood contour region.
The image generation unit determines that the lower likelihood contour region corresponding to the step region where the amount of change in the depth information is larger has a smaller likelihood.
The information processing system according to (5), wherein the image generation unit blurs the image along the low-likelihood contour region having a small likelihood.
(7)
A class determination unit that determines the class of the object based on the image,
A storage device that stores object model information that defines the characteristics of one or more object models belonging to the class for each class.
A coordinate information extraction unit that extracts coordinate information of the object from the image,
A collating unit that collates the features of the object extracted from the coordinate information of the object with the features of the one or more object models belonging to the class of the object and determines the object model including the features of the object.
Have,
The information processing system according to (1) or (2) above, wherein the estimation unit estimates a three-dimensional shape of the object based on the feature information of the object model including the feature of the object and the coordinate information of the object. ..
(8)
A storage device that stores object model information that defines the characteristics of one or more object models, and
A coordinate information extraction unit that extracts coordinate information of the object from the image,
A collating unit that collates the features of the object extracted from the coordinate information of the object with the features of the one or more object models and determines one or more object models including the features of the object.
Have,
The information processing system according to (1) or (2) above, wherein the estimation unit estimates the three-dimensional shape of the object based on the three-dimensional shape of one or more object models having the characteristics of the object.
(9)
The estimation unit estimates one object model including the features of the object as an object model of the unit structure, and sets the three-dimensional shape of the structure in which a plurality of the unit structures are combined as the three-dimensional shape of the object. The information processing system according to (8) above.
(10)
The three-dimensional shape of the object is estimated based on the image of the object on the screen.
Based on the three-dimensional shape of the object, the space on the screen occupied by the object is estimated, and an image projected on the screen is generated while avoiding the space.
A method of information processing performed by a computer that has.
(11)
The three-dimensional shape of the object is estimated based on the image of the object on the screen.
Based on the three-dimensional shape of the object, the space on the screen occupied by the object is estimated, and an image projected on the screen is generated while avoiding the space.
A program that makes a computer realize that.

1,2,3 情報処理システム
12 座標情報抽出部
13 概形判定部
14,53,72 推定部
15 映像生成部
40 カメラ
51 クラス判定部
52,71 照合部
60,80 記憶装置
61,81 物体モデル情報
LA 低尤度輪郭領域
IM 映像
LL 段差領域
OB 物体
OBM 物体モデル
OL 輪郭
POB 疑似物体
PC 疑似輪郭
SCR スクリーン
TU 単位構造体
1,2,3 Information processing system 12 Coordinate information extraction unit 13 Approximate shape determination unit 14,53,72 Estimating unit 15 Image generation unit 40 Camera 51 Class determination unit 52,71 Collation unit 60,80 Storage device 61,81 Object model Information LA Low likelihood contour area IM Video LL Step area OB Object OBM Object model OL Contour POB Pseudo object PC Pseudo contour SCR Screen TU Unit structure

Claims (11)

スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定する推定部と、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する映像生成部と、
を有する情報処理システム。
An estimation unit that estimates the three-dimensional shape of the object based on the image of the object on the screen,
An image generation unit that estimates the space on the screen occupied by the object based on the three-dimensional shape of the object and generates an image projected on the screen while avoiding the space.
Information processing system with.
前記映像生成部は、前記物体によって、前記画像を撮影したカメラの死角になる前記スクリーン上の領域に投射される映像を生成する
請求項1に記載の情報処理システム。
The information processing system according to claim 1, wherein the image generation unit generates an image projected by the object onto an area on the screen that becomes a blind spot of a camera that has taken the image.
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報に基づいて前記物体の概形を判定する概形判定部と、
を有し、
前記推定部は、前記物体の概形および前記座標情報に基づいて、前記物体を単純化した疑似物体の3次元モデルを生成し、前記疑似物体の3次元形状を前記物体の3次元形状と推定する
請求項1に記載の情報処理システム。
A coordinate information extraction unit that extracts coordinate information of the object from the image,
An outline determination unit that determines the outline of the object based on the coordinate information of the object,
Have,
The estimation unit generates a three-dimensional model of a pseudo-object that simplifies the object based on the outline shape of the object and the coordinate information, and estimates the three-dimensional shape of the pseudo-object as the three-dimensional shape of the object. The information processing system according to claim 1.
前記概形判定部は、前記画像に写る前記物体の2次元的な形状から前記物体の輪郭を抽出し、前記画像を撮影したカメラの光軸に沿って前記輪郭を前記スクリーン上に投影して得られる輪郭を疑似輪郭として検出し、前記疑似輪郭を最低面の輪郭とする柱状体を前記物体の概形と判定する
請求項3に記載の情報処理システム。
The rough shape determination unit extracts the contour of the object from the two-dimensional shape of the object reflected in the image, and projects the contour onto the screen along the optical axis of the camera that captured the image. The information processing system according to claim 3, wherein the obtained contour is detected as a pseudo contour, and a columnar body having the pseudo contour as the contour of the lowest surface is determined as an outline of the object.
前記画像は被写体の奥行情報を含み、
前記映像生成部は、前記輪郭の内側と外側とで、前記被写体の奥行情報に不連続的な変化が生じる前記輪郭の領域を段差領域と推定し、前記段差領域に対応する前記疑似輪郭の領域を低尤度輪郭領域と推定し、前記低尤度輪郭領域に沿って投射される前記映像をぼかす
請求項4に記載の情報処理システム。
The image contains depth information of the subject and contains
The image generation unit estimates that the contour region in which the depth information of the subject changes discontinuously between the inside and the outside of the contour as a step region, and the pseudo contour region corresponding to the step region. The information processing system according to claim 4, wherein is estimated to be a low-likelihood contour region, and the image projected along the low-likelihood contour region is blurred.
前記映像生成部は、前記低尤度輪郭領域の尤度を、前記低尤度輪郭領域に対応する前記段差領域において生じる前記奥行情報の変化量に基づいて判定し、
前記映像生成部は、前記奥行情報の変化量が大きい前記段差領域に対応する前記低尤度輪郭領域ほど尤度が小さいと判定し、
前記映像生成部は、尤度の小さい前記低尤度輪郭領域に沿った前記映像ほど大きくぼかす
請求項5に記載の情報処理システム。
The video generation unit determines the likelihood of the low likelihood contour region based on the amount of change in the depth information that occurs in the step region corresponding to the low likelihood contour region.
The image generation unit determines that the lower likelihood contour region corresponding to the step region where the amount of change in the depth information is larger has a smaller likelihood.
The information processing system according to claim 5, wherein the image generation unit blurs the image along the low-likelihood contour region having a small likelihood.
前記画像に基づいて、前記物体のクラスを判定するクラス判定部と、
クラスごとに、前記クラスに属する1以上の物体モデルの特徴を規定した物体モデル情報を記憶する記憶装置と、
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報から抽出された前記物体の特徴を、前記物体のクラスに属する前記1以上の物体モデルの特徴と照合し、前記物体の特徴を含む物体モデルを判定する照合部と、
を有し、
前記推定部は、前記物体の特徴を含む物体モデルの特徴の情報と前記物体の座標情報とに基づいて前記物体の3次元形状を推定する
請求項1に記載の情報処理システム。
A class determination unit that determines the class of the object based on the image,
A storage device that stores object model information that defines the characteristics of one or more object models belonging to the class for each class.
A coordinate information extraction unit that extracts coordinate information of the object from the image,
A collating unit that collates the features of the object extracted from the coordinate information of the object with the features of the one or more object models belonging to the class of the object and determines the object model including the features of the object.
Have,
The information processing system according to claim 1, wherein the estimation unit estimates a three-dimensional shape of the object based on the feature information of the object model including the feature of the object and the coordinate information of the object.
1以上の物体モデルの特徴を規定した物体モデル情報を記憶する記憶装置と、
前記画像から前記物体の座標情報を抽出する座標情報抽出部と、
前記物体の座標情報から抽出された前記物体の特徴を前記1以上の物体モデルの特徴と照合し、前記物体の特徴を含む1以上の物体モデルを判定する照合部と、
を有し、
前記推定部は、前記物体の特徴を有する1以上の物体モデルの3次元形状に基づいて前記物体の3次元形状を推定する
請求項1に記載の情報処理システム。
A storage device that stores object model information that defines the characteristics of one or more object models, and
A coordinate information extraction unit that extracts coordinate information of the object from the image,
A collating unit that collates the features of the object extracted from the coordinate information of the object with the features of the one or more object models and determines one or more object models including the features of the object.
Have,
The information processing system according to claim 1, wherein the estimation unit estimates the three-dimensional shape of the object based on the three-dimensional shape of one or more object models having the characteristics of the object.
前記推定部は、前記物体の特徴を含む1つの物体モデルを単位構造体の物体モデルと推定し、複数の前記単位構造体を結合させた構造物の3次元形状を前記物体の3次元形状と推定する
請求項8に記載の情報処理システム。
The estimation unit estimates one object model including the features of the object as an object model of the unit structure, and sets the three-dimensional shape of the structure in which a plurality of the unit structures are combined as the three-dimensional shape of the object. The information processing system according to claim 8.
スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定し、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する、
ことを有する、コンピュータにより実行される情報処理方法。
The three-dimensional shape of the object is estimated based on the image of the object on the screen.
Based on the three-dimensional shape of the object, the space on the screen occupied by the object is estimated, and an image projected on the screen is generated while avoiding the space.
A method of information processing performed by a computer that has.
スクリーン上の物体の画像に基づいて前記物体の3次元形状を推定し、
前記物体の3次元形状に基づいて、前記物体が占有する前記スクリーン上の空間を推定し、前記空間を避けて前記スクリーンに投射される映像を生成する、
ことをコンピュータに実現させるプログラム。
The three-dimensional shape of the object is estimated based on the image of the object on the screen.
Based on the three-dimensional shape of the object, the space on the screen occupied by the object is estimated, and an image projected on the screen is generated while avoiding the space.
A program that makes a computer realize that.
JP2020042753A 2020-03-12 2020-03-12 Information processing system, information processing method, and program Pending JP2021144472A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020042753A JP2021144472A (en) 2020-03-12 2020-03-12 Information processing system, information processing method, and program
PCT/JP2021/004923 WO2021181988A1 (en) 2020-03-12 2021-02-10 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020042753A JP2021144472A (en) 2020-03-12 2020-03-12 Information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021144472A true JP2021144472A (en) 2021-09-24

Family

ID=77671410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020042753A Pending JP2021144472A (en) 2020-03-12 2020-03-12 Information processing system, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2021144472A (en)
WO (1) WO2021181988A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6860604B1 (en) * 2004-01-09 2005-03-01 Imatte, Inc. Method and apparatus for inhibiting the projection of a shadow of a presenter onto a projection screen
JP4270264B2 (en) * 2006-11-01 2009-05-27 セイコーエプソン株式会社 Image correction apparatus, projection system, image correction method, image correction program, and recording medium
JP2015177383A (en) * 2014-03-17 2015-10-05 カシオ計算機株式会社 Projection device and program
WO2016125359A1 (en) * 2015-02-03 2016-08-11 ソニー株式会社 Information processing device, information processing method and program
WO2019009100A1 (en) * 2017-07-07 2019-01-10 ソニー株式会社 Control device, control method, and program

Also Published As

Publication number Publication date
WO2021181988A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
US9905032B2 (en) Object removal using lidar-based classification
US10824862B2 (en) Three-dimensional object detection for autonomous robotic systems using image proposals
EP3168812B1 (en) System and method for scoring clutter for use in 3d point cloud matching in a vision system
Lysenkov et al. Recognition and pose estimation of rigid transparent objects with a kinect sensor
US9594950B2 (en) Depth mapping with enhanced resolution
CN102572505B (en) System and method for calibrating a depth imaging sensor
Azad et al. 6-DoF model-based tracking of arbitrarily shaped 3D objects
JP5484133B2 (en) Method for estimating the 3D pose of a specular object
US11615547B2 (en) Light field image rendering method and system for creating see-through effects
Berger et al. A state of the art report on kinect sensor setups in computer vision
CN113689503B (en) Target object posture detection method, device, equipment and storage medium
WO2021114776A1 (en) Object detection method, object detection device, terminal device, and medium
CN111415420A (en) Spatial information determination method and device and electronic equipment
CN110189343A (en) Image labeling method, apparatus and system
TWI684956B (en) Object recognition and tracking system and method thereof
WO2021181988A1 (en) Information processing system, information processing method, and program
Hu et al. R-CNN based 3D object detection for autonomous driving
Coenen et al. Detection and 3d modelling of vehicles from terrestrial stereo image pairs
CN110009683B (en) Real-time on-plane object detection method based on MaskRCNN
Xu et al. Kinect-based easy 3d object reconstruction
English et al. Development of a practical 3D automatic target recognition and pose estimation algorithm
EP4073698A1 (en) Object detection method, object detection device, terminal device, and medium
Coenen et al. Recovering the 3d pose and shape of vehicles from stereo images
Riecický et al. Optical-inertial Synchronization of MoCap Suit with Single Camera Setup for Reliable Position Tracking.
Vaughn et al. Workstation recognition using a constrained edge-based hough transform for mobile robot navigation