JP6980990B2 - 情報処理システム、情報処理方法、およびプログラム - Google Patents
情報処理システム、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP6980990B2 JP6980990B2 JP2016168774A JP2016168774A JP6980990B2 JP 6980990 B2 JP6980990 B2 JP 6980990B2 JP 2016168774 A JP2016168774 A JP 2016168774A JP 2016168774 A JP2016168774 A JP 2016168774A JP 6980990 B2 JP6980990 B2 JP 6980990B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information processing
- real object
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 115
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000004088 simulation Methods 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 20
- 230000007613 environmental effect Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 19
- 238000000034 method Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000036544 posture Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/02—Composition of display devices
- G09G2300/023—Display panel composed of stacked panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Electromagnetism (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Description
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
<1−1.基本構成>
まず、本実施形態による情報処理システムの構成例について、図1を参照して説明する。図1に示すように、本実施形態による情報処理システムは、情報処理装置10、サーバ20、および、通信網22を有する。
情報処理装置10は、実オブジェクトの認識結果に基いて、当該実オブジェクトと関連付けて表示される画像を決定する装置である。例えば、情報処理装置10は、認識された実オブジェクトに対応するデジタルデータに基いて、当該実オブジェクトと関連付けて表示される画像を決定する。ここで、実オブジェクトは、例えば、図1に示したような、一以上のプレートが積層された(物理的な)積層プレート32であり得る。なお、積層プレート32は、図1に示すように、例えば実空間に存在するテーブルの天面などの載置面30上に積層されてもよい。または、図2に示すように、個々のプレートが載置面30の平行な方向に並べて配置されてもよい。
表示部122は、例えばプロジェクタ(投影部)であり得る。例えば、表示部122は、表示対象の画像を載置面30の方向へ投影する。または、図2に示すように、表示部122は、テーブルの天面30と平行な方向へ表示対象の画像を投影してもよいし、斜めの方向へ投影してもよい。なお、表示対象の画像は、情報処理装置10に記憶されていてもよいし、後述するサーバ20から受信されてもよい。
センサ部124は、RGBカメラ(以下、カメラと称する)124a、および、デプスセンサ124bなどを含み得る。センサ部124は、センサ部124の前方の空間の情報をセンシングする。例えば、センサ部124は、センサ部124の前方の映像を撮影したり、センサ部124の前方に位置する実オブジェクトまでの距離をセンシングする。なお、センサ部124は、デプスセンサ124bの代わりに、または追加的に、ステレオカメラを含んでもよい。この場合、当該ステレオカメラが、当該ステレオカメラの前方に位置する実オブジェクトまでの距離をセンシングすることが可能である。
サーバ20は、各種の画像や各種のデジタルデータを記憶する装置である。また、サーバ20は、画像やデジタルデータの取得要求を情報処理装置10から受信すると、該当の画像やデジタルデータを情報処理装置10へ送信する。
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態による情報処理システムの構成について説明した。ところで、従来、建築設計や商品設計の場面では、建物の内部や商品の内部構造を関係者に示すために、垂直または水平の断面を示す建築モデル図や商品モデル図が3DCGを用いて制作されている。しかしながら、3DCG画面だけでは実際の形状をイメージし難い。そこで、建築模型や商品モックが別途制作される場合が多いが、この場合、ユーザは3DCG画面と模型とを別々に確認する必要があり、不便である。
<2−1.構成>
次に、本実施形態による情報処理装置10の構成について詳細に説明する。図3は、本実施形態による情報処理装置10の構成を示した機能ブロック図である。図3に示すように、情報処理装置10は、制御部100、通信部120、表示部122、センサ部124、および、記憶部126を有する。
制御部100は、情報処理装置10に内蔵される、後述するCPU(Central Processing Unit)150や、RAM(Random Access Memory)154などのハードウェアを用いて、情報処理装置10の動作を統括的に制御する。また、図3に示すように、制御部100は、検出結果取得部102、認識部104、関連付け部106、決定部108、および、表示制御部110を有する。
検出結果取得部102は、センサ部124によるセンシング結果を取得する。例えば、検出結果取得部102は、センサ部124により撮影された撮影画像や、センサ部124により検出された、センサ部124の前方に位置する実オブジェクトまでの距離情報を、センサデータとして受信または読出し処理などを行うことにより取得する。
認識部104は、本開示における取得部の一例である。認識部104は、検出結果取得部102により取得された検出結果に基いて、センサ部124により検出された実オブジェクトの位置、姿勢、形状、素材、および/または、種類などを認識する。例えば、認識部104は、検出結果取得部102により取得された撮影画像に基いて、当該実オブジェクトの位置、姿勢、形状、素材、および、種類などを認識する。また、認識部104は、取得された距離情報に基いて、当該実オブジェクトと、基準位置との位置関係を認識する。例えば、認識部104は、検出された載置面30までの距離情報と、検出された積層プレート32までの距離情報とを比較することにより、積層プレート32の高さを認識する。
関連付け部106は、基準位置と実オブジェクトとの位置関係と、デジタルデータとの関連付けを例えば事前に行う。例えば、関連付け部106は、載置面30からの実オブジェクト(積層プレート32など)の高さとデジタルデータとを関連付ける。例えば、デジタルデータが複数の階層のデータ40(例えば断面のデータなど)を含む場合には、図4に示したように、関連付け部106は、載置面30からの実オブジェクトの高さが高いほど、より上位の階層のデータ40を関連付ける。図4に示した例では、関連付け部106は、載置面30からの実オブジェクトの高さが「H3」から所定の閾値の範囲内である場合と、ある不動産の「屋根」のデジタルデータ40aとを関連付ける。また、関連付け部106は、載置面30からの実オブジェクトの高さが「H2」から所定の閾値の範囲内である場合と、当該不動産の「二階」のデジタルデータ40bとを関連付ける。また、関連付け部106は、載置面30からの実オブジェクトの高さが「H1」から所定の閾値の範囲内である場合と、当該不動産の「一階」のデジタルデータ40cとを関連付ける。なお、図4に示したように、複数の階層の各々のデータ40は、基本的に、例えば仮想空間内において当該階層が真上から撮影された画像であり得る。
(2−1−5−1.決定例1)
決定部108は、認識部104により認識された、実オブジェクトに含まれる面のうち、当該基準位置との間の距離が最小または最大である面との位置関係、および、当該実オブジェクトに対応するデジタルデータに基いて、表示対象の画像を決定する。
ここで、図8〜図11を参照して、上記の内容についてより詳細に説明する。なお、図8〜図11に示した例では、図4に示したような、載置面30からの高さと、複数の階層の各々のデータ40との関連付けが予め行われているものとする。
また、決定部108は、例えばアプリケーションの種類やモードの設定(例えばシミュレーションモードなど)などに基いて、断面や内部構造以外の種類の画像(例えば環境シミュレーションの結果を示す画像)を表示対象の画像として決定してもよい。例えば、積層プレート32が載置面30上に配置されており、かつ、デジタルデータが複数の階層を含む場合には、図12に示したように、決定部108は、載置面30からの積層プレート32の高さに対応する階の内部の気流シミュレーション結果を示す画像46を、表示対象の画像として決定してもよい。または、決定部108は、載置面30からの積層プレート32の高さに対応する階の内部の温度分布を示す画像を、表示対象の画像として決定してもよい。または、決定部108は、載置面30からの積層プレート32の高さに対応する階の内部における冷房の効き具合の分布を示す画像を、表示対象の画像として決定してもよい。または、決定部108は、載置面30からの積層プレート32の高さに対応する階の、人の動線を示す動画像を、表示対象の画像として決定してもよい。
(2−1−6−1.表示対象の画像の表示)
表示制御部110は、表示部122に対する表示を制御する。例えば、表示制御部110は、決定部108により決定された表示対象の画像を、該当の実オブジェクトに含まれる面のうち表示部122に最も近い面上に表示部122に投影させる。
なお、例えば図13に示したように、表示部122に最も近いプレート320の天面が斜面である場合には、画像が当該プレート320上に投影されると、当該斜面に沿って画像が伸びたように投影され得る。そこで、表示制御部110は、画像が投影されるプレートの形状に応じて表示対象の画像を補正することも可能である。例えば、表示制御部110は、プレートの天面の形状(角度など)の認識結果に応じて、表示対象の画像を変換および補正を行う。そして、表示制御部110は、補正後の画像を該当のプレートの天面上に表示部122に投影させることが可能である。
また、表示制御部110は、積層プレート32とユーザとの位置関係(または、載置面30とユーザとの位置関係)に応じて、表示対象の画像を補正することも可能である。例えば、図14に示したように、積層プレート32とユーザの顔の位置との位置関係の認識結果に応じて、図14の(b)に示したように、表示制御部110は、表示対象の画像をユーザの顔の方向から見たような画像となるように、当該画像を補正してもよい。または、表示制御部110は、積層プレート32に対するユーザの視線方向の検出結果に応じて、表示対象の画像を視線方向から見たような画像となるように、当該画像を補正してもよい。なお、積層プレート32とユーザの顔の位置との位置関係は、例えばユーザが位置する環境内に配置されたカメラ(図示省略)やデプスセンサ(図示省略)などのセンシング結果に基いて、認識部104により認識され得る。
また、表示制御部110は、3Dシーン内に配置されている仮想の平行光源(太陽など)の位置に応じて、表示対象の画像を補正することも可能である。図15は、載置面30からの積層プレート32の高さに対応する階の内部の画像と、当該階の内部における日照のシミュレーション結果とが重畳された画像40が積層プレート32上に投影されている例を示した図である。なお、図15に示した例では、3Dシーンにおいて仮想の太陽80が配置されていることを前提としている。また、仮想の太陽80の位置を示すアイコンが載置面30上に投影されてもよい。
‐表示例1
また、表示制御部110は、さらに、例えばアイコンなどのUIオブジェクトを載置面30上に投影させることも可能である。なお、同じUIオブジェクトが複数表示される場合には、特に処理を行わないと、表示部122により近い実オブジェクト上に投影されるUIオブジェクトほど、より小さいサイズで投影されてしまう。その結果、UIオブジェクトをユーザが操作し難くなり得る。また、一般的に、アイコンなどのオブジェクトは、人間の指の太さに応じてサイズが設定されているので、高さが異なる実オブジェクト上に投影される場合であっても、同じサイズで投影されることが望ましい。
ところで、例えば図5に示した例のように、デジタルデータがボリュームデータ42である場合には、積層プレート32のうち表示部122に最も近いプレート320の天面の高さに対応する画像が当該プレート320に投影され得る。つまり、積層プレート32に対してプレートが一枚取り外されたり、一枚積み重ねられると、ボリュームデータ42の高さ方向に関して一枚のプレートに対応する間隔だけずれた画像がプレート上に投影され得る。このため、該当のプレートをユーザが手で上下させることにより、ボリュームデータ42の高さ方向に関して一枚のプレートに対応する範囲の中間に位置する画像をプレート上に投影させることができる。
通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、表示制御部110の制御に従って、表示対象の画像やデジタルデータの取得要求をサーバ20へ送信する。また、通信部120は、画像やデジタルデータをサーバ20から受信する。
表示部122は、表示制御部110の制御に従って、画像を表示する。例えば、表示部122は、表示制御部110の制御に従って、表示部122の前方方向へ画像を投影する。
記憶部126は、各種のデータや各種のソフトウェアを記憶する。例えば、記憶部126は、関連付け部106による関連付けの内容を示す情報を一時的に記憶する。
以上、本実施形態による構成について説明した。次に、本実施形態の適用例について、「2−2−1.適用例1」〜「2−2−2.適用例2」において説明する。
まず、適用例1について説明する。適用例1では、例えば、建築家とクライアントが注文住宅の間取りのシミュレーションを行う場面を想定する。また、適用例1では、例えば図8〜図11に示したように、住宅の各階層を示す画像が積層プレート32の天面上に投影される。
なお、上記の説明では、S125〜S129において、表示制御部110が表示対象の画像に対応する階のデータを3Dシーン内に配置する例について説明したが、かかる例に限定されない。変形例として、家のモデリングデータは3Dシーン内に固定され得る。そして、S125〜S129では、表示制御部110は、当該モデリングデータのうち、表示対象の画像に対応する階よりも上の階のデータを透明化してもよい。
次に、適用例2について説明する。適用例2では、表示対象の画像が、ユーザの手の動きの認識結果に基いて移動可能なUIオブジェクトを含むことを想定する。
適用例2による表示制御部110は、表示対象の画像が投影された、プレートの面に接近または接触したユーザの手の動きの認識結果に基いて、当該画像に含まれるUIオブジェクトの表示位置を変更することが可能である。例えば、表示制御部110は、当該画像に含まれる複数のUIオブジェクトのうち、当該面に接触または近接したと認識された際のユーザの手の位置に対応するUIオブジェクトの表示位置を、ユーザの手の動きの認識結果に基いて変更する。
ここで、図22〜図25を参照して、上記の機能についてより詳細に説明する。なお、図22の(a)に示したように、(載置面30上に配置された)積層プレート32の天面には、積層プレート32の高さに応じた階の内部の画像が投影されており、かつ、当該画像は、家具のUIオブジェクト52を含んでいるものとする。この場合、図22の(b)に示したように、投影されているUIオブジェクト52の表示位置にユーザが手を接近させた場合には、表示制御部110は、UIオブジェクト52の存在を示す、例えば矢印の形のアイコン60をUIオブジェクト52上に表示部122に表示させる。
ここで、図26および図27を参照して、適用例2による処理の流れについて説明する。図26に示したように、まず、認識部104は、積層プレートに対してホバーが行われているか否かを認識する(S201)。ここで、ホバーとは、例えば、実オブジェクトに接触することなく、実オブジェクトから少し離れた位置でユーザが指や手を動かす動作であり得る。
{2−3−1.効果1}
以上説明したように、本実施形態による情報処理装置10は、実オブジェクトに含まれる面と基準位置との位置関係の認識結果、および、当該実オブジェクトに対応するデジタルデータに基いて、表示対象の画像を決定する。このため、情報処理装置10は、実オブジェクトと基準位置との位置関係および当該実オブジェクトに適応的に、表示される画像を決定することができる。例えば、ユーザが、載置面30上でプレートを積み上げたり、取り外したりすることにより、プレート上に投影される画像がインタラクティブに変更され得る。
また、情報処理装置10は、積層プレートに対応するデジタルデータに関して、当該積層プレートの高さに応じた断面の画像を当該積層プレート上に投影することが可能である。このため、ユーザは、例えば、プレートを積み上げたり、取り外したりすることにより、建物の内部や商品の内部構造を容易に、かつ、直感的に確認することができる。
また、本実施形態によれば、実オブジェクトの面上に画像が投影され得る。このため、例えば3DCGの画面だけを見る場合と比較して、ユーザは、実際のスケールを把握しやすい。
また、本実施形態は、汎用的でプリミティブなプレートを用いて実現することができる。このため、システムを安価に構成することができる。
また、本実施形態によれば、積層プレート上に投影された画像を複数のユーザが同時に見ることができ、同時に操作することができる。例えば、建築設計や商品設計の場面において、複数の関係者が、計画途中の建物の内部や商品の内部構造の画像を見ることにより、細部の設計の検討を共同して行うことができる。
なお、上記の説明では、一以上のプレートが積層され、そして、積層されたプレートの合計の高さに基いて表示対象の画像を決定する例について説明したが、本開示はかかる例に限定されない。次に、本実施形態の応用例について説明する。後述するように、本応用例によれば、個々のプレートは並列に配置され、そして、複数の表示対象の画像を個々のプレート上に表示部122に投影させることが可能である。なお、以下では、上記の説明と重複する内容については説明を省略する。
本応用例による関連付け部106は、個々のプレートに関する情報に応じて、個々のプレートと、デジタルデータとを関連付ける。例えば、デジタルデータが複数の階層のデータを含む場合には、関連付け部106は、個々のプレートに関する情報に応じて、個々のプレートと、当該複数の階層のデータのうちのいずれかとを関連付ける。ここで、プレートに関する情報は、プレートの高さ、プレートの形状、プレートの色(例えばプレートの外周部分などの色)、プレートに印刷された例えば二次元バーコードなどのマーカ(例えばインビジブルマーカなど)に含まれる情報、プレートに印刷された文字(例えば「1F」など)、画像、または罫線パターン、プレートの素材、および/または、載置面30上でプレートが配置されたエリアの情報などを含み得る。また、関連付け部106は、個々のプレートの配置または積み上げの時系列情報(例えば、プレートB、プレートA、プレートCの順に配置されたことを示す情報など)に応じて、個々のプレート(または積層されたプレート)とデジタルデータとを関連付けてもよい。
本応用例による決定部108は、認識部104により認識された、個々のプレートに関する情報、および、個々のプレートに対応するデジタルデータに基いて、プレートごとに表示対象の画像を決定する。
本応用例による表示制御部110は、認識部104により認識された個々のプレートの面上に、決定部108により当該プレートに関して決定された表示対象の画像を表示部122に投影させる。
次に、本実施形態による情報処理装置10のハードウェア構成について、図30を参照して説明する。図30に示すように、情報処理装置10は、CPU150、ROM(Read Only Memory)152、RAM154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した実施形態では、ボリュームデータ42の高さ方向に関して一枚のプレートに対応する範囲のスケールを、図18に示したようなGUI50に対する操作により変更する例について説明したが、かかる例に限定されない。例えば、情報処理装置10は、ジェスチャーの認識結果、音声コマンドの認識結果、または、所定の入力デバイスを用いて入力された情報などに基いて、当該スケールを変更することも可能である。
また、例えば図9などでは、載置面30上に一つの積層プレート32だけが配置される例を示したが、かかる例に限定されず、載置面30上に複数の積層プレート32が配置されてもよい。そして、この場合、情報処理装置10は、複数の積層プレート32の各々に関して、当該積層プレート32上に投影されるデジタルデータの種類を異ならせてもよい。例えば、情報処理装置10は、積層プレート32aには「不動産Aのレイアウト」を、積層プレート32bには「不動産Bのレイアウト」をそれぞれ投影してもよい。また、情報処理装置10は、積層プレート32aには「家のレイアウト画像」を、積層プレート32bには「(当該家の)気流シミュレーションの結果の画像」をそれぞれ投影してもよい。
また、上述した実施形態では、表示部122が画像を載置面30上に投影する例について説明したが、かかる例に限定されない。例えば、表示部122は、メガネ型のディスプレイであり、かつ、情報処理装置10は、センサ部124により検出された実オブジェクトに応じて決定された表示対象の画像を、当該実オブジェクトと関連付けて表示部122に表示してもよい。この場合、表示部122は、透過型のディスプレイであってもよいし、非透過型のディスプレイであってもよい。後者の場合、表示部122の前方の映像が表示部122に付属されているカメラにより撮影され得る。そして、情報処理装置10は、当該カメラにより撮影された画像に対して表示対象の画像を重畳させて、表示部122に表示し得る。
また、本実施形態による情報処理システムの構成は、図1に示した例に限定されない。例えば、図1では、情報処理装置10が一台だけ図示されているが、かかる例に限定されず、複数台のコンピュータが協同して動作することにより、上述した情報処理装置10の機能が実現されてもよい。
また、情報処理装置10の構成は、図3に示した例に限定されない。例えば、表示部122およびセンサ部124のうち一以上は情報処理装置10に含まれる代わりに、情報処理装置10が通信可能な他の装置に含まれてもよい。この場合、さらに、情報処理装置10は、図1に示したようなプロジェクタユニットではなく、他の種類の装置であってよい。例えば、情報処理装置10は、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、ロボット、または、例えばHMD、AR(Augmented Reality)グラス、または、スマートウォッチなどのウェアラブルデバイスであってもよい。
また、上述した各適用例の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
実オブジェクトに含まれる第1の面と、基準位置との位置関係の認識結果を取得する取得部と、
前記位置関係の認識結果と、前記実オブジェクトに対応するデジタルデータとに基いて、前記第1の面と関連付けて表示される画像を決定する決定部と、
を備える、情報処理システム。
(2)
前記位置関係は、前記第1の面と前記基準位置との間の距離である、前記(1)に記載の情報処理システム。
(3)
前記第1の面は、前記実オブジェクトに含まれる面のうち、前記基準位置との間の距離が最小または最大である面である、前記(2)に記載の情報処理システム。
(4)
複数の前記実オブジェクトが所定の空間内に配置され、
前記決定部は、前記複数の実オブジェクトのうち、前記基準位置との間の距離が最小または最大である第1の実オブジェクトの前記第1の面と前記基準位置との位置関係に基いて、前記画像を決定する、前記(1)〜(3)のいずれか一項に記載の情報処理システム。
(5)
前記複数の実オブジェクトのうち、前記基準位置との間の距離が最小または最大である実オブジェクトが、前記第1の実オブジェクトから第2の実オブジェクトに変わったことが認識された場合には、前記決定部は、前記第2の実オブジェクトと前記基準位置との位置関係に基いて、前記第2の実オブジェクトの前記第1の面と関連付けて表示される画像を決定する、前記(4)に記載の情報処理システム。
(6)
前記複数の実オブジェクトの各々は、一方向に並べて配置されている、前記(4)または(5)に記載の情報処理システム。
(7)
前記決定部は、さらに、前記実オブジェクトの形状の認識結果に基いて、前記画像を決定する、前記(1)〜(6)のいずれか一項に記載の情報処理システム。
(8)
前記デジタルデータは、複数の階層のデータを含み、
前記決定部は、前記複数の階層のデータのうち、前記位置関係に対応する階層のデータに基いて、前記画像を決定する、前記(1)〜(7)のいずれか一項に記載の情報処理システム。
(9)
前記デジタルデータは、複数の階層のデータを含み、
前記決定部は、前記複数の階層のデータのうち、前記実オブジェクトに対応する階層のデータに基いて、前記画像を決定する、前記(1)〜(7)のいずれか一項に記載の情報処理システム。
(10)
前記デジタルデータは、三次元のデータであり、
前記決定部は、前記デジタルデータの、前記位置関係に応じた断面を示す画像を、前記第1の面と関連付けて表示される画像として決定する、前記(1)〜(7)のいずれか一項に記載の情報処理システム。
(11)
複数の前記実オブジェクトが所定の空間内に配置され、
前記デジタルデータにおける前記複数の実オブジェクトの各々に対応するデータの範囲は、互いに異なる、前記(10)に記載の情報処理システム。
(12)
前記複数の実オブジェクトは、第1の実オブジェクトを含み、
前記デジタルデータのうち、前記第1の実オブジェクトに対応するデータの範囲は、ユーザの指定に基いて変更される、前記(11)に記載の情報処理システム。
(13)
前記情報処理システムは、前記デジタルデータのうち、前記第1の実オブジェクトに対応するデータの範囲を変更するための操作画像を表示部に表示させる表示制御部をさらに備える、前記(12)に記載の情報処理システム。
(14)
前記情報処理システムは、前記決定部により決定された画像を前記第1の面と関連付けて表示部に表示させる表示制御部をさらに備える、前記(1)〜(12)のいずれか一項に記載の情報処理システム。
(15)
前記表示部は、投影部であり、
前記表示制御部は、前記決定部により決定された画像を前記第1の面上に前記投影部に投影させる、前記(14)に記載の情報処理システム。
(16)
前記画像は、仮想オブジェクトを含み、
前記表示制御部は、前記第1の面に接近または接触した、ユーザの手の動きの認識結果に基いて、前記画像における前記仮想オブジェクトの表示位置を変更する、前記(14)または(15)に記載の情報処理システム。
(17)
前記画像は、複数の前記仮想オブジェクトを含み、
前記表示制御部は、前記複数の仮想オブジェクトのうち、前記第1の面に接触または近接したと認識された前記ユーザの手の位置に対応する仮想オブジェクトの表示位置を、前記ユーザの手の動きの認識結果に基いて変更する、前記(16)に記載の情報処理システム。
(18)
前記表示制御部は、前記第1の面と前記ユーザの手との位置関係に基いて、前記画像における前記仮想オブジェクトの存在を示す表示を前記画像に重畳して前記表示部に表示させる、前記(16)または(17)に記載の情報処理システム。
(19)
実オブジェクトに含まれる第1の面と、基準位置との位置関係の認識結果を取得することと、
前記位置関係の認識結果と、前記実オブジェクトに対応するデジタルデータとに基いて、前記第1の面と関連付けて表示される画像をプロセッサが決定することと
を含む、情報処理方法。
(20)
コンピュータを、
実オブジェクトに含まれる第1の面と、基準位置との位置関係の認識結果を取得する取得部と、
前記位置関係の認識結果と、前記実オブジェクトに対応するデジタルデータとに基いて、前記第1の面と関連付けて表示される画像を決定する決定部、
として機能させるための、プログラム。
20 サーバ
22 通信網
100 制御部
102 検出結果取得部
104 認識部
106 関連付け部
108 決定部
110 表示制御部
120 通信部
122 表示部
124 センサ部
126 記憶部
Claims (20)
- 複数のプレートが積層された実オブジェクトに含まれる第1の面と、基準位置との位置関係の認識結果を取得する取得部と、
前記位置関係の認識結果と、前記実オブジェクトに対応するデジタルデータとに基いて、前記第1の面と関連付けて表示される画像を決定する決定部と、
前記決定部により決定された前記画像と、前記第1の面に対応して前記実オブジェクトの内部における環境シミュレーションの結果を示すシミュレーション画像とを重畳し、前記第1の面と関連付けて表示部に表示させる表示制御部と、
を備える、情報処理システム。 - 前記位置関係は、前記第1の面と前記基準位置との間の距離である、請求項1に記載の情報処理システム。
- 前記第1の面は、前記実オブジェクトに含まれる面のうち、前記基準位置との間の距離が最小または最大である面である、請求項2に記載の情報処理システム。
- 複数の前記実オブジェクトが所定の空間内に配置され、
前記決定部は、前記複数の実オブジェクトのうち、前記基準位置との間の距離が最小または最大である第1の実オブジェクトの前記第1の面と前記基準位置との位置関係に基いて、前記画像を決定する、請求項1乃至請求項3の何れか1項に記載の情報処理システム。 - 前記複数の実オブジェクトのうち、前記基準位置との間の距離が最小または最大である実オブジェクトが、前記第1の実オブジェクトから第2の実オブジェクトに変わったことが認識された場合には、前記決定部は、前記第2の実オブジェクトと前記基準位置との位置関係に基いて、前記第2の実オブジェクトの前記第1の面と関連付けて表示される画像を決定する、請求項4に記載の情報処理システム。
- 前記複数の実オブジェクトの各々は、一方向に並べて配置されている、請求項4または請求項5に記載の情報処理システム。
- 前記決定部は、さらに、前記実オブジェクトの形状の認識結果に基いて、前記画像を決定する、請求項1乃至請求項6の何れか1項に記載の情報処理システム。
- 前記デジタルデータは、複数の階層のデータを含み、
前記決定部は、前記複数の階層のデータのうち、前記位置関係に対応する階層のデータに基いて、前記画像を決定する、請求項1乃至請求項7の何れか1項に記載の情報処理システム。 - 前記デジタルデータは、複数の階層のデータを含み、
前記決定部は、前記複数の階層のデータのうち、前記実オブジェクトに対応する階層のデータに基いて、前記画像を決定する、請求項1乃至請求項7の何れか1項に記載の情報処理システム。 - 前記デジタルデータは、三次元のデータであり、
前記決定部は、前記デジタルデータの、前記位置関係に応じた断面を示す画像を、前記第1の面と関連付けて表示される画像として決定する、請求項1乃至請求項7の何れか1項に記載の情報処理システム。 - 複数の前記実オブジェクトが所定の空間内に配置され、
前記デジタルデータにおける前記複数の実オブジェクトの各々に対応するデータの範囲は、互いに異なる、請求項10に記載の情報処理システム。 - 前記複数の実オブジェクトは、第1の実オブジェクトを含み、
前記デジタルデータのうち、前記第1の実オブジェクトに対応するデータの範囲は、ユーザの指定に基いて変更される、請求項11に記載の情報処理システム。 - 前記表示制御部は、前記デジタルデータのうち、前記第1の実オブジェクトに対応するデータの範囲を変更するための操作画像を表示部に表示させる、請求項12に記載の情報処理システム。
- 前記決定部により決定された前記画像は、住宅の所定階の内部に関する前記デジタルデータを示す画像であり、
前記シミュレーション画像は、前記住宅の所定階の内部における前記環境シミュレーションの結果を示す画像である、請求項1乃至請求項13の何れか1項に記載の情報処理システム。 - 前記表示部は、投影部であり、
前記表示制御部は、前記決定部により決定された画像を前記第1の面上に前記投影部に投影させる、請求項1乃至請求項14の何れか1項に記載の情報処理システム。 - 前記画像は、仮想オブジェクトを含み、
前記表示制御部は、前記第1の面に接近または接触した、ユーザの手の動きの認識結果に基いて、前記画像における前記仮想オブジェクトの表示位置を変更し、前記表示位置の変更に応じ、前記決定部により決定された前記画像と前記シミュレーション画像とを重畳した画像を補正する、請求項1乃至請求項15の何れか1項に記載の情報処理システム。 - 前記画像は、複数の前記仮想オブジェクトを含み、
前記表示制御部は、前記複数の仮想オブジェクトのうち、前記第1の面に接触または近接したと認識された前記ユーザの手の位置に対応する仮想オブジェクトの表示位置を、前記ユーザの手の動きの認識結果に基いて変更し、前記表示位置の変更に応じ、前記決定部により決定された前記画像と前記シミュレーション画像とを重畳した画像を補正する、請求項16に記載の情報処理システム。 - 前記表示制御部は、前記第1の面と前記ユーザの手との位置関係に基いて、前記画像における前記仮想オブジェクトの存在を示す表示を前記画像に重畳して前記表示部に表示させる、請求項16または請求項17に記載の情報処理システム。
- 複数のプレートが積層された実オブジェクトに含まれる第1の面と、基準位置との位置関係の認識結果を取得することと、
前記位置関係の認識結果と、前記実オブジェクトに対応するデジタルデータとに基いて、前記第1の面と関連付けて表示される画像をプロセッサが決定することと、
前記プロセッサが、決定した前記画像と、前記第1の面に対応して前記実オブジェクトの内部における環境シミュレーションの結果を示すシミュレーション画像とを重畳し、前記第1の面と関連付けて表示部に表示させることと
を含む、情報処理方法。 - コンピュータを、
複数のプレートが積層された実オブジェクトに含まれる第1の面と、基準位置との位置関係の認識結果を取得する取得部と、
前記位置関係の認識結果と、前記実オブジェクトに対応するデジタルデータとに基いて、前記第1の面と関連付けて表示される画像を決定する決定部と、
前記決定部により決定された前記画像と、前記第1の面に対応して前記実オブジェクトの内部における環境シミュレーションの結果を示すシミュレーション画像とを重畳し、前記第1の面と関連付けて表示部に表示させる表示制御部、
として機能させるための、プログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016168774A JP6980990B2 (ja) | 2016-08-31 | 2016-08-31 | 情報処理システム、情報処理方法、およびプログラム |
KR1020197004684A KR20190039524A (ko) | 2016-08-31 | 2017-07-24 | 정보 처리 시스템, 정보 처리 방법, 및 프로그램 |
PCT/JP2017/026738 WO2018042948A1 (en) | 2016-08-31 | 2017-07-24 | Information processing system, method of information processing, and program |
CN201780051318.4A CN109642788A (zh) | 2016-08-31 | 2017-07-24 | 信息处理系统、信息处理方法以及程序 |
EP17755265.0A EP3507569A1 (en) | 2016-08-31 | 2017-07-24 | Information processing system, method of information processing, and program |
US16/319,653 US20210287330A1 (en) | 2016-08-31 | 2017-07-24 | Information processing system, method of information processing, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016168774A JP6980990B2 (ja) | 2016-08-31 | 2016-08-31 | 情報処理システム、情報処理方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018036813A JP2018036813A (ja) | 2018-03-08 |
JP2018036813A5 JP2018036813A5 (ja) | 2019-09-26 |
JP6980990B2 true JP6980990B2 (ja) | 2021-12-15 |
Family
ID=59683989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016168774A Active JP6980990B2 (ja) | 2016-08-31 | 2016-08-31 | 情報処理システム、情報処理方法、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210287330A1 (ja) |
EP (1) | EP3507569A1 (ja) |
JP (1) | JP6980990B2 (ja) |
KR (1) | KR20190039524A (ja) |
CN (1) | CN109642788A (ja) |
WO (1) | WO2018042948A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7078221B2 (ja) * | 2018-03-30 | 2022-05-31 | 株式会社バンダイナムコアミューズメント | 投影システム |
US11151751B2 (en) * | 2018-11-08 | 2021-10-19 | Rovi Guides, Inc. | Methods and systems for augmenting visual content |
KR102260193B1 (ko) * | 2019-12-30 | 2021-06-03 | 주식회사 버넥트 | 3차원 공간에 대한 보안기능을 제공하는 증강현실 원격 통신방법 및 시스템 |
CN111207672B (zh) * | 2019-12-31 | 2021-08-17 | 上海简家信息技术有限公司 | 一种ar量房方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3743988B2 (ja) | 1995-12-22 | 2006-02-08 | ソニー株式会社 | 情報検索システムおよび方法、並びに情報端末 |
JP2003203194A (ja) * | 2001-08-17 | 2003-07-18 | Ohbayashi Corp | 風環境予測プログラム、このプラグラムを格納した媒体および風環境予測方法 |
JP4785662B2 (ja) * | 2005-10-03 | 2011-10-05 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP4660771B2 (ja) * | 2006-09-27 | 2011-03-30 | 国立大学法人岐阜大学 | 三次元像表示装置 |
JP5207167B2 (ja) * | 2007-12-12 | 2013-06-12 | 国立大学法人岐阜大学 | 投影システムの校正装置 |
JP5024766B2 (ja) * | 2008-03-11 | 2012-09-12 | 国立大学法人岐阜大学 | 三次元表示装置 |
US20100138793A1 (en) * | 2008-12-02 | 2010-06-03 | Microsoft Corporation | Discrete objects for building virtual environments |
CA2836505C (en) * | 2011-05-23 | 2018-10-30 | Lego A/S | Generation of building instructions for construction element models |
JP6074170B2 (ja) * | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
CN102426486B (zh) * | 2011-11-03 | 2013-08-07 | 深圳超多维光电子有限公司 | 一种立体交互方法及被操作设备 |
JP6000553B2 (ja) * | 2012-01-24 | 2016-09-28 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
KR20160102412A (ko) * | 2013-12-27 | 2016-08-30 | 소니 주식회사 | 제어 장치, 제어 방법 및 컴퓨터 프로그램 |
JP6270495B2 (ja) * | 2014-01-16 | 2018-01-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体 |
JPWO2015159548A1 (ja) * | 2014-04-18 | 2017-04-13 | Necソリューションイノベータ株式会社 | 投影制御装置、投影制御方法及び投影制御プログラム |
-
2016
- 2016-08-31 JP JP2016168774A patent/JP6980990B2/ja active Active
-
2017
- 2017-07-24 CN CN201780051318.4A patent/CN109642788A/zh active Pending
- 2017-07-24 US US16/319,653 patent/US20210287330A1/en not_active Abandoned
- 2017-07-24 EP EP17755265.0A patent/EP3507569A1/en not_active Ceased
- 2017-07-24 KR KR1020197004684A patent/KR20190039524A/ko not_active Application Discontinuation
- 2017-07-24 WO PCT/JP2017/026738 patent/WO2018042948A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
JP2018036813A (ja) | 2018-03-08 |
CN109642788A (zh) | 2019-04-16 |
WO2018042948A1 (en) | 2018-03-08 |
US20210287330A1 (en) | 2021-09-16 |
KR20190039524A (ko) | 2019-04-12 |
EP3507569A1 (en) | 2019-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11762478B2 (en) | Virtual or augmediated topological sculpting, manipulation, creation, or interaction with devices, objects, materials, or other entities | |
US10564731B2 (en) | Processing of gesture-based user interactions using volumetric zones | |
JP6980990B2 (ja) | 情報処理システム、情報処理方法、およびプログラム | |
CN103261997B (zh) | 用于控制显示的信息的用户输入的装置和方法 | |
CN104081307B (zh) | 图像处理装置、图像处理方法和程序 | |
CN103677240B (zh) | 虚拟触摸交互方法和虚拟触摸交互设备 | |
CN112313605A (zh) | 增强现实环境中对象的放置和操纵 | |
JPWO2018025511A1 (ja) | 情報処理装置、方法、および、コンピュータプログラム | |
Hernoux et al. | A seamless solution for 3D real-time interaction: design and evaluation | |
WO2018042923A1 (ja) | 情報処理システム、情報処理方法、およびプログラム | |
WO2020197914A1 (en) | Systems and methods for tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190819 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210820 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210820 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210830 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211101 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6980990 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |