JP2022181153A - Information processing system, information processing method and program - Google Patents

Information processing system, information processing method and program Download PDF

Info

Publication number
JP2022181153A
JP2022181153A JP2021144862A JP2021144862A JP2022181153A JP 2022181153 A JP2022181153 A JP 2022181153A JP 2021144862 A JP2021144862 A JP 2021144862A JP 2021144862 A JP2021144862 A JP 2021144862A JP 2022181153 A JP2022181153 A JP 2022181153A
Authority
JP
Japan
Prior art keywords
information
outline
information processing
real space
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021144862A
Other languages
Japanese (ja)
Inventor
遼 松谷
Ryo Matsutani
太基 高見
Taiki Takami
瑛 長坂
Akira Nagasaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
X Garden
X Garden Inc
Original Assignee
X Garden
X Garden Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by X Garden, X Garden Inc filed Critical X Garden
Priority to JP2021144862A priority Critical patent/JP2022181153A/en
Publication of JP2022181153A publication Critical patent/JP2022181153A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of highly precisely superimposedly displaying digital information of furniture, etc. on a prescribed space area such as a room by using augmented reality (AR).
SOLUTION: According to one embodiment of the present invention, an information processing system is provided. The information processing system is configured to execute the following steps. In a reception step, the information processing system receives first image data obtained by capturing an image of a real space. In an acquisition step, the information processing system acquires outline data relating to an outline of the real space. In a positioning step, the information processing system associates a coordinate system of the outline data and a coordinate data of the real space included in the first image data.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

近年、CADデータに基づいて、建築物に関するCG画像をリアルタイムで作成、表示できる技術が開示されている(特許文献1)。 In recent years, there has been disclosed a technology capable of creating and displaying a CG image of a building in real time based on CAD data (Patent Document 1).

特開平7-264545号公報JP-A-7-264545

しかしながら、顧客が内見等の目的で実際に建築物を訪れる場合には、上記の従来技術のCG画像による現実世界の再現よりも、顧客が実際目にする現実の状態に基づいて、さらにイメージを膨らませることができるよう支援する技術が求められる。 However, when a customer actually visits a building for the purpose of viewing, etc., an image based on the actual state that the customer actually sees is used rather than the reproduction of the real world by the CG image of the conventional technology. There is a need for a technology that supports the inflation of the

本発明では上記事情を鑑み、拡張現実(Augmented Reality:AR)を用いて、部屋等の一定の空間領域に対し、家具等の物品のデジタル情報をより精度よく重ね合わせて表示することを可能とする技術を提供することとした。 In view of the above circumstances, the present invention uses augmented reality (AR) to make it possible to superimpose and display digital information of articles such as furniture with higher accuracy in a certain space area such as a room. We decided to provide the technology to

本発明の一態様によれば、情報処理システムが提供される。この情報処理システムは、次の各ステップを実行するように構成される。受付ステップでは、実空間を撮像した第1の画像データを受け付ける。取得ステップでは、実空間の概形に関する概形データを取得する。位置合わせステップでは、概形データの座標系と、第1の画像データに含まれる実空間の座標系とを対応付ける。 According to one aspect of the invention, an information processing system is provided. This information processing system is configured to perform the following steps. The receiving step receives first image data obtained by imaging the real space. The acquisition step acquires outline data relating to the outline of the real space. The alignment step associates the coordinate system of the outline data with the coordinate system of the real space included in the first image data.

本開示によれば、拡張現実(Augmented Reality:AR)を用いて、部屋等の一定の空間領域に対し、家具等の物品のデジタル情報をより精度よく重ね合わせて表示することを可能とする技術を提供することができる。 According to the present disclosure, using augmented reality (AR), a technology that allows digital information of articles such as furniture to be superimposed and displayed with higher accuracy in a certain space area such as a room can be provided.

本実施形態に係る情報処理システム1を表す構成図である。1 is a configuration diagram showing an information processing system 1 according to this embodiment; FIG. 拡張現実提示装置2のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the augmented reality presentation device 2; FIG. 第3の実施形態に係る拡張現実提示装置2における制御部23等によって実現される機能を示すブロック図である。FIG. 11 is a block diagram showing functions realized by a control unit 23 and the like in an augmented reality presentation device 2 according to a third embodiment; 情報処理装置3のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of the information processing device 3; FIG. 第1の実施形態および第2の実施形態に係る情報処理装置3における制御部33等によって実現される機能を示すブロック図である。3 is a block diagram showing functions realized by a control unit 33 and the like in the information processing device 3 according to the first embodiment and the second embodiment; FIG. ホスト端末4に表示される画面であって、概形生成画面5の一例である。It is a screen displayed on the host terminal 4 and is an example of the outline generation screen 5 . 拡張現実提示装置2に表示される画面であって、配置入力画面6の一例である。It is a screen displayed on the augmented reality presentation device 2 and is an example of the layout input screen 6 . 拡張現実提示装置2に表示される画面であって、配置入力画面6の一例である。It is a screen displayed on the augmented reality presentation device 2 and is an example of the layout input screen 6 . 概形データの座標系CGの一例である。It is an example of the coordinate system CG of outline data. 拡張現実提示装置2に表示される画面の一部であって、アンカー設定画面の一部である。It is a part of the screen displayed on the augmented reality presentation device 2 and a part of the anchor setting screen. 拡張現実提示装置2に表示される画面の一部であって、概形設定画面の一部である。It is a part of the screen displayed on the augmented reality presentation device 2 and is part of the outline setting screen. 第1の画像データに含まれる実空間RSの座標系CRの一例である。It is an example of the coordinate system CR of the real space RS included in the first image data. 拡張現実提示装置2に表示される画面の一部であって、オブジェクト表示画面の一部である。It is part of the screen displayed on the augmented reality presentation device 2 and part of the object display screen. 情報処理システム1によって実行される情報処理の流れの一例を示すアクティビティ図である。3 is an activity diagram showing an example of the flow of information processing executed by the information processing system 1; FIG.

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 Embodiments of the present invention will be described below with reference to the drawings. Various features shown in the embodiments shown below can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 By the way, the program for realizing the software appearing in this embodiment may be provided as a non-transitory computer-readable medium (Non-Transitory Computer-Readable Medium), or may be downloaded from an external server. It may be provided as possible, or may be provided so that the program is activated on an external computer and the function is realized on the client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現され得るソフトウェアの情報処理とを合わせたものも含み得る。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0または1で構成される2進数のビット集合体としての信号値の高低、または量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行され得る。 Further, in the present embodiment, the term "unit" may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be specifically realized by these hardware resources. . In addition, various information is handled in the present embodiment, and these information include, for example, physical values of signal values representing voltage and current, and signal values as binary bit aggregates composed of 0 or 1. Represented by high and low, or quantum superposition (so-called qubits), communication and operations can be performed on circuits in a broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、およびメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 A circuit in a broad sense is a circuit realized by at least appropriately combining circuits, circuits, processors, memories, and the like. Application Specific Integrated Circuits (ASICs), programmable logic devices (e.g., Simple Programmable Logic Devices (SPLDs), Complex Programmable Logic Devices (CPLDs), and field It includes a programmable gate array (Field Programmable Gate Array: FPGA).

1.ハードウェア構成
本節では、第1の実施形態(以下、本実施形態と称する)のハードウェア構成について説明する。
1. Hardware Configuration This section describes the hardware configuration of the first embodiment (hereinafter referred to as the present embodiment).

1.1 情報処理システム1
図1は、本実施形態に係る情報処理システム1を表す構成図である。情報処理システム1は、拡張現実提示装置2と、情報処理装置3と、ホスト端末4とを備え、これらがネットワークを通じて接続されている。これらの構成要素について、さらに説明する。ここで、情報処理システム1に例示されるシステムとは、1つまたはそれ以上の装置または構成要素からなるものである。したがって、情報処理装置3単体であっても、システムの一例となる。
1.1 Information processing system 1
FIG. 1 is a configuration diagram showing an information processing system 1 according to this embodiment. The information processing system 1 includes an augmented reality presentation device 2, an information processing device 3, and a host terminal 4, which are connected via a network. These components are further described. Here, the system exemplified by the information processing system 1 consists of one or more devices or components. Therefore, even the single information processing device 3 serves as an example of a system.

1.2 拡張現実提示装置2
拡張現実提示装置2は、拡張現実(Augmented Reality:AR)が実現できる装置であれば、装置の種類は限定されない。拡張現実とは、実際の景色、地形等の現実環境に、情報処理装置を使ってさらに情報を加える技術を指す。拡張現実提示装置2は、ARを搭載した専用装置、パソコン、スマートフォンやタブレット型情報端末等の携帯情報端末であってもよく、ユーザがその目の周囲を覆うように装着可能に構成される装置であってもよい。例えば、ARウェアラブル端末であってもよい。ARウェアラブル端末として、例えば、メガネ型ARウェアラブル端末、ヘッドマウントディスプレイ、時計型ウェアラブル端末等の端末が挙げられる。
1.2 Augmented reality presentation device 2
The type of the augmented reality presentation device 2 is not limited as long as it is a device capable of realizing Augmented Reality (AR). Augmented reality refers to technology that uses information processing equipment to add information to the real environment, such as actual scenery and topography. The augmented reality presentation device 2 may be a dedicated device equipped with AR, a personal computer, a mobile information terminal such as a smartphone or a tablet-type information terminal, and is configured to be worn by the user so as to cover the eyes. may be For example, it may be an AR wearable terminal. AR wearable terminals include, for example, glasses-type AR wearable terminals, head-mounted displays, watch-type wearable terminals, and the like.

図2は、拡張現実提示装置2のハードウェア構成を示すブロック図である。拡張現実提示装置2は、通信部21と、記憶部22と、制御部23と、表示部24と、入力部25と、撮像部26とを有し、これらの構成要素が拡張現実提示装置2の内部において通信バス20を介して電気的に接続されている。通信部21、記憶部22および制御部23の説明は、情報処理装置3における通信部31、記憶部32および制御部33と略同様のため、省略する。 FIG. 2 is a block diagram showing the hardware configuration of the augmented reality presentation device 2. As shown in FIG. The augmented reality presentation device 2 has a communication unit 21, a storage unit 22, a control unit 23, a display unit 24, an input unit 25, and an imaging unit 26, and these components constitute the augmented reality presentation device 2. are electrically connected via a communication bus 20 inside the . Descriptions of the communication unit 21, the storage unit 22, and the control unit 23 are omitted because they are substantially the same as those of the communication unit 31, the storage unit 32, and the control unit 33 in the information processing device 3. FIG.

表示部24は、例えば、拡張現実提示装置2に含まれてもよいし、外付けされてもよい。拡張現実提示装置2が、ARグラスである場合、表示部24は、ARグラスのグラフィックディスプレイ部分である。ユーザは、グラフィックディスプレイを通して現実世界を認識するだけでなく、グラフィックディスプレイに表示された文字や画像を見て拡張現実を認識することができる。なお、ARグラス(拡張現実提示装置2)のグラフィックディスプレイ(表示部24)は、非透過両眼型、単眼型、透過両眼型等の種類があるが、限定されない。 The display unit 24 may be included in, for example, the augmented reality presentation device 2 or may be externally attached. When the augmented reality presentation device 2 is AR glasses, the display unit 24 is the graphic display portion of the AR glasses. The user can not only perceive the real world through the graphic display, but also perceive augmented reality by looking at characters and images displayed on the graphic display. The graphic display (display unit 24) of the AR glasses (augmented reality presentation device 2) includes, but is not limited to, a non-transmissive binocular type, a monocular type, and a transmissive binocular type.

拡張現実提示装置2が、ARグラスではない場合、表示部24は、拡張現実提示装置2に外付け、または内蔵されたCRTディスプレイ、液晶ディスプレイ、有機ELディスプレイおよびプラズマディスプレイ等の表示デバイスである。拡張現実提示装置2の種類に応じてこれらを使い分けて実施することが好ましい。また、表示部24の寸法、解像度、ドットピッチ等の仕様も限定されない。 If the augmented reality presentation device 2 is not AR glasses, the display unit 24 is a display device such as a CRT display, a liquid crystal display, an organic EL display, a plasma display, or the like, attached to or built into the augmented reality presentation device 2. It is preferable to selectively use these according to the type of the augmented reality presentation device 2 . Moreover, the specifications of the display unit 24, such as dimensions, resolution, and dot pitch, are not limited.

入力部25は、ユーザからの各種指示や情報入力を受け付ける。当該入力が、命令信号として、通信バス20を介して制御部23に転送され、制御部23が、必要に応じて、所定の制御や演算を実行し得る。入力部25は、拡張現実提示装置2の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部25は、表示部24と一体となってタッチパネルとして実施されてもよい。タッチパネルであれば、ユーザは、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。 The input unit 25 receives various instructions and information input from the user. The input is transferred as a command signal to the control section 23 via the communication bus 20, and the control section 23 can execute predetermined control and calculation as necessary. The input unit 25 may be included in the housing of the augmented reality presentation device 2, or may be externally attached. For example, the input unit 25 may be integrated with the display unit 24 and implemented as a touch panel. With a touch panel, the user can input a tap operation, a swipe operation, or the like. Of course, a switch button, a mouse, a QWERTY keyboard, or the like may be employed instead of the touch panel.

入力部25は、グラフィカルユーザインターフェース(Graphical User Interface:GUI)やナチュラルユーザインターフェースを用いることにしてもよい。ナチュラルユーザインターフェースを用いる場合、ユーザは、普段行っている自然な動作で、ARグラス(拡張現実提示装置2)に各種指示や情報を送ることができる。なお、ナチュラルユーザインターフェースとなる動作対象は、手又は指に限定されず、頭、首、腰等の体の部位全てとすることができる。 The input unit 25 may use a graphical user interface (GUI) or a natural user interface. In the case of using the natural user interface, the user can send various instructions and information to the AR glasses (augmented reality presentation device 2) with natural actions that are normally performed. It should be noted that the motion target that serves as a natural user interface is not limited to hands or fingers, and can be all parts of the body such as the head, neck, and waist.

また、入力部25は、マイクロフォンであってもよい。マイクロフォン(入力部25)は、拡張現実提示装置2に内蔵又は外付けされるもので、音を電気信号に変換する音響装置である。具体的には、マイクロフォン(入力部25)は、空気振動を機械的振動に変え、それを電気信号に変換する。変換された電気信号は、デジタル電気信号であってもアナログ電気信号であってもよいが、通信部21を介して、デジタル電気信号として記憶部22に一旦保存される。 Also, the input unit 25 may be a microphone. The microphone (input unit 25) is built in or externally attached to the augmented reality presentation device 2, and is an acoustic device that converts sound into an electric signal. Specifically, the microphone (input unit 25) converts air vibrations into mechanical vibrations and converts them into electrical signals. The converted electrical signal may be a digital electrical signal or an analog electrical signal, and is temporarily stored in the storage section 22 as a digital electrical signal via the communication section 21 .

撮像部26は、外界の情報を撮像可能に構成される、いわゆるビジョンセンサ(カメラ)である。撮像部26は、撮影対象を撮影することで画像データを生成するように構成される。撮像部26は、後述の情報処理装置3における通信部31とネットワークを介して接続され、撮像した画像データを情報処理装置3に転送可能に構成される。 The imaging unit 26 is a so-called vision sensor (camera) configured to be capable of imaging information of the outside world. The imaging unit 26 is configured to generate image data by photographing an object to be photographed. The imaging unit 26 is connected to a communication unit 31 of the information processing device 3 to be described later via a network, and is configured to be capable of transferring captured image data to the information processing device 3 .

1.3 情報処理装置3
図4は、情報処理装置3のハードウェア構成を示すブロック図である。情報処理装置3は、通信部31と、記憶部32と、制御部33とを備え、これらの構成要素が、情報処理装置3の内部において、通信バス30を介して電気的に接続されている。各構成要素について、さらに説明する。
1.3 Information processing device 3
FIG. 4 is a block diagram showing the hardware configuration of the information processing device 3. As shown in FIG. The information processing device 3 includes a communication unit 31, a storage unit 32, and a control unit 33, and these components are electrically connected via a communication bus 30 inside the information processing device 3. . Each component will be further described.

通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、3G/LTE/5G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。すなわち、通信部31は、これら複数の通信手段の集合として実施されることがより好ましい。すなわち、情報処理装置3は、通信部31を介して、拡張現実提示装置2およびホスト端末4とネットワークを介して、種々の情報を通信する。 The communication unit 31 preferably uses wired communication means such as USB, IEEE1394, Thunderbolt, wired LAN network communication, etc., but wireless LAN network communication, mobile communication such as 3G/LTE/5G, Bluetooth (registered trademark) communication, etc. is required. may be included depending on That is, it is more preferable that the communication unit 31 be implemented as a set of these communication means. That is, the information processing device 3 communicates various information with the augmented reality presentation device 2 and the host terminal 4 via the network via the communication unit 31 .

記憶部32は、前述の記載により定義される様々な情報を記憶する。記憶部32は、例えば、制御部33によって実行される情報処理装置3に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施され得る。また、記憶部32は、これらの組み合わせであってもよい。特に、記憶部32は、オブジェクトOに関するオブジェクト情報である描画データおよび位置座標データ、実空間RSの概形GDに関する概形データ、アンカー情報、または、これらを生成するためのプログラム等を記憶する。記憶部32は、これ以外にも、制御部33によって実行される情報処理装置3に係る種々のプログラム等を記憶している。 The storage unit 32 stores various information defined by the above description. The storage unit 32 is, for example, a storage device such as a solid state drive (SSD) that stores various programs related to the information processing device 3 executed by the control unit 33, or a storage device related to program calculation. It can be implemented as a memory such as a Random Access Memory (RAM) that temporarily stores necessary information (arguments, arrays, etc.). Moreover, the memory|storage part 32 may be these combinations. In particular, the storage unit 32 stores drawing data and position coordinate data, which are object information about the object O, outline data and anchor information about the outline GD of the real space RS, programs for generating these, and the like. The storage unit 32 also stores various programs related to the information processing device 3 that are executed by the control unit 33 .

制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば、不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。すなわち、情報処理装置3に係る種々の機能は、記憶部32に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる各機能部として実行され得る。各機能部については、次節において、更に詳述する。なお、制御部33は、単一であることに限定されず、機能ごとに複数の制御部33を有するように実施されてもよい。また、制御部33は、複数の制御部の組み合わせであってもよい。 The control unit 33 processes and controls overall operations related to the information processing device 3 . The control unit 33 is, for example, a central processing unit (CPU) (not shown). The control unit 33 implements various functions related to the information processing device 3 by reading a predetermined program stored in the storage unit 32 . That is, various functions related to the information processing device 3 are implemented by the control unit 33, which is an example of hardware, by specifically realizing information processing by software stored in the storage unit 32. It can be implemented as each function included. Each functional unit will be further detailed in the next section. Note that the control unit 33 is not limited to being single, and may be implemented so as to have a plurality of control units 33 for each function. Also, the controller 33 may be a combination of a plurality of controllers.

1.4 ホスト端末4
ホスト端末4の説明は、上記の拡張現実提示装置2と略同様のため、省略する。なお、ホスト端末4は、ARが実現できる装置でなくてもよいが、ARが実現できる装置であることが好ましい。
1.4 Host terminal 4
A description of the host terminal 4 is omitted because it is substantially the same as the augmented reality presentation device 2 described above. Note that the host terminal 4 may not be a device capable of realizing AR, but is preferably a device capable of realizing AR.

2.1 機能構成(拡張現実提示装置2)
本節では、第3の実施形態に係る拡張現実提示装置2の機能構成について説明する。前述の通り、拡張現実提示装置2に係る種々の機能は、記憶部22に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部23によって具体的に実現されることで、制御部23に含まれる各機能部として実行され得る。
2.1 Functional configuration (augmented reality presentation device 2)
This section describes the functional configuration of the augmented reality presentation device 2 according to the third embodiment. As described above, various functions related to the augmented reality presentation device 2 are realized by the control unit 23, which is an example of hardware, by specifically realizing information processing by software stored in the storage unit 22. 23 can be implemented as each functional unit included in .

図3は、第3の実施形態に係る拡張現実提示装置2における制御部23等によって実現される機能を示すブロック図である。具体的には、拡張現実提示装置2は、取得部231と、管理部232と、表示処理部233とを備える。 FIG. 3 is a block diagram showing functions realized by the control unit 23 and the like in the augmented reality presentation device 2 according to the third embodiment. Specifically, the augmented reality presentation device 2 includes an acquisition unit 231 , a management unit 232 and a display processing unit 233 .

取得部231は、種々の情報を取得するように構成される。例えば、取得部231は、ネットワークを介して情報処理装置3から配置情報を取得してもよい。詳細については、後述する。 The acquisition unit 231 is configured to acquire various information. For example, the acquisition unit 231 may acquire the arrangement information from the information processing device 3 via the network. Details will be described later.

管理部232は、種々の情報を管理するように構成される。例えば、管理部232は、部屋に配置し得る複数のオブジェクトOに関する描画データを管理してもよい。詳細については、後述する。 The management unit 232 is configured to manage various information. For example, the management unit 232 may manage drawing data regarding a plurality of objects O that can be arranged in a room. Details will be described later.

表示処理部233は、種々の表示処理を実行するように構成される。例えば、表示処理部233は、実空間RSである部屋に仮想情報であるオブジェクトOを重畳表示させてもよい。詳細については、後述する。 The display processing unit 233 is configured to execute various display processes. For example, the display processing unit 233 may superimpose the object O, which is virtual information, on the room, which is the real space RS. Details will be described later.

2.2 機能構成(情報処理装置3)
本節では、第1の実施形態および第2の実施形態に係る情報処理装置3の機能構成について説明する。前述の通り、情報処理装置3に係る種々の機能は、記憶部32に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる各機能部として実行され得る。
2.2 Functional configuration (information processing device 3)
In this section, the functional configuration of the information processing device 3 according to the first embodiment and the second embodiment will be described. As described above, various functions of the information processing apparatus 3 are realized by the control unit 33, which is an example of hardware, by specifically realizing information processing by software stored in the storage unit 32. can be executed as each function unit included in the

図5は、第1の実施形態および第2の実施形態に係る情報処理装置3における制御部33等によって実現される機能を示すブロック図である。具体的には、情報処理システム1の一例である情報処理装置3は、受付部331と、画面表示部332と、概形生成部333と、取得部334と、位置合わせ部335とを備える。 FIG. 5 is a block diagram showing functions realized by the control unit 33 and the like in the information processing device 3 according to the first embodiment and the second embodiment. Specifically, the information processing device 3 as an example of the information processing system 1 includes a reception unit 331 , a screen display unit 332 , an outline generation unit 333 , an acquisition unit 334 and an alignment unit 335 .

受付部331は、種々の情報を受け付けるように構成される。例えば、受付部331は、受付ステップとして、実空間RSを撮像した第1の画像データを受け付けてもよい。詳細については、後述する。 The reception unit 331 is configured to receive various information. For example, the reception unit 331 may receive first image data obtained by imaging the real space RS as the reception step. Details will be described later.

画面表示部332は、種々の画面を表示させるよう制御するように構成される。概形生成画面表示部の一例である画面表示部332は、概形生成画面表示ステップとして、概形生成画面5(図6参照)を表示させるように制御する。アンカー設定画面表示部の一例である画面表示部332は、アンカー設定画面表示ステップとして、アンカー設定画面(図10参照)を表示させるように制御する。配置入力画面表示部の一例である画面表示部332は、配置入力画面表示ステップとして、配置入力画面6(図7および図8参照)を表示させるように制御する。オブジェクト表示画面の一例である画面表示部332は、オブジェクト表示画面表示ステップとして、オブジェクト表示画面(図13参照)を表示させるように制御する。詳細については、後述する。 The screen display unit 332 is configured to control to display various screens. The screen display unit 332, which is an example of the outline generation screen display unit, controls to display the outline generation screen 5 (see FIG. 6) as the outline generation screen display step. A screen display unit 332, which is an example of an anchor setting screen display unit, controls to display an anchor setting screen (see FIG. 10) as an anchor setting screen display step. The screen display unit 332, which is an example of the layout input screen display unit, controls to display the layout input screen 6 (see FIGS. 7 and 8) as the layout input screen display step. A screen display unit 332, which is an example of an object display screen, controls to display an object display screen (see FIG. 13) as an object display screen display step. Details will be described later.

概形生成部333は、第2の画像データから概形データを生成するように構成される。詳細については、後述する。 The outline generator 333 is configured to generate outline data from the second image data. Details will be described later.

取得部334は、種々の情報を取得するように構成される。例えば、取得部334は、概形データ、アンカー情報およびオブジェクト情報を取得してもよい。詳細については、後述する。 Acquisition unit 334 is configured to acquire various types of information. For example, the acquisition unit 334 may acquire outline data, anchor information, and object information. Details will be described later.

位置合わせ部335は、概形データの座標系CGと、第1の画像データに含まれる実空間RSの座標系CRとを対応付けるように構成される。詳細については、後述する。 The alignment unit 335 is configured to associate the coordinate system CG of the outline data with the coordinate system CR of the real space RS included in the first image data. Details will be described later.

管理部336は、種々の情報を管理するように構成される。例えば、管理部336は、概形データを管理してもよい。詳細については、後述する。 Management unit 336 is configured to manage various information. For example, the management unit 336 may manage outline data. Details will be described later.

3.第1の実施形態
本節では、第1の実施形態に係る情報処理システム1の情報処理方法について説明する。図6は、ホスト端末4に表示される画面であって、概形生成画面5の一例である。図7は、拡張現実提示装置2に表示される画面であって、配置入力画面6の一例である。図8は、拡張現実提示装置2に表示される画面であって、配置入力画面6の一例である。図9は、概形データの座標系CGの一例である。図10は、拡張現実提示装置2に表示される画面の一部であって、アンカー設定画面の一部である。図11は、拡張現実提示装置2に表示される画面の一部であって、概形設定画面の一部である。図12は、第1の画像データに含まれる実空間RSの座標系CRの一例である。図13は、拡張現実提示装置2に表示される画面の一部であって、オブジェクト表示画面の一部である。図14は、情報処理システム1によって実行される情報処理の流れの一例を示すアクティビティ図である。
3. First Embodiment In this section, an information processing method of the information processing system 1 according to the first embodiment will be described. FIG. 6 is a screen displayed on the host terminal 4, which is an example of the outline generation screen 5. As shown in FIG. FIG. 7 is a screen displayed on the augmented reality presentation device 2 and is an example of the layout input screen 6. As shown in FIG. FIG. 8 is a screen displayed on the augmented reality presentation device 2 and is an example of the layout input screen 6 . FIG. 9 is an example of the coordinate system CG of outline data. FIG. 10 is a part of the screen displayed on the augmented reality presentation device 2, which is part of the anchor setting screen. FIG. 11 is a part of the screen displayed on the augmented reality presentation device 2, which is part of the outline setting screen. FIG. 12 is an example of the coordinate system CR of the real space RS included in the first image data. FIG. 13 is a part of the screen displayed on the augmented reality presentation device 2, which is part of the object display screen. FIG. 14 is an activity diagram showing an example of the flow of information processing executed by the information processing system 1. As shown in FIG.

ここで、ユーザとは、拡張現実提示装置2を使用する者であって、部屋等の一定の空間領域を対象とするAR体験を希望している者であるとする。また、ホストとは、ホスト端末4を使用する者であって、情報処理システム1によって提案されるサービスを利用して、ユーザにAR体験を提供する者であるとする。なお、ユーザとホストとは、同一人物であってもよく、この場合、当該人物は、拡張現実提示装置2を使用する。 Here, the user is a person who uses the augmented reality presentation device 2 and who desires an AR experience targeting a certain spatial area such as a room. Also, a host is a person who uses the host terminal 4 and uses a service proposed by the information processing system 1 to provide the user with an AR experience. Note that the user and the host may be the same person, and in this case, the person uses the augmented reality presentation device 2 .

実空間RSとは、AR体験の対象となる部屋等の一定の空間領域を指す。好ましくは、実空間RSは、建築物の内部空間である。このような態様によれば、ARを用いて、工場や屋内展示場といった場所に設置物を配置した場合のイメージを具体化させることができる。さらに好ましくは、実空間RSは、部屋である。このような態様によれば、ARを用いて、不動産物件の部屋等に家具等を配置した場合のイメージを具体化させることができる。 The real space RS refers to a certain spatial area such as a room for AR experience. Preferably, the real space RS is the interior space of a building. According to such a mode, it is possible to embody the image of the case where the installation object is arranged in a place such as a factory or an indoor exhibition hall by using AR. More preferably, the real space RS is a room. According to such a mode, it is possible to materialize an image when furniture and the like are arranged in a room or the like of a real estate property by using AR.

また、実空間RSに配置し得る物品をオブジェクトOと称する。実空間RSが部屋である場合、オブジェクトOとして、例えば、収納家具、棚類、箪笥、椅子類、寝具、机類等の家具、シーリングライト、フロアライト等の照明器具、空気清浄機、扇風機、エアーコンディショナー、時計等の生活家電、観葉植物、カーペット、ラグ、マット等のフロアマット、カーテン、ブラインド、ロールスクリーン、印刷機、複合機、シュレッダー等の事務機器、パーティション等が挙げられる。 Also, an article that can be placed in the real space RS is called an object O. As shown in FIG. When the real space RS is a room, the objects O include, for example, storage furniture, shelves, chests of drawers, chairs, bedding, furniture such as desks, lighting fixtures such as ceiling lights and floor lights, air purifiers, fans, Examples include air conditioners, household appliances such as clocks, foliage plants, floor mats such as carpets, rugs, and mats, curtains, blinds, roll screens, printers, multifunction machines, office equipment such as shredders, and partitions.

以下、図13のアクティビティ図に沿って、情報処理システム1によって実行される情報処理の流れを説明するものとする。 The flow of information processing executed by the information processing system 1 will be described below with reference to the activity diagram of FIG. 13 .

まず、ホストが、ホスト端末4を用いて、情報処理システム1によって提案されるサービスのURLにブラウザを用いてアクセスする。なお、情報処理システム1によって提案されるサービスは、専用のモバイルアプリケーションにより提供されてもよく、この場合、ホストは、当該アプリケーションを起動する。次いで、ホストは、サービスを一覧表示する不図示のメニュー画面において、実空間RSの概形GDを編集および登録する機能を選択する(アクティビティA001)。 First, the host uses the host terminal 4 to access the URL of the service proposed by the information processing system 1 using a browser. The service proposed by the information processing system 1 may be provided by a dedicated mobile application, in which case the host activates the application. Next, the host selects the function of editing and registering the outline GD of the real space RS on a menu screen (not shown) displaying a list of services (activity A001).

ホストによりメニュー画面(不図示)において実空間RSの概形GDを編集および登録する機能が選択されると、当該選択に係る情報が、ネットワークを介して情報処理装置3に送信される。その後、情報処理装置3において、通信部31が当該情報を受信したあと、制御部33の概形生成画面表示部332が、概形生成画面5(図6参照)をホスト端末4の表示部に表示させるための情報を、通信部31およびネットワークを介してホスト端末4に送信する(アクティビティA001)。 When the host selects the function of editing and registering the outline GD of the real space RS on a menu screen (not shown), information related to the selection is transmitted to the information processing device 3 via the network. After that, in the information processing device 3, after the communication unit 31 receives the information, the outline generation screen display unit 332 of the control unit 33 displays the outline generation screen 5 (see FIG. 6) on the display unit of the host terminal 4. Information to be displayed is transmitted to the host terminal 4 via the communication unit 31 and the network (activity A001).

すなわち、概形生成画面表示部332は、概形生成画面5を表示させるように制御する。ここで、図6に示されるように、概形生成画面5は、複数の格子点LPを含み、各格子点LPを接続することで、実空間RSの概形GDに関する概形データを生成可能に構成される。このような態様によれば、一定の形状を有する部屋等の空間の概形について、簡易な手動操作で概形データを生成することができる(アクティビティA001)。 That is, the outline generation screen display unit 332 controls to display the outline generation screen 5 . Here, as shown in FIG. 6, the outline generation screen 5 includes a plurality of grid points LP, and by connecting each grid point LP, outline data on the outline GD of the real space RS can be generated. configured to According to this aspect, outline data can be generated by a simple manual operation for the outline of a space such as a room having a certain shape (activity A001).

図6に示される概形生成画面5は、例えば、その右側に、複数の格子点LPを有する描画領域と、その左側に、概形生成画面5であることを示すタイトル51、スケールを設定するためのプルダウンメニュー52、描画のリセットを可能とするボタン53、および描画の完了を可能とするボタン54を含む領域とを有する(アクティビティA001)。 The outline generation screen 5 shown in FIG. 6 has, for example, a drawing area having a plurality of grid points LP on its right side, and a title 51 indicating that it is the outline generation screen 5 and a scale on its left side. A pull-down menu 52 for drawing, a button 53 for resetting drawing, and a button 54 for completing drawing (activity A001).

図6の概形生成画面5において、ホストは、まず、事前の採寸等で把握している実空間RSの広さに合わせて、プルダウンメニュー52から、格子点LP同士の間隔として適当な値を選択する。次いで、ホストは、描画領域において、格子点LPをつなぐように始点SPを移動させる操作を行うことによって、描線SLを作成する。続いて、ホストは、描線SLで閉じた領域ができるように、始点SPを終点EPが置かれた格子点LPまで移動させたあと、ボタン54を押下する。このようにしてホストによりボタン54が押下されると、当該一連の操作による入力情報は、ネットワークを介して情報処理装置3に送信され、通信部31が受信する。次いで、制御部33が、当該入力情報に基づいて、実空間RSの概形GDに関する概形データを生成する。(アクティビティA001)。 On the outline generation screen 5 of FIG. 6, the host first selects an appropriate value as the interval between lattice points LP from the pull-down menu 52 in accordance with the size of the real space RS which is grasped by measuring in advance. select. Next, the host creates a drawing line SL by moving the start point SP so as to connect the lattice points LP in the drawing area. Subsequently, the host presses the button 54 after moving the start point SP to the lattice point LP where the end point EP is placed so as to form a closed area with the drawn line SL. When the host presses the button 54 in this way, the input information by the series of operations is transmitted to the information processing device 3 via the network and received by the communication unit 31 . Next, the control unit 33 generates outline data regarding the outline GD of the real space RS based on the input information. (Activity A001).

その後、記憶部32が概形データを少なくとも一時的に記憶する。ここで、管理部336が、概形データを、実空間RSの名称や所在地等の情報と関連づけて、所定の期間管理することが好ましい(アクティビティA001)。 After that, the storage unit 32 stores the outline data at least temporarily. Here, it is preferable that the management unit 336 manages the outline data for a predetermined period in association with information such as the name and location of the real space RS (activity A001).

続いて、ユーザが、拡張現実提示装置2を用いて、情報処理システム1によって提案されるサービスのURLにアクセスするか、または専用のモバイルアプリケーションを起動する。次いで、ユーザは、サービスを一覧表示する不図示のメニュー画面において、概形データの検索機能を選択し、管理部336が管理する、または記憶部32が記憶している複数の概形データの中から、実空間RSの名称や所在地等に基づいて、所望の概形データを検索する。例えば、実空間RSが部屋である場合、ユーザは、建物名、区画番号、部屋番号等を入力することにより、部屋の概形に関する概形データを検索する(アクティビティA002)。 Subsequently, the user uses the augmented reality presentation device 2 to access the URL of the service proposed by the information processing system 1 or launch a dedicated mobile application. Next, the user selects an outline data search function on a menu screen (not shown) displaying a list of services, and selects outline data from a plurality of outline data managed by the management unit 336 or stored in the storage unit 32. , the desired outline data is retrieved based on the name, location, etc. of the real space RS. For example, if the real space RS is a room, the user searches for outline data on the outline of the room by entering the building name, section number, room number, etc. (activity A002).

ユーザは、概形データを選択後、遷移した画面(不図示)において、オブジェクトOの選択および配置場所指定の機能を選択する。ユーザにより当該機能が選択されると、当該選択に係る情報が、ネットワークを介して情報処理装置3に送信される。その後、情報処理装置3において、通信部31が当該情報を受信したあと、制御部33の配置入力画面表示部332が、配置入力画面6(図7参照)を拡張現実提示装置2の表示部24に表示させるための情報を、通信部31およびネットワークを介して拡張現実提示装置2に送信する(アクティビティA002)。 After selecting the outline data, the user selects the function of selecting the object O and specifying the placement location on the transitioned screen (not shown). When the function is selected by the user, information related to the selection is transmitted to the information processing device 3 via the network. After that, in the information processing device 3 , after the communication unit 31 receives the information, the layout input screen display unit 332 of the control unit 33 displays the layout input screen 6 (see FIG. 7 ) on the display unit 24 of the augmented reality presentation device 2 . to the augmented reality presentation device 2 via the communication unit 31 and the network (activity A002).

すなわち、配置入力画面表示部332は、配置入力画面6を表示させるように制御する。ここで、図7および図8に示されるように、配置入力画面6は、実空間RSに配置し得る複数のオブジェクトOの中から少なくとも1つのオブジェクトOを選択可能に構成され、かつ、選択されたオブジェクトOについて、概形データに含まれる概形GDのなす領域上の位置を指定することにより、概形データの座標系での位置を表す位置座標データを生成可能に構成される。このような態様によれば、重畳表示させる家具等の物品の選択と配置場所の指定とを、簡易な手動操作で行うことができる(アクティビティA002)。 That is, the layout input screen display unit 332 controls to display the layout input screen 6 . Here, as shown in FIGS. 7 and 8, the placement input screen 6 is configured so that at least one object O can be selected from among a plurality of objects O that can be placed in the real space RS. Position coordinate data representing the position in the coordinate system of the outline data can be generated by designating the position of the object O on the area formed by the outline GD included in the outline data. According to this aspect, it is possible to select articles such as furniture to be displayed in a superimposed manner and to designate the location of arrangement by a simple manual operation (activity A002).

図7および図8に示される配置入力画面6は、例えば、その右側に、ユーザが選択した概形データに含まれる概形GDが描かれた描画領域と、その左側に、配置入力画面6であることを示すタイトル61、オブジェクトOを概形GDのなす領域上に配置すること可能とするアイコンIO、およびアンカーAを概形GDのなす領域上に配置することを可能とするアイコンIAを含む領域とを有する(アクティビティA002)。 The layout input screen 6 shown in FIGS. 7 and 8 has, for example, a drawing area on the right side thereof in which the outline GD included in the outline data selected by the user is drawn, and a layout input screen 6 on the left side thereof. It includes a title 61 indicating that there is an existing object, an icon IO that allows the object O to be placed on the area formed by the outline GD, and an icon IA that allows the anchor A to be placed on the area formed by the outline GD. area (activity A002).

図7の配置入力画面6において、ユーザは、所望のオブジェクトOに対応するアイコンIOを、描画領域に描かれた概形GDのなす領域上の所望の位置にドラッグ・アンド・ドロップする。次いで、ユーザは、描画領域の下部に表示されるボタンRLまたはボタンRRを押下することにより、オブジェクトOの向きを調整する。なお、図7に示されているように、ボタンRLは、例えば、オブジェクトOを左に45度回転させることを可能とするボタンであり、ボタンRRは、例えば、オブジェクトOを右に45度回転させることを可能とするボタンである。ユーザの当該一連の操作による入力情報は、ネットワークを介して情報処理装置3に送信され、通信部31が受信する。次いで、制御部33が、当該入力情報に基づいて、選択されたオブジェクトOについて、概形データの座標系での位置を表す位置座標データを生成する(アクティビティA002)。 On the layout input screen 6 of FIG. 7, the user drags and drops the icon IO corresponding to the desired object O to the desired position on the area formed by the outline GD drawn in the drawing area. Next, the user adjusts the orientation of the object O by pressing the button RL or button RR displayed at the bottom of the drawing area. Note that, as shown in FIG. 7, the button RL is, for example, a button that enables the object O to rotate 45 degrees to the left, and the button RR, for example, rotates the object O to the right by 45 degrees. It is a button that allows you to Information input by the user through the series of operations is transmitted to the information processing device 3 via the network and received by the communication unit 31 . Next, based on the input information, the control unit 33 generates position coordinate data representing the position of the selected object O in the coordinate system of the outline data (activity A002).

ユーザは、同様にして、全ての所望のオブジェクトOを、概形GDのなす領域上の所望の位置に配置する。これにより、全ての所望のオブジェクトOに対して位置座標データが生成され、記憶部32が位置座標データを少なくとも一時的に記憶する。なお、ユーザは、図7の配置入力画面6において、一旦配置してみたものの削除したいオブジェクトOを、オブジェクトOが選択されたあとに描画領域の下部に表示されるボタンDOにより削除することができる。削除されたオブジェクトOについては、生成された位置座標データも記憶部から削除される(アクティビティA002)。 The user similarly arranges all desired objects O at desired positions on the area formed by the outline GD. Thereby, position coordinate data is generated for all desired objects O, and the storage unit 32 stores the position coordinate data at least temporarily. 7, the user can delete the object O that has been placed once but is desired to be deleted by pressing the button DO displayed at the bottom of the drawing area after the object O is selected. . For the deleted object O, the generated position coordinate data is also deleted from the storage (activity A002).

その後、ユーザは、図7の配置入力画面6において、アンカーAを概形GDのなす領域上に配置することを可能とするアイコンIAに対する操作を行う。詳細には、ユーザは、図7の配置入力画面6において、アイコンIAを、描画領域に描かれた概形GDのなす領域上の適当な位置にドラッグ・アンド・ドロップする。ここで、図8の配置入力画面6に示されるように、ドラッグ・アンド・ドロップ操作によりアンカーAが描画領域に表示されると、アイコンIAが配置入力を完了させるボタンへと切り替わる。ユーザは、アンカーAを適当な位置に配置し終えたあと、当該アイコンIAを押下する。ユーザによる当該操作により、アンカー情報を対応付ける、概形GDのなす領域上の位置が指定され、当該指定に係る情報は、ネットワークを介して情報処理装置3に送信され、通信部31が受信する。次いで、制御部33が、概形GDのなす領域上の指定された位置へのアンカー情報の対応付けを行い、その後、概形GDのなす領域上の指定された位置に対応付けられたアンカー情報は、記憶部32により少なくとも一時的に記憶される(アクティビティA003)。 After that, the user operates the icon IA that enables the placement of the anchor A on the area formed by the outline GD on the placement input screen 6 of FIG. Specifically, the user drags and drops the icon IA to an appropriate position on the area formed by the general shape GD drawn in the drawing area on the layout input screen 6 of FIG. Here, as shown in the layout input screen 6 of FIG. 8, when the anchor A is displayed in the drawing area by the drag-and-drop operation, the icon IA switches to a button for completing the layout input. After placing the anchor A at an appropriate position, the user presses the icon IA. By the operation by the user, a position on the area formed by the general shape GD to be associated with the anchor information is designated, and information related to the designation is transmitted to the information processing device 3 via the network and received by the communication unit 31 . Next, the control unit 33 associates the anchor information with the specified position on the area formed by the general shape GD, and then the anchor information associated with the specified position on the area formed by the general shape GD. is stored at least temporarily by the storage unit 32 (activity A003).

すなわち、配置入力画面6は、アンカー情報を対応付ける、概形データに含まれる概形GDのなす領域上の位置を指定可能に構成される。このような態様によれば、アンカーとするのに適した場所を、簡易な手動操作で指定することができる。なお、アンカーとするのに適した場所とは、実空間RSが部屋である場合、例えば、部屋の隅にあたる概形GDの角部分である(アクティビティA003)。 In other words, the layout input screen 6 is configured so that the position on the area formed by the general shape GD included in the general shape data, which is associated with the anchor information, can be designated. According to such an aspect, it is possible to designate a place suitable as an anchor by a simple manual operation. If the real space RS is a room, the place suitable for anchoring is, for example, the corner of the general shape GD corresponding to the corner of the room (activity A003).

図8の配置入力画面6において、ユーザにより配置入力の完了を可能とするアイコンIAが押下されると、拡張現実提示装置2の撮像部が起動され、実空間RSを撮像した第1の画像データが、ネットワークを介して情報処理装置3に送信される。その後、情報処理装置3において、通信部31が、拡張現実提示装置2から送信された第1の画像データを受信し、受付部331が、実空間RSを撮像した第1の画像データを受け付ける(アクティビティA004)。 On the layout input screen 6 of FIG. 8, when the user presses the icon IA that enables the completion of layout input, the imaging unit of the augmented reality presentation device 2 is activated, and the first image data obtained by imaging the real space RS. is transmitted to the information processing device 3 via the network. After that, in the information processing device 3, the communication unit 31 receives the first image data transmitted from the augmented reality presentation device 2, and the reception unit 331 receives the first image data obtained by imaging the real space RS ( Activity A004).

次いで、取得部334が、記憶部32から、実空間RSの概形GDに関する概形データを取得する。さらに、取得部334は、記憶部32から、概形データに対して設定されたアンカーAに関するアンカー情報を取得する。好ましくは、取得部334は、記憶部32から、概形GDのなす領域上の指定された位置に対応付けられたアンカー情報を取得する。続いて、第1の画像データおよびアンカー情報に基づいて、アンカー設定画面表示部332は、アンカー設定画面(図10参照)を拡張現実提示装置2の表示部24に表示させるための情報を生成し、通信部31およびネットワークを介して拡張現実提示装置2に送信する(アクティビティA005)。 Next, the acquisition unit 334 acquires outline data on the outline GD of the real space RS from the storage unit 32 . Furthermore, the acquisition unit 334 acquires anchor information about the anchor A set for the outline data from the storage unit 32 . Preferably, the acquisition unit 334 acquires the anchor information associated with the specified position on the area formed by the outline GD from the storage unit 32 . Subsequently, based on the first image data and the anchor information, the anchor setting screen display unit 332 generates information for displaying the anchor setting screen (see FIG. 10) on the display unit 24 of the augmented reality presentation device 2. , to the augmented reality presentation device 2 via the communication unit 31 and the network (activity A005).

すなわち、アンカー設定画面表示部332は、アンカー設定画面を表示させるように制御する。ここで、図10に示されるように、アンカー設定画面は、第1の画像データに重畳表示されるアンカーAを含み、かつ、アンカー情報を対応付ける実空間RSの位置を指定可能に構成される(アクティビティA005)。 That is, the anchor setting screen display unit 332 controls to display the anchor setting screen. Here, as shown in FIG. 10, the anchor setting screen includes the anchor A superimposed and displayed on the first image data, and is configured so that the position of the real space RS associated with the anchor information can be designated ( Activity A005).

図10にその一部が示されているアンカー設定画面は、例えば、実空間RSの画像と、アンカーAと、アンカー情報を対応付ける実空間RSの位置を指定可能とするボタンBAとを含む(アクティビティA005)。 The anchor setting screen, a part of which is shown in FIG. 10, includes, for example, an image of the real space RS, an anchor A, and a button BA that enables specification of the position of the real space RS with which the anchor information is associated (activity A005).

ユーザは、表示部24にアンカー設定画面(図10参照)が表示されたあと、拡張現実提示装置2を所持または装着しながら実空間RS内を移動すること等により、拡張現実提示装置2の撮像部26が撮像する範囲を調整し、表示部24に表示されているアンカー設定画面(図10参照)において、配置入力画面6にてアンカーAを配置した概形GDのなす領域上の位置に対応する実空間RSの位置に、アンカーAを表示させる。ユーザは、アンカーAが適当な位置に表示されていることを確認したあと、アンカーAを押下する。ユーザによる当該操作により、アンカー情報を対応付ける実空間RSの位置が指定され、当該指定に係る情報が、ネットワークを介して情報処理装置3に送信され、記憶部32により少なくとも一時的に記憶される(アクティビティA005)。 After the anchor setting screen (see FIG. 10) is displayed on the display unit 24, the user moves in the real space RS while holding or wearing the augmented reality presentation device 2, thereby capturing an image of the augmented reality presentation device 2. Adjust the range to be imaged by the unit 26, and on the anchor setting screen (see FIG. 10) displayed on the display unit 24, correspond to the position on the area formed by the general shape GD where the anchor A is placed on the placement input screen 6 Anchor A is displayed at the position of the real space RS. The user presses anchor A after confirming that anchor A is displayed at an appropriate position. By the operation by the user, the position of the real space RS associated with the anchor information is designated, the information related to the designation is transmitted to the information processing device 3 via the network, and is stored at least temporarily by the storage unit 32 ( Activity A005).

続いて、制御部33が、概形設定画面(図11参照)を拡張現実提示装置2の表示部24に表示させるための情報を、通信部31およびネットワークを介して拡張現実提示装置2に送信する。ここで、図11に示されるように、概形設定画面は、実空間RSの画像と、概形GDと、概形GDの向きの調整を可能とするスライダーバーSBおよびスライダーSSと、概形GDの向きの調整を完了させることを可能とするボタンBGとを含む。また、概形設定画面(図11参照)は、アンカー情報が対応付けられた概形GDのなす領域上の点を、アンカー情報が対応付けられた実空間RSの位置に固定した状態で、概形GDの向きを変更可能とするように構成される(アクティビティA006)。 Subsequently, the control unit 33 transmits information for displaying the outline setting screen (see FIG. 11) on the display unit 24 of the augmented reality presentation device 2 to the augmented reality presentation device 2 via the communication unit 31 and the network. do. Here, as shown in FIG. 11, the outline setting screen includes the image of the real space RS, the outline GD, the slider bar SB and slider SS that enable adjustment of the orientation of the outline GD, and the outline and a button BG that allows the orientation adjustment of GD to be completed. In addition, the outline setting screen (see FIG. 11) is a state in which the points on the area formed by the outline GD associated with the anchor information are fixed at the positions of the real space RS associated with the anchor information. It is constructed so that the orientation of the shape GD can be changed (activity A006).

ユーザは、表示部24に概形設定画面(図11参照)が表示されたあと、スライダーバーSB上でスライダーSSを左右に移動させることにより、概形設定画面(図11参照)に表示されている概形GDの向きを調整し、実空間RSの形状に概形GDを合わせる。なお、スライダーSSの移動は、所持している拡張現実提示装置2を傾ける動作や、装着しているARグラス等の拡張現実提示装置2により部屋(実空間RS)の床の画像に重畳表示されるスライダーSSに対する手の動作等により可能となる。ユーザは、概形GDが実空間RSの形状に合っていることを確認したあと、ボタンBGを押下する。ユーザによる当該操作により、位置合わせの実行を要求する信号が、ネットワークを介して情報処理装置3に送信される(アクティビティA006)。 After the outline setting screen (see FIG. 11) is displayed on the display unit 24, the user moves the slider SS left and right on the slider bar SB to display the outline setting screen (see FIG. 11). Adjust the orientation of the outline GD in which the outline GD is present, and match the outline GD with the shape of the real space RS. Note that the movement of the slider SS is performed by tilting the augmented reality presentation device 2 that the user has, or by the augmented reality presentation device 2 such as the AR glasses worn by the user, and the image of the floor of the room (real space RS) is superimposed and displayed. It becomes possible by the movement of the hand or the like with respect to the slider SS. After confirming that the outline GD matches the shape of the real space RS, the user presses the button BG. By this operation by the user, a signal requesting execution of alignment is sent to the information processing device 3 via the network (activity A006).

その後、情報処理装置3において、通信部31が、拡張現実提示装置2から送信された位置合わせの実行を要求する信号を受信し、位置合わせ部335が、概形データの座標系CGと、第1の画像データに含まれる実空間RSの座標系CRとを対応付ける。好ましくは、位置合わせ部335は、指定された実空間RSの位置に、アンカー情報を対応付けることによって、概形データの座標系CGと、実空間RSの座標系CRとを対応付ける。このような態様によれば、概形データの座標系CGと、実空間RSの座標系CRとにおいて、アンカーを共通の原点とすることにより、2つの座標系を精度良く対応付けることができる(アクティビティA006)。 After that, in the information processing device 3, the communication unit 31 receives the signal requesting execution of alignment transmitted from the augmented reality presentation device 2, and the alignment unit 335 transmits the coordinate system CG of the outline data and the It is associated with the coordinate system CR of the real space RS included in one image data. Preferably, the alignment unit 335 associates the coordinate system CG of the outline data with the coordinate system CR of the real space RS by associating anchor information with the specified position of the real space RS. According to this aspect, by setting the anchor as a common origin in the coordinate system CG of the outline data and the coordinate system CR of the real space RS, the two coordinate systems can be associated with high accuracy (activity A006).

ここで、位置合わせ部335が実行する位置合わせについて、図9および図12を参照しながら、具体例を挙げて説明することとする。図9に示されるように、概形データの座標系CGは、例えば、アンカーAを原点とし、座標軸としてx軸XGおよびy軸YGを有するXY座標系である。位置合わせ部335は、アクティビティA005において指定された実空間RSの位置にアンカー情報を対応付けることによって、当該位置を実空間RSの座標系CRの原点とするとともに、概形GDの向きに基づいてx軸XRおよびy軸YGを設定する。このようにして得られる実空間RSの座標系CRが、図12に示される座標系である(アクティビティA006)。 Here, the alignment performed by the alignment unit 335 will be described with a specific example with reference to FIGS. 9 and 12. FIG. As shown in FIG. 9, the coordinate system CG of outline data is, for example, an XY coordinate system having an anchor A as an origin and an x-axis XG and a y-axis YG as coordinate axes. By associating anchor information with the position of the real space RS specified in activity A005, the positioning unit 335 sets the position as the origin of the coordinate system CR of the real space RS, and sets the x Set the axis XR and the y-axis YG. The coordinate system CR of the real space RS thus obtained is the coordinate system shown in FIG. 12 (activity A006).

さらに、一つの点を例に挙げて、概形データの座標系CGと、実空間RSの座標系CRとの対応関係について説明することとする。また、ここで、説明の都合上、概形データに含まれる格子点LP同士の間隔は、1mであるとする。図9に示される概形データの座標系CGにおいて、概形GDのなす領域上の一点として、点P1が示されている。点P1は、図9の概形データの座標系CGにおいて、x座標が1m、y座標が1mである。これに対応して、点P1の実空間RSの座標系CRでの位置は、図12に示されるように、原点である部屋(実空間RS)の隅から、x軸XR方向に1m、y軸YR方向に1m離れた位置となる(アクティビティA006)。 Furthermore, taking one point as an example, the correspondence between the coordinate system CG of outline data and the coordinate system CR of real space RS will be described. For convenience of explanation, it is assumed here that the interval between lattice points LP included in the outline data is 1 m. In the coordinate system CG of the outline data shown in FIG. 9, a point P1 is shown as one point on the area formed by the outline GD. The point P1 has an x coordinate of 1 m and a y coordinate of 1 m in the coordinate system CG of the outline data in FIG. Correspondingly, as shown in FIG. 12, the position of the point P1 in the real space RS in the coordinate system CR is 1 m, y The position is 1 m away in the direction of the YR axis (activity A006).

以上で説明したように位置合わせが実行されたあと、取得部334が、記憶部32から、実空間RSに配置し得るオブジェクトOに関するオブジェクト情報を取得する。好ましくは、取得部334は、記憶部32から、アクティビティA002においてユーザにより選択されたオブジェクトOのオブジェクト情報を取得する。ここで、オブジェクト情報は、描画データと、概形データの座標系CGでの位置を表す位置座標データとを含む。なお、描画データは、オブジェクトOの3次元形状データを含み、色彩、模様およびテクスチャのデータを含むことが好ましい。また、位置座標データは、好ましくは、アクティビティA002において生成された位置座標データである(アクティビティA007)。 After the alignment is executed as described above, the acquisition unit 334 acquires object information about the object O that can be arranged in the real space RS from the storage unit 32 . Preferably, the acquisition unit 334 acquires the object information of the object O selected by the user in the activity A002 from the storage unit 32 . Here, the object information includes drawing data and position coordinate data representing the position of the outline data in the coordinate system CG. The drawing data preferably includes three-dimensional shape data of the object O, and preferably includes color, pattern and texture data. Also, the position coordinate data is preferably position coordinate data generated in activity A002 (activity A007).

続いて、オブジェクト表示画面表示部332は、第1の画像データと、オブジェクト情報と、概形データの座標系CGに対応付けられた実空間RSの座標系CRと基づいて、オブジェクト表示画面(図13参照)を拡張現実提示装置2の表示部24に表示させるための情報を生成し、通信部31およびネットワークを介して拡張現実提示装置2に送信する(アクティビティA007)。 Subsequently, the object display screen display unit 332 displays the object display screen (Fig. 13) is generated on the display unit 24 of the augmented reality presentation device 2, and is transmitted to the augmented reality presentation device 2 via the communication unit 31 and the network (activity A007).

すなわち、オブジェクト表示画面表示部332は、オブジェクト表示画面を表示させるように制御する。ここで、図13に示されるように、オブジェクト表示画面は、オブジェクト情報と、概形データの座標系CGに対応付けられた実空間RSの座標系CRとに基づいて、第1の画像データにオブジェクトOを重畳表示させた画面である。このような態様によれば、家具等の物品のデジタル情報を、所望の位置により精度よく重畳表示することができる(アクティビティA007)。 That is, the object display screen display unit 332 controls to display the object display screen. Here, as shown in FIG. 13, the object display screen is displayed on the first image data based on the object information and the coordinate system CR of the real space RS associated with the coordinate system CG of the outline data. This is a screen on which an object O is superimposed. According to this aspect, it is possible to superimpose and display the digital information of an article such as furniture at a desired position with high accuracy (activity A007).

図13にその一部が示されているオブジェクト表示画面は、例えば、実空間RSの画像と、概形GDと、立体的に表示されるオブジェクトOとを含む。なお、オブジェクト表示画面は、オブジェクトOの配置変更、回転、削除および追加が可能に構成されることが好ましい。(アクティビティA007)。 The object display screen, a part of which is shown in FIG. 13, includes, for example, an image of the real space RS, a general shape GD, and an object O that is stereoscopically displayed. It is preferable that the object display screen be configured so that the object O can be rearranged, rotated, deleted, and added. (Activity A007).

以上をまとめると、本実施形態の情報処理方法は、取得ステップと、受付ステップと、位置合わせステップとを備える。受付ステップでは、実空間RSを撮像した第1の画像データを受け付ける。取得ステップでは、実空間RSの概形GDに関する概形データを取得する。位置合わせステップでは、概形データの座標系CGと、第1の画像データに含まれる実空間RSの座標系CRとを対応付ける。 In summary, the information processing method of this embodiment includes an acquisition step, a reception step, and an alignment step. The receiving step receives first image data obtained by imaging the real space RS. The acquisition step acquires outline data on the outline GD of the real space RS. In the alignment step, the coordinate system CG of the outline data and the coordinate system CR of the real space RS included in the first image data are associated.

本実施形態によれば、拡張現実(Augmented Reality:AR)を用いて、部屋等の一定の空間領域に対し、家具等の物品のデジタル情報をより精度よく重ね合わせて表示することが可能になる。 According to the present embodiment, it is possible to superimpose and display digital information of articles such as furniture in a certain spatial area such as a room by using augmented reality (AR). .

4.第2の実施形態
本節では、第2の実施形態(以下、本実施形態と称する)に係る情報処理装置3について説明する。ただし、第1の実施形態に係る情報処理システム1と略同様の構成や機能については、その説明を省略する。
4. Second Embodiment In this section, an information processing apparatus 3 according to a second embodiment (hereinafter referred to as the present embodiment) will be described. However, descriptions of configurations and functions that are substantially the same as those of the information processing system 1 according to the first embodiment will be omitted.

本実施形態に係る情報処理装置3は、次の各部を備える。受付部331は、部屋の概形GDに関する概形データに対する配置情報に関する入力を第1のユーザから受け付ける。配置情報は、部屋に配置するオブジェクトOの種類に関する情報と、オブジェクトOの配置場所に関する座標情報とを含む。画面表示部332は、配置情報をネットワークを介して拡張現実提示装置2に送信することで、実空間RSである部屋に仮想情報であるオブジェクトOを重畳表示させた画面を拡張現実提示装置2に表示させる。拡張現実提示装置2は、部屋に位置する第2のユーザの端末である。以下では、本実施形態に係る情報処理装置3によって実行される情報処理の流れを説明するものとする。 The information processing device 3 according to this embodiment includes the following units. The reception unit 331 receives input from the first user regarding the layout information for the general shape data regarding the general shape GD of the room. The placement information includes information about the type of object O placed in the room and coordinate information about the place where the object O is placed. The screen display unit 332 transmits the layout information to the augmented reality presentation device 2 via the network, thereby displaying a screen in which the object O as virtual information is superimposed on the room as the real space RS to the augmented reality presentation device 2. display. The augmented reality presentation device 2 is the second user's terminal located in the room. The flow of information processing executed by the information processing apparatus 3 according to this embodiment will be described below.

ここで、第1のユーザとは、例えば、不動産仲介担当者であり、第2のユーザとは、例えば、内見者である。また、第1のユーザと第2のユーザとは、同一人物であってもよい。 Here, the first user is, for example, a real estate agent, and the second user is, for example, an insider. Also, the first user and the second user may be the same person.

第1のユーザは、上記のアクティビティA002と同様にして、配置入力画面6(図8参照)において、実空間RSである部屋に配置し得る複数のオブジェクトOの中から少なくとも1つのオブジェクトOを選択し、選択したオブジェクトOについて、部屋の概形GDのなす領域上の位置を指定する。第1のユーザの当該操作による入力情報は、ネットワークを介して情報処理装置3に送信され、通信部31が受信したあと、受付部331が受け付ける。 The first user selects at least one object O from a plurality of objects O that can be placed in the room that is the real space RS on the placement input screen 6 (see FIG. 8) in the same manner as in activity A002 described above. and specify the position of the selected object O on the area formed by the general shape GD of the room. The information input by the operation by the first user is transmitted to the information processing device 3 via the network, received by the communication unit 31 , and then accepted by the reception unit 331 .

次いで、制御部33が、当該入力情報に基づいて、選択されたオブジェクトOの種類に関する情報と、選択されたオブジェクトOの配置場所に関する座標情報とを生成する。すなわち、制御部33により配置情報が生成される。続いて、画面表示部332は、配置情報をネットワークを介して、部屋に実際にいる第2のユーザが所持する拡張現実提示装置2に送信する。次いで、拡張現実提示装置2において、通信部21が配置情報を受信したあと、制御部23が、配置情報と、記憶部22に記憶されたオブジェクトOの描画データとに基づいて、撮像部26が撮像した部屋の画像に、仮想情報であるオブジェクトOを重畳表示させた画面を表示部24に表示させるように制御する。 Next, the control unit 33 generates information about the type of the selected object O and coordinate information about the location of the selected object O based on the input information. That is, the control unit 33 generates arrangement information. Subsequently, the screen display unit 332 transmits the arrangement information to the augmented reality presentation device 2 possessed by the second user who is actually in the room via the network. Next, in the augmented reality presentation device 2, after the communication unit 21 receives the placement information, the control unit 23 causes the imaging unit 26 to Control is performed so that the display unit 24 displays a screen in which an object O, which is virtual information, is superimposed on the captured image of the room.

本実施形態によれば、内見等の目的で実際に不動産物件を訪れた顧客に、バーチャルモデルルームとして、従来の内見だけではイメージしにくい実際の生活の疑似体験を提供することができる。 According to the present embodiment, it is possible to provide a virtual model room to a customer who has actually visited a real estate property for the purpose of previewing, etc., and to provide a simulated experience of actual life that is difficult to imagine from a conventional preview alone.

5.第3の実施形態
本節では、第3の実施形態(以下、本実施形態と称する)に係る拡張現実提示装置2について説明する。ただし、第1の実施形態に係る情報処理システム1および第2の実施形態に係る情報処理装置3と略同様の構成や機能については、その説明を省略する。
5. Third Embodiment In this section, an augmented reality presentation device 2 according to a third embodiment (hereinafter referred to as this embodiment) will be described. However, descriptions of configurations and functions substantially similar to those of the information processing system 1 according to the first embodiment and the information processing apparatus 3 according to the second embodiment will be omitted.

本実施形態に係る拡張現実提示装置2は、次の各部を備える。取得部231は、ネットワークを介して情報処理装置3から配置情報を取得する。配置情報は、部屋の概形GDに関する概形データに対して設定された、部屋に配置するオブジェクトOの種類に関する情報と、オブジェクトOの配置場所に関する座標情報とを含む。管理部232は、部屋に配置し得る複数のオブジェクトOに関する描画データを管理する。表示処理部233は、取得した配置情報と、描画データとに基づいて、実空間RSである部屋に仮想情報であるオブジェクトOを重畳表示させる。以下では、本実施形態に係る拡張現実提示装置2によって実行される情報処理の流れを説明するものとする。 The augmented reality presentation device 2 according to this embodiment includes the following units. The acquisition unit 231 acquires the arrangement information from the information processing device 3 via the network. The placement information includes information about the type of object O to be placed in the room and coordinate information about the placement location of the object O, which is set for outline data about the outline GD of the room. The management unit 232 manages drawing data regarding a plurality of objects O that can be arranged in a room. The display processing unit 233 superimposes the object O, which is virtual information, on the room, which is the real space RS, based on the acquired layout information and drawing data. The flow of information processing executed by the augmented reality presentation device 2 according to this embodiment will be described below.

配置情報は、上記の第2の実施形態で説明したように、配置入力画面6(図8参照)における操作を介して情報処理装置3の制御部33において生成される。当該配置情報を、拡張現実提示装置2の取得部231が、ネットワークを介して情報処理装置3から取得する。 The layout information is generated in the control unit 33 of the information processing device 3 through an operation on the layout input screen 6 (see FIG. 8), as described in the second embodiment. The acquisition unit 231 of the augmented reality presentation device 2 acquires the arrangement information from the information processing device 3 via the network.

次いで、表示処理部233が、取得した配置情報と、管理部232が管理する描画データとに基づいて、撮像部26が撮像した部屋の画像に、仮想情報であるオブジェクトOを重畳表示させた画面を表示部24に表示させるように制御する。 Next, the display processing unit 233 displays an object O as virtual information superimposed on the image of the room captured by the imaging unit 26 based on the acquired layout information and the drawing data managed by the management unit 232. is displayed on the display unit 24 .

なお、管理部232が管理する描画データは、上記の第1の実施形態で説明したように、オブジェクトOの3次元形状データを含み、色彩、模様およびテクスチャのデータを含むことが好ましい。また、管理部232は、オブジェクトOの名称や品番等の種類に関する情報と、オブジェクトOの描画データとを関連付けて管理する。 Note that the drawing data managed by the management unit 232 preferably includes the three-dimensional shape data of the object O, and preferably includes color, pattern, and texture data, as described in the first embodiment. In addition, the management unit 232 manages the information related to the type of the object O, such as the name and product number, and the drawing data of the object O in association with each other.

本実施形態によれば、内見等の目的で実際に不動産物件を訪れた顧客に、バーチャルモデルルームとして、従来の内見だけではイメージしにくい実際の生活の疑似体験を提供することができる。 According to the present embodiment, it is possible to provide a virtual model room to a customer who has actually visited a real estate property for the purpose of previewing, etc., and to provide a simulated experience of actual life that is difficult to imagine from a conventional preview alone.

5.その他
情報処理システム1に関して、以下のような態様を採用してもよい。
5. Others Regarding the information processing system 1, the following aspects may be adopted.

本実施形態の態様は、プログラムであってもよい。このプログラムは、コンピュータに、情報処理システム1の各ステップを実行させる。 An aspect of this embodiment may be a program. This program causes the computer to execute each step of the information processing system 1 .

第1の実施形態のアクティビティA001において、ホスト端末4に概形生成画面5(図6参照)を表示させたが、拡張現実提示装置2に概形生成画面5(図6参照)を表示させ、ユーザに概形GDの生成に係る操作を実行させてもよい。 In the activity A001 of the first embodiment, the outline generation screen 5 (see FIG. 6) is displayed on the host terminal 4, but the augmented reality presentation device 2 is caused to display the outline generation screen 5 (see FIG. 6), The user may be made to perform an operation related to the generation of the outline GD.

第1の実施形態において、アクティビティA001をホストが実行し、アクティビティA002~アクティビティA007をユーザが実行することとして説明したが、アクティビティA001~アクティビティA003をホストがホスト端末4を使用して実行し、アクティビティA004~アクティビティA007をユーザが拡張現実提示装置2を使用して実行してもよい。このような態様によれば、ホストである不動産仲介担当者等が、アクティビティA001~アクティビティA003を経て予め2次元でモデルルーム(図8参照)を作成することによって、内見に来たユーザにバーチャルモデルルーム(図13参照)を体験させる準備を予め行うことができる。 In the first embodiment, activity A001 is executed by the host, and activities A002 to A007 are executed by the user. A004 to activity A007 may be executed by the user using the augmented reality presentation device 2 . According to this aspect, the real estate broker who is the host or the like creates a two-dimensional model room (see FIG. 8) in advance through activities A001 to A003 so that users who come to see the room can see a virtual room. Preparations can be made in advance to experience the model room (see FIG. 13).

第1の実施形態のアクティビティA001において、予め登録されている基本的な概形GDの中から、ホストまたはユーザが概形GDを選択することにより、概形データが生成されてもよい。実空間RSが部屋である場合、基本的な概形GDとは、例えば、長方形、L字型、T字型、カーブ型、Z字型、長方形から角が切り取られたカット型等である。さらに、基本的な概形GDを選択後、概形生成画面5(図6参照)等の画面において、実空間RSの形状により合致するように概形GDを調整できることが好ましい。 In the activity A001 of the first embodiment, outline data may be generated by the host or the user selecting an outline GD from basic outline GDs registered in advance. When the real space RS is a room, the basic general shape GD is, for example, a rectangle, an L shape, a T shape, a curve shape, a Z shape, a cut shape obtained by cutting corners from a rectangle, and the like. Furthermore, after selecting the basic outline GD, it is preferable to be able to adjust the outline GD on a screen such as the outline generation screen 5 (see FIG. 6) so as to better match the shape of the real space RS.

概形生成部333が、実空間RSの概形GDが把握可能である第2の画像データから概形データを生成してもよい。例えば、実空間RSを360度カメラで撮像した第2の画像データを利用し、概形データを生成してもよい。このような態様によれば、一定の形状を有する部屋等の空間の概形データを自動的に生成することできる。なお、生成される概形データは、3次元データであってもよい。 The outline generator 333 may generate outline data from the second image data from which the outline GD of the real space RS can be grasped. For example, outline data may be generated using second image data obtained by imaging the real space RS with a 360-degree camera. According to this aspect, it is possible to automatically generate outline data of a space such as a room having a certain shape. Note that the generated outline data may be three-dimensional data.

概形データは、CADデータであってもよい。実空間RSが部屋である場合、例えば、間取り図のCADデータを概形データとして利用してもよい。また、概形データとするCADデータは、3次元CADデータであってもよく、2次元CADデータから、3次元データとして概形データを生成してもよい。 The outline data may be CAD data. When the real space RS is a room, for example, CAD data of a floor plan may be used as outline data. CAD data used as outline data may be three-dimensional CAD data, or outline data may be generated as three-dimensional data from two-dimensional CAD data.

概形データが3次元データである場合、第1の実施形態のアクティビティA002において、3次元で表された概形GDのなす空間上に、3次元で表されたオブジェクトOを配置する入力操作を行うことにより、オブジェクトOに対して、3次元座標系の位置座標データが生成されることが好ましい。 When the outline data is three-dimensional data, in the activity A002 of the first embodiment, an input operation of arranging the three-dimensionally represented object O in the space formed by the three-dimensionally represented outline GD is performed. It is preferable that the position coordinate data of the three-dimensional coordinate system is generated for the object O by performing the above.

第1の実施形態のアクティビティA002において、ユーザの操作によらず、制御部33により自動的に、所定のオブジェクトOに対し、概形データに含まれる概形GDのなす領域上の適当な位置が指定されてもよい。ここで、所定のオブジェクトOに対し指定される適当な位置は、機械学習により、概形GDに合わせて最適化されていることが好ましい。 In the activity A002 of the first embodiment, the appropriate position on the area formed by the general shape GD included in the general shape data is automatically determined by the control unit 33 without user operation. May be specified. Here, it is preferable that the appropriate position designated for the predetermined object O is optimized according to the general shape GD by machine learning.

第1の実施形態のアクティビティA003において、アンカー情報を対応付ける、概形データに含まれる概形GDのなす領域上の位置は、ユーザの操作によらず、制御部33により自動的に指定されてもよい。例えば、図8の配置入力画面6に示されているように、概形GDの左隅が、アンカー情報を対応付ける位置として自動的に指定されてもよい。 In the activity A003 of the first embodiment, the position on the area formed by the general shape GD included in the general shape data, which is associated with the anchor information, may be automatically specified by the control unit 33 regardless of the user's operation. good. For example, as shown in the placement input screen 6 of FIG. 8, the left corner of the general shape GD may be automatically designated as the position associated with the anchor information.

第1の実施形態にアクティビティA002とA003とは、情報処理の流れとして、その順番が逆であってもよい。すなわち、アンカー情報を対応付ける、概形データに含まれる概形GDのなす領域上の位置を指定したあと、実空間RSに配置するオブジェクトOを選択し、選択したオブジェクトOについて、概形GDのなす領域上の位置を指定することが可能であってもよい。 The order of the activities A002 and A003 in the first embodiment may be reversed as a flow of information processing. That is, after specifying the position on the area formed by the outline GD included in the outline data to be associated with the anchor information, the object O to be placed in the real space RS is selected, and the selected object O is placed in the outline GD. It may be possible to specify a position on the region.

オブジェクトOの描画データは、外部装置に記憶されたデータベースから取得してもよい。ここで、外部装置に記憶されたデータベースは、サービス提供者が有するデータベースに限らず、オブジェクトOの販売者等が有する外部のデータベースであってもよい。 The drawing data of object O may be obtained from a database stored in an external device. Here, the database stored in the external device is not limited to the database owned by the service provider, and may be an external database owned by the seller of the object O or the like.

第1の実施形態のアクティビティA007において拡張現実提示装置2の表示部24に表示されるオブジェクト表示画面は、実空間RSにいるユーザ以外の者が所持する拡張現実提示装置2に表示させることが可能であってもよい。例えば、実空間RSが部屋である場合、ホストでありユーザでもある不動産仲介担当者がアクティビティA001~アクティビティA007を経て自身の拡張現実提示装置2にオブジェクト表示画面を表示させたあと、部屋の内見者が所持する拡張現実提示装置2にオブジェクト表示画面を表示させることが可能であってもよい。ここで、部屋の内見者は、複数人であってもよい。このような態様によれば、不動産仲介担当者等が、アクティビティA001~アクティビティA003を経て予め2次元で作成したモデルルーム(図8参照)を利用して、内見に来た者に瞬時にバーチャルモデルルーム(図13参照)を体験させることができる。 The object display screen displayed on the display unit 24 of the augmented reality presentation device 2 in the activity A007 of the first embodiment can be displayed on the augmented reality presentation device 2 possessed by a person other than the user in the real space RS. may be For example, when the real space RS is a room, the real estate agent who is both the host and the user causes his/her augmented reality presentation device 2 to display the object display screen through activities A001 to A007, and then previews the room. The object display screen may be displayed on the augmented reality presentation device 2 possessed by the person. Here, there may be a plurality of people viewing the room. According to this aspect, the person in charge of real estate brokerage or the like uses a two-dimensional model room (see FIG. 8) created in advance through activities A001 to A003 to instantaneously give virtual A model room (see FIG. 13) can be experienced.

次に記載の各態様で提供されてもよい。
前記情報処理システムにおいて、次のステップをさらに実行するように構成され、概形生成ステップでは、前記実空間の前記概形が把握可能である第2の画像データから前記概形データを生成する、もの。
前記情報処理システムにおいて、次のステップをさらに実行するように構成され、概形生成画面表示ステップでは、概形生成画面を表示させるように制御し、ここで、前記概形生成画面は、複数の格子点を含み、各格子点を接続することで、前記概形データを生成可能に構成される、もの。
前記情報処理システムにおいて、次の各ステップをさらに実行するように構成され、前記取得ステップでは、前記概形データに対して設定されたアンカーに関するアンカー情報をさらに取得し、アンカー設定画面表示ステップでは、アンカー設定画面を表示させるように制御し、ここで、前記アンカー設定画面は、前記第1の画像データに重畳表示される前記アンカーを含み、かつ、前記アンカー情報を対応付ける前記実空間の位置を指定可能に構成され、前記位置合わせステップでは、指定された前記実空間の位置に、前記アンカー情報を対応付けることによって、前記概形データの座標系と、前記実空間の座標系とを対応付ける、もの。
前記情報処理システムにおいて、次の各ステップをさらに実行するように構成され、配置入力画面表示ステップでは、配置入力画面を表示させるように制御し、ここで、前記配置入力画面は、前記アンカー情報を対応付ける、前記概形データに含まれる前記概形のなす領域上の位置を指定可能に構成され、前記取得ステップでは、前記概形のなす領域上の指定された位置に対応付けられた前記アンカー情報を取得する、もの。
前記情報処理システムにおいて、次の各ステップをさらに実行するように構成され、前記取得ステップでは、前記実空間に配置し得るオブジェクトに関するオブジェクト情報をさらに取得し、ここで、前記オブジェクト情報は、描画データと、前記概形データの座標系での位置を表す位置座標データとを含み、オブジェクト表示画面表示ステップでは、オブジェクト表示画面を表示させるように制御し、ここで、前記オブジェクト表示画面は、前記オブジェクト情報と、前記概形データの座標系に対応付けられた前記実空間の座標系とに基づいて、前記第1の画像データに前記オブジェクトを重畳表示させた画面である、もの。
前記情報処理システムにおいて、次のステップをさらに実行するように構成され、配置入力画面表示ステップでは、配置入力画面を表示させるように制御し、ここで、前記配置入力画面は、前記実空間に配置し得る複数のオブジェクトの中から少なくとも1つのオブジェクトを選択可能に構成され、かつ、選択された前記オブジェクトについて、前記概形データに含まれる前記概形のなす領域上の位置を指定することにより、前記位置座標データを生成可能に構成され、前記取得ステップでは、選択された前記オブジェクトの前記オブジェクト情報を取得する、もの。
前記情報処理システムにおいて、前記実空間は、建築物の内部空間である、もの。
前記情報処理システムにおいて、前記実空間は、部屋である、もの。
前記情報処理システムにおいて、前記概形データは、3次元データである、もの。
情報処理方法であって、前記情報処理システムの各ステップを備える、方法。
プログラムであって、コンピュータに、前記情報処理システムの各ステップを実行させる、もの。
情報処理装置であって、次の各ステップを実行するように構成され、受付ステップでは、部屋の概形に関する概形データに対する配置情報に関する入力を第1のユーザから受け付け、ここで前記配置情報は、前記部屋に配置するオブジェクトの種類に関する情報と、前記オブジェクトの配置場所に関する座標情報とを含み、画面表示ステップでは、前記配置情報をネットワークを介して拡張現実提示装置に送信することで、実空間である前記部屋に仮想情報である前記オブジェクトを重畳表示させた画面を前記拡張現実提示装置に表示させ、ここで、前記拡張現実提示装置は、前記部屋に位置する第2のユーザの端末である、もの。
拡張現実提示装置であって、次の各ステップを実行するように構成され、取得ステップでは、ネットワークを介して情報処理装置から配置情報を取得し、ここで前記配置情報は、部屋の概形に関する概形データに対して設定された、前記部屋に配置するオブジェクトの種類に関する情報と、前記オブジェクトの配置場所に関する座標情報とを含み、管理ステップでは、前記部屋に配置し得る複数のオブジェクトに関する描画データを管理し、表示処理ステップでは、取得した前記配置情報と、前記描画データとに基づいて、実空間である前記部屋に仮想情報である前記オブジェクトを重畳表示させる、もの。
もちろん、この限りではない。
It may be provided in each aspect described below.
The information processing system is configured to further perform the following steps, wherein the outline generating step generates the outline data from second image data from which the outline of the real space can be grasped; thing.
The information processing system is configured to further execute the following steps, wherein the outline generation screen display step controls to display the outline generation screen, wherein the outline generation screen includes a plurality of comprising grid points and connecting the grid points to generate the outline data.
The information processing system is configured to further execute the following steps, wherein the obtaining step further obtains anchor information related to the anchor set for the outline data, and the anchor setting screen displaying step includes: controlling to display an anchor setting screen, wherein the anchor setting screen includes the anchor superimposed and displayed on the first image data and designates a position in the real space associated with the anchor information; The aligning step associates the coordinate system of the outline data with the coordinate system of the real space by associating the anchor information with the specified position in the real space.
In the information processing system, the information processing system is configured to further execute the following steps, and in the step of displaying an arrangement input screen, controlling to display an arrangement input screen, wherein the arrangement input screen displays the anchor information. A position on the area formed by the outline included in the outline data to be associated can be specified, and in the obtaining step, the anchor information associated with the specified position on the area formed by the outline to get, stuff.
The information processing system is configured to further execute the following steps, wherein the obtaining step further obtains object information about an object that can be placed in the real space, wherein the object information is drawing data. and position coordinate data representing the position of the outline data in the coordinate system. In the object display screen displaying step, the object display screen is controlled to be displayed, wherein the object display screen is the object A screen in which the object is superimposed on the first image data based on the information and the coordinate system of the real space associated with the coordinate system of the outline data.
In the information processing system, the information processing system is configured to further execute the following steps, and in a layout input screen display step, control is performed to display a layout input screen, wherein the layout input screen is laid out in the real space. at least one object can be selected from among a plurality of possible objects, and by designating the position of the selected object on the area formed by the outline included in the outline data, The position coordinate data can be generated, and the obtaining step obtains the object information of the selected object.
In the information processing system, the real space is an internal space of a building.
In the information processing system, the real space is a room.
In the information processing system, the outline data is three-dimensional data.
A method of information processing, comprising steps of the information processing system.
A program that causes a computer to perform each step of the information processing system.
An information processing apparatus configured to execute the following steps, in the receiving step, receiving from a first user an input related to layout information for outline data relating to the outline of a room, wherein the layout information is , information about the type of object to be placed in the room and coordinate information about the place where the object is placed, and in the screen display step, by transmitting the placement information to an augmented reality presentation device via a network, real space and causes the augmented reality presentation device to display a screen in which the object, which is virtual information, is superimposed in the room, wherein the augmented reality presentation device is a terminal of a second user located in the room ,thing.
An augmented reality presentation device configured to perform the following steps, wherein the acquisition step acquires layout information from an information processing device via a network, wherein the layout information relates to a general shape of a room; Drawing data about a plurality of objects that can be placed in the room, including information about the types of objects to be placed in the room and coordinate information about the places where the objects are placed, which are set for outline data; and, in a display processing step, superimposing and displaying the object, which is virtual information, in the room, which is real space, based on the obtained layout information and the drawing data.
Of course, this is not the only case.

最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, while various embodiments of the invention have been described, these have been presented by way of example and are not intended to limit the scope of the invention. The novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1 :情報処理システム
2 :拡張現実提示装置
20 :通信バス
21 :通信部
22 :記憶部
23 :制御部
231 :取得部
232 :管理部
233 :表示処理部
24 :表示部
25 :入力部
26 :撮像部
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :受付部
332 :画面表示部
333 :概形生成部
334 :取得部
335 :位置合わせ部
336 :管理部
4 :ホスト端末
5 :概形生成画面
51 :タイトル
52 :プルダウンメニュー
53 :ボタン
54 :ボタン
6 :配置入力画面
61 :タイトル
A :アンカー
AR :メガネ型
BG :ボタン
CG :座標系
CR :座標系
DO :ボタン
EP :終点
GD :概形
IA :アイコン
IO :アイコン
LP :格子点
O :オブジェクト
P1 :点
RL :ボタン
RR :ボタン
RS :実空間
SB :スライダーバー
SL :描線
SP :始点
SS :スライダー
XG :x軸
XR :x軸
YG :y軸
YR :y軸
1: Information processing system 2: Augmented reality presentation device 20: Communication bus 21: Communication unit 22: Storage unit 23: Control unit 231: Acquisition unit 232: Management unit 233: Display processing unit 24: Display unit 25: Input unit 26: Imaging unit 3 : Information processing device 30 : Communication bus 31 : Communication unit 32 : Storage unit 33 : Control unit 331 : Reception unit 332 : Screen display unit 333 : Outline generation unit 334 : Acquisition unit 335 : Alignment unit 336 : Management Part 4: Host terminal 5: Outline generation screen 51: Title 52: Pull-down menu 53: Button 54: Button 6: Layout input screen 61: Title A: Anchor AR: Glasses type BG: Button CG: Coordinate system CR: Coordinate system DO : Button EP : End point GD : Outline IA : Icon IO : Icon LP : Grid point O : Object P1 : Point RL : Button RR : Button RS : Real space SB : Slider bar SL : Drawing line SP : Starting point SS : Slider XG : x-axis XR : x-axis YG : y-axis YR : y-axis

Claims (14)

情報処理システムであって、
次の各ステップを実行するように構成され、
受付ステップでは、実空間を撮像した第1の画像データを受け付け、
取得ステップでは、前記実空間の概形に関する概形データを取得し、
位置合わせステップでは、前記概形データの座標系と、前記第1の画像データに含まれる前記実空間の座標系とを対応付ける、
もの。
An information processing system,
configured to perform each of the following steps,
The receiving step receives first image data obtained by imaging the real space,
The acquisition step acquires outline data related to the outline of the real space,
The alignment step associates the coordinate system of the outline data with the coordinate system of the real space included in the first image data.
thing.
請求項1に記載の情報処理システムにおいて、
次のステップをさらに実行するように構成され、
概形生成ステップでは、前記実空間の前記概形が把握可能である第2の画像データから前記概形データを生成する、
もの。
In the information processing system according to claim 1,
configured to perform the following further steps,
In the outline generating step, the outline data is generated from second image data from which the outline of the real space can be grasped.
thing.
請求項1に記載の情報処理システムにおいて、
次のステップをさらに実行するように構成され、
概形生成画面表示ステップでは、概形生成画面を表示させるように制御し、ここで、前記概形生成画面は、複数の格子点を含み、各格子点を接続することで、前記概形データを生成可能に構成される、
もの。
In the information processing system according to claim 1,
configured to perform the following further steps,
In the outline creation screen display step, control is performed to display an outline creation screen, wherein the outline creation screen includes a plurality of grid points, and the outline data is generated by connecting each grid point. configured to be able to generate
thing.
請求項1~請求項3の何れか1つに記載の情報処理システムにおいて、
次の各ステップをさらに実行するように構成され、
前記取得ステップでは、前記概形データに対して設定されたアンカーに関するアンカー情報をさらに取得し、
アンカー設定画面表示ステップでは、アンカー設定画面を表示させるように制御し、ここで、前記アンカー設定画面は、前記第1の画像データに重畳表示される前記アンカーを含み、かつ、前記アンカー情報を対応付ける前記実空間の位置を指定可能に構成され、
前記位置合わせステップでは、指定された前記実空間の位置に、前記アンカー情報を対応付けることによって、前記概形データの座標系と、前記実空間の座標系とを対応付ける、
もの。
In the information processing system according to any one of claims 1 to 3,
configured to further perform each of the following steps,
The obtaining step further obtains anchor information related to anchors set for the outline data,
The anchor setting screen displaying step controls to display an anchor setting screen, wherein the anchor setting screen includes the anchor superimposed on the first image data and is associated with the anchor information. configured to be able to specify a position in the real space,
the alignment step associates the coordinate system of the outline data with the coordinate system of the real space by associating the anchor information with the specified position in the real space;
thing.
請求項4に記載の情報処理システムにおいて、
次の各ステップをさらに実行するように構成され、
配置入力画面表示ステップでは、配置入力画面を表示させるように制御し、ここで、前記配置入力画面は、前記アンカー情報を対応付ける、前記概形データに含まれる前記概形のなす領域上の位置を指定可能に構成され、
前記取得ステップでは、前記概形のなす領域上の指定された位置に対応付けられた前記アンカー情報を取得する、
もの。
In the information processing system according to claim 4,
configured to further perform each of the following steps,
In the layout input screen display step, a layout input screen is displayed, wherein the layout input screen displays a position on the area formed by the outline included in the outline data associated with the anchor information. configured to be specifiable,
The acquisition step acquires the anchor information associated with the specified position on the area formed by the outline.
thing.
請求項1~請求項5の何れか1つに記載の情報処理システムにおいて、
次の各ステップをさらに実行するように構成され、
前記取得ステップでは、前記実空間に配置し得るオブジェクトに関するオブジェクト情報をさらに取得し、ここで、前記オブジェクト情報は、描画データと、前記概形データの座標系での位置を表す位置座標データとを含み、
オブジェクト表示画面表示ステップでは、オブジェクト表示画面を表示させるように制御し、ここで、前記オブジェクト表示画面は、前記オブジェクト情報と、前記概形データの座標系に対応付けられた前記実空間の座標系とに基づいて、前記第1の画像データに前記オブジェクトを重畳表示させた画面である、
もの。
In the information processing system according to any one of claims 1 to 5,
configured to further perform each of the following steps,
The acquiring step further acquires object information about an object that can be placed in the real space, wherein the object information includes drawing data and position coordinate data representing the position of the outline data in the coordinate system. including
The object display screen displaying step controls to display an object display screen, wherein the object display screen is the coordinate system of the real space associated with the coordinate system of the object information and the outline data. A screen in which the object is superimposed on the first image data based on
thing.
請求項6に記載の情報処理システムにおいて、
次のステップをさらに実行するように構成され、
配置入力画面表示ステップでは、配置入力画面を表示させるように制御し、ここで、前記配置入力画面は、前記実空間に配置し得る複数のオブジェクトの中から少なくとも1つのオブジェクトを選択可能に構成され、かつ、選択された前記オブジェクトについて、前記概形データに含まれる前記概形のなす領域上の位置を指定することにより、前記位置座標データを生成可能に構成され、
前記取得ステップでは、選択された前記オブジェクトの前記オブジェクト情報を取得する、
もの。
In the information processing system according to claim 6,
configured to perform the following further steps,
The placement input screen displaying step controls to display a placement input screen, wherein the placement input screen is configured to enable selection of at least one object from among a plurality of objects that can be placed in the real space. and, for the selected object, the position coordinate data can be generated by specifying the position on the area formed by the outline included in the outline data,
the obtaining step obtains the object information of the selected object;
thing.
請求項1~請求項7の何れか1つに記載の情報処理システムにおいて、
前記実空間は、建築物の内部空間である、
もの。
In the information processing system according to any one of claims 1 to 7,
The real space is an internal space of a building,
thing.
請求項8に記載の情報処理システムにおいて、
前記実空間は、部屋である、
もの。
In the information processing system according to claim 8,
the real space is a room,
thing.
請求項1~請求項9の何れか1つに記載の情報処理システムにおいて、
前記概形データは、3次元データである、
もの。
In the information processing system according to any one of claims 1 to 9,
The outline data is three-dimensional data,
thing.
情報処理方法であって、
請求項1~請求項10の何れか1つに記載の情報処理システムの各ステップを備える、
方法。
An information processing method,
Each step of the information processing system according to any one of claims 1 to 10,
Method.
プログラムであって、
コンピュータに、請求項1~請求項10の何れか1つに記載の情報処理システムの各ステップを実行させる、
もの。
a program,
causing a computer to execute each step of the information processing system according to any one of claims 1 to 10,
thing.
情報処理装置であって、
次の各ステップを実行するように構成され、
受付ステップでは、部屋の概形に関する概形データに対する配置情報に関する入力を第1のユーザから受け付け、ここで前記配置情報は、前記部屋に配置するオブジェクトの種類に関する情報と、前記オブジェクトの配置場所に関する座標情報とを含み、
画面表示ステップでは、前記配置情報をネットワークを介して拡張現実提示装置に送信することで、実空間である前記部屋に仮想情報である前記オブジェクトを重畳表示させた画面を前記拡張現実提示装置に表示させ、ここで、前記拡張現実提示装置は、前記部屋に位置する第2のユーザの端末である、
もの。
An information processing device,
configured to perform each of the following steps,
In the receiving step, input relating to arrangement information for outline data relating to the outline of the room is accepted from the first user, wherein the arrangement information includes information relating to the type of object to be arranged in the room and information relating to the arrangement location of the object. including coordinate information;
In the screen display step, by transmitting the arrangement information to the augmented reality presentation device via a network, the augmented reality presentation device displays a screen in which the object, which is virtual information, is superimposed on the room, which is the real space. where the augmented reality presentation device is a terminal of a second user located in the room;
thing.
拡張現実提示装置であって、
次の各ステップを実行するように構成され、
取得ステップでは、ネットワークを介して情報処理装置から配置情報を取得し、ここで前記配置情報は、部屋の概形に関する概形データに対して設定された、前記部屋に配置するオブジェクトの種類に関する情報と、前記オブジェクトの配置場所に関する座標情報とを含み、
管理ステップでは、前記部屋に配置し得る複数のオブジェクトに関する描画データを管理し、
表示処理ステップでは、取得した前記配置情報と、前記描画データとに基づいて、実空間である前記部屋に仮想情報である前記オブジェクトを重畳表示させる、
もの。
An augmented reality presentation device,
configured to perform each of the following steps,
In the obtaining step, layout information is obtained from an information processing device via a network, wherein the layout information is information about the types of objects to be placed in the room, set for outline data about the outline of the room. and coordinate information about the placement location of the object,
The managing step manages drawing data relating to a plurality of objects that can be placed in the room;
In the display processing step, the object, which is virtual information, is superimposed on the room, which is a real space, based on the obtained layout information and the drawing data.
thing.
JP2021144862A 2021-05-25 2021-09-06 Information processing system, information processing method and program Pending JP2022181153A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021144862A JP2022181153A (en) 2021-05-25 2021-09-06 Information processing system, information processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021087993A JP6961157B1 (en) 2021-05-25 2021-05-25 Information processing system, information processing method and program
JP2021144862A JP2022181153A (en) 2021-05-25 2021-09-06 Information processing system, information processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021087993A Division JP6961157B1 (en) 2021-05-25 2021-05-25 Information processing system, information processing method and program

Publications (1)

Publication Number Publication Date
JP2022181153A true JP2022181153A (en) 2022-12-07

Family

ID=78409691

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021087993A Active JP6961157B1 (en) 2021-05-25 2021-05-25 Information processing system, information processing method and program
JP2021144862A Pending JP2022181153A (en) 2021-05-25 2021-09-06 Information processing system, information processing method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021087993A Active JP6961157B1 (en) 2021-05-25 2021-05-25 Information processing system, information processing method and program

Country Status (1)

Country Link
JP (2) JP6961157B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023248619A1 (en) * 2022-06-21 2023-12-28 株式会社Nttドコモ Terminal device and object management server

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163308A (en) * 2000-09-13 2002-06-07 Matsushita Electric Works Ltd Three-dimensional space design support system using network
JP5915996B2 (en) * 2012-06-20 2016-05-11 清水建設株式会社 Composite image display system and method
JP6570161B1 (en) * 2017-11-04 2019-09-04 ナーブ株式会社 Image processing apparatus, image processing method, and image processing program
JP7391317B2 (en) * 2018-10-03 2023-12-05 株式会社エム・ソフト Information management device, information management system, information management method, and information management program
JP6838130B1 (en) * 2019-12-24 2021-03-03 株式会社ベガコーポレーション Information providing device, information providing system, information providing method and information providing program

Also Published As

Publication number Publication date
JP6961157B1 (en) 2021-11-05
JP2022181131A (en) 2022-12-07

Similar Documents

Publication Publication Date Title
US11164381B2 (en) Clothing model generation and display system
CN111527525A (en) Mixed reality service providing method and system
JP2013061937A (en) Combined stereo camera and stereo display interaction
US20160371888A1 (en) Interactive information display
US10964104B2 (en) Remote monitoring and assistance techniques with volumetric three-dimensional imaging
KR102395030B1 (en) Method for remote controlling virtual comtents and apparatus using the same
JP2014089697A (en) Architectural image display device, architectural image display method, and computer program
JP6677890B2 (en) Information processing system, its control method and program, and information processing apparatus, its control method and program
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
US10984607B1 (en) Displaying 3D content shared from other devices
CN106980378B (en) Virtual display method and system
JP2018142230A (en) Information processor, information processing system, information processing method, and program
JP2022181153A (en) Information processing system, information processing method and program
JP2014203175A (en) Information processing device, information processing method, and program
JP2013008257A (en) Image composition program
JP2005339377A (en) Image processing method and image processor
JP6726016B2 (en) Information processing device and information processing method
JP6152888B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP2017084215A (en) Information processing system, control method thereof, and program
JP2023065528A (en) Head-mounted information processing apparatus and head-mounted display system
WO2022176450A1 (en) Information processing device, information processing method, and program
JP6709426B2 (en) Image display control device and program
JP6357412B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP2020074108A (en) Information processing system, control method thereof, and program
JP6638326B2 (en) Information processing system, control method thereof, and program