JP2022126546A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2022126546A
JP2022126546A JP2021024685A JP2021024685A JP2022126546A JP 2022126546 A JP2022126546 A JP 2022126546A JP 2021024685 A JP2021024685 A JP 2021024685A JP 2021024685 A JP2021024685 A JP 2021024685A JP 2022126546 A JP2022126546 A JP 2022126546A
Authority
JP
Japan
Prior art keywords
unit
dimensional model
display
information processing
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021024685A
Other languages
Japanese (ja)
Other versions
JP7082698B1 (en
Inventor
和彦 増崎
Kazuhiko Masuzaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021024685A priority Critical patent/JP7082698B1/en
Application granted granted Critical
Publication of JP7082698B1 publication Critical patent/JP7082698B1/en
Publication of JP2022126546A publication Critical patent/JP2022126546A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide a technology for identifying a relationship between an AR (Augmented Reality) object and an environment where the AR object is disposed.SOLUTION: A specification information acquisition unit 110 acquires specification information for specifying data including a three-dimensional model of a building in a real world. A matching unit 111 superimposes the three-dimensional model included in the data specified by the specification information on an image being captured by an imaging unit 12. A display control unit 112 causes a display unit 13 to display the captured image with the three-dimensional model superimposed thereon. An object management unit 113 receives a selection of an AR object to be disposed in a space which is specified by a three-dimensional coordinate system defining the three-dimensional model, and settings for a position and direction to dispose the AR object in the three-dimensional coordinate system. The display control unit 112 causes the display unit 13 to display the selected AR object in the set position and direction.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

近年、拡張現実(Augmented Reality;AR)や複合現実(Mixed Reality;MR)と呼ばれる技術が急速に発展してきており、日常生活での利用も実用化されつつある。これらの技術は、スマートフォンやスマートグラスを用いることで、現実に存在する物体の映像に、仮想的な物体(以下、本明細書において「ARオブジェクト」と記載する。)を重畳して表示し、ユーザに提示する技術である(例えば、特許文献1を参照)。 In recent years, technologies called Augmented Reality (AR) and Mixed Reality (MR) have been rapidly developing, and are being put to practical use in daily life. These technologies use smartphones and smart glasses to superimpose and display virtual objects (hereinafter referred to as “AR objects” in this specification) on images of real objects, This is a technique for presenting information to the user (see Patent Document 1, for example).

特開2020-57430号公報Japanese Patent Application Laid-Open No. 2020-57430

特許文献1には、駅やビル、市街地のような比較的大きな構造物と同等の大きさのARオブジェクトを、その構造物が存在する場所において提示させる技術が開示されている。このような技術では、当然ながら、ユーザはARオブジェクトが配置される市街地に赴くことによってはじめてARオブジェクトを観察することが可能となる。そのため、例えばARオブジェクトの配置場所を決定する者も、実際に現地に赴かない限り、構造物との関係においてARオブジェクトの見え方を確かめることができなかった。 Patent Literature 1 discloses a technique for presenting an AR object having the same size as a relatively large structure such as a station, a building, or an urban area at a location where the structure exists. With such technology, of course, the user can observe the AR object only after going to the city where the AR object is placed. Therefore, for example, even those who decide the location of the AR object cannot confirm how the AR object looks in relation to the structure unless they actually go to the site.

本発明はこれらの点に鑑みてなされたものであり、ARオブジェクトとそのARオブジェクトを配置する環境との関係を把握するための技術を提供することを目的とする。 The present invention has been made in view of these points, and it is an object of the present invention to provide a technique for grasping the relationship between an AR object and the environment in which the AR object is arranged.

本発明の第1の態様は、情報処理装置である。この装置は、現実世界の構造物の三次元モデルを含むデータを特定するための特定情報を取得する特定情報取得部と、撮像部が撮像中の撮像画像に前記特定情報で特定されるデータに含まれる前記三次元モデルを重畳させるマッチング部と、前記三次元モデルが重畳された前記撮像画像を表示部に表示させる表示制御部と、前記三次元モデルを規定する三次元座標系で特定される空間に設置するためのARオブジェクトの選択と、前記三次元座標系における前記ARオブジェクトの設置位置及び設置向きの設定と、を受け付けるオブジェクト管理部と、を備える。前記表示制御部は、前記表示部に、選択された前記ARオブジェクトを前記設置位置に前記設置向きで表示させる。 A first aspect of the present invention is an information processing device. This device includes a specific information acquisition unit that acquires specific information for specifying data including a three-dimensional model of a structure in the real world, and a captured image being captured by an imaging unit that acquires data specified by the specific information. a matching unit that superimposes the included three-dimensional model; a display control unit that causes a display unit to display the captured image superimposed with the three-dimensional model; and a three-dimensional coordinate system that defines the three-dimensional model. an object management unit that receives selection of an AR object to be installed in space and setting of the installation position and installation orientation of the AR object in the three-dimensional coordinate system; The display control unit causes the display unit to display the selected AR object at the installation position in the installation orientation.

前記情報処理装置は、選択された前記ARオブジェクトを特定する情報と、前記ARオブジェクトの設置位置と設置向きとの設定を示す情報とを含むオブジェクト情報を、コンテンツサーバに送信する通信部をさらに備えてもよい。 The information processing device further includes a communication unit that transmits object information including information specifying the selected AR object and information indicating settings of the installation position and installation orientation of the AR object to the content server. may

前記特定情報取得部は、現実世界において前記構造物が存在する位置を示す情報を、前記特定情報としてユーザから取得してもよい。 The specific information acquisition unit may acquire information indicating a position where the structure exists in the real world from the user as the specific information.

前記マッチング部は、前記三次元モデルを規定する三次元座標系のうちの2つの軸で特定される平面を前記撮像画像中に含まれる平面形状の被写体とマッチングさせて前記撮像画像と前記三次元モデルとを重畳させてもよい。 The matching unit matches a plane specified by two axes in a three-dimensional coordinate system that defines the three-dimensional model with a planar object included in the captured image, thereby matching the captured image and the three-dimensional model. A model may be superimposed.

本発明の第2の態様は情報処理方法である。この方法において、プロセッサが、現実世界の構造物の三次元モデルを含むデータを特定するための特定情報を取得するステップと、撮像部が撮像中の撮像画像に前記特定情報で特定されるデータに含まれる前記三次元モデルを重畳させるステップと、前記三次元モデルが重畳された前記撮像画像を表示部に表示させるステップと、前記三次元モデルを規定する三次元座標系で特定される空間に設置するためのARオブジェクトの選択と、前記三次元座標系における前記ARオブジェクトの設置位置及び設置向きの設定と、を受け付けるステップと、前記表示部に、選択された前記ARオブジェクトを前記ARオブジェクトの前記設置位置に前記設置向きで表示させるステップと、を実行する。 A second aspect of the present invention is an information processing method. In this method, the processor obtains specific information for specifying data including a three-dimensional model of a structure in the real world; superimposing the included three-dimensional model; displaying the captured image superimposed with the three-dimensional model on a display unit; and installing the three-dimensional model in a space specified by a three-dimensional coordinate system a step of receiving a selection of an AR object for displaying and setting of an installation position and an installation orientation of the AR object in the three-dimensional coordinate system; and causing the installation position to display in the installation orientation.

本発明の第3の態様は、プログラムである。このプログラムは、コンピュータに、現実世界の構造物の三次元モデルを含むデータを特定するための特定情報を取得する機能と、撮像部が撮像中の撮像画像に前記特定情報で特定されるデータに含まれる前記三次元モデルを重畳させる機能と、前記三次元モデルが重畳された前記撮像画像を表示部に表示させる機能と、前記三次元モデルを規定する三次元座標系で特定される空間に設置するためのARオブジェクトの選択と、前記三次元座標系における前記ARオブジェクトの設置位置及び設置向きの設定と、を受け付ける機能と、前記表示部に、選択された前記ARオブジェクトを前記ARオブジェクトの前記設置位置に前記設置向きで表示させる機能と、を実現させる。 A third aspect of the present invention is a program. This program provides a computer with a function of acquiring specific information for specifying data including a three-dimensional model of a structure in the real world, and acquiring data specified by the specific information in a captured image being captured by an imaging unit. A function of superimposing the included three-dimensional model, a function of displaying the captured image superimposed with the three-dimensional model on a display unit, and installation in a space specified by a three-dimensional coordinate system that defines the three-dimensional model. a function of receiving a selection of an AR object to be used, a setting of the installation position and installation orientation of the AR object in the three-dimensional coordinate system, and displaying the selected AR object on the display unit. and a function of displaying at the installation position in the installation orientation.

このプログラムを提供するため、あるいはプログラムの一部をアップデートするために、このプログラムを記録したコンピュータ読み取り可能な記録媒体が提供されてもよく、また、このプログラムが通信回線で伝送されてもよい。 In order to provide this program or update part of the program, a computer-readable recording medium recording this program may be provided, or this program may be transmitted via a communication line.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。 Any combination of the above-described components, and expressions of the present invention converted into methods, devices, systems, computer programs, data structures, recording media, etc. are also effective as aspects of the present invention.

本発明によれば、ARオブジェクトとそのARオブジェクトを配置する環境との関係を把握するための技術を提供することができる。 According to the present invention, it is possible to provide a technique for understanding the relationship between an AR object and the environment in which the AR object is arranged.

実施の形態に係る情報処理装置が実行する処理の概要を説明するための図である。FIG. 2 is a diagram for explaining an outline of processing executed by an information processing apparatus according to an embodiment; FIG. 実施の形態に係る表示システムの構成を模式的に示す図である。1 is a diagram schematically showing the configuration of a display system according to an embodiment; FIG. 実施の形態に係る情報処理装置が提供する特定情報指定画面の一例を模式的に示す図である。FIG. 4 is a diagram schematically showing an example of a specific information specifying screen provided by the information processing device according to the embodiment; 実平面オブジェクトと都市オブジェクトとのマッチングを説明するための図である。FIG. 4 is a diagram for explaining matching between a real plane object and a city object; 実施の形態に係る情報処理装置が提供する選択オブジェクトの選択画面の一例を模式的に示す図である。FIG. 10 is a diagram schematically showing an example of a selection screen for selection objects provided by the information processing apparatus according to the embodiment; 実施の形態に係る情報処理装置が実行する情報処理の流れを説明するためのフローチャートである。4 is a flowchart for explaining the flow of information processing executed by the information processing apparatus according to the embodiment;

<実施の形態の概要>
図1(a)-(d)は、実施の形態に係る情報処理装置が実行する処理の概要を説明するための図である。以下、図1を参照しながら、実施の形態の概要を述べる。
<Overview of Embodiment>
FIGS. 1(a) to 1(d) are diagrams for explaining an outline of processing executed by an information processing apparatus according to an embodiment. An outline of the embodiment will be described below with reference to FIG.

実施の形態に係る情報処理装置は、例えば、ユーザの自宅における机上のような平面形状の構造を持つ実在のオブジェクト(以下、「実平面オブジェクト」と記載する。)の上に、実在する都市の三次元モデルのARオブジェクト(以下、「都市オブジェクト」と記載する。)を重畳させて表示部に表示させる。図1(a)は、実在する机を模式的に示す図である。図1(a)に示す例では、実在する机である実平面オブジェクトR1の上にコップR2及び手帳R3が置かれている様子が示されている。 An information processing apparatus according to an embodiment, for example, displays an image of an existing city on an existing object having a planar structure like a desk in a user's home (hereinafter referred to as a "real planar object"). A three-dimensional model AR object (hereinafter referred to as a “city object”) is superimposed and displayed on the display unit. FIG. 1(a) is a diagram schematically showing an existing desk. In the example shown in FIG. 1(a), a cup R2 and a notebook R3 are placed on a real plane object R1, which is a real desk.

図1(b)は、情報処理装置が実平面オブジェクトR1において検出した平面Pを示している。図1(b)において、破線の矩形で示す領域が、実平面オブジェクトR1上に検出された平面Pである。また、図1(c)は、実平面オブジェクトR1の平面Pに重畳された都市オブジェクトVの一例を示している。図1(c)に示すように、表示部を観察したユーザは、実平面オブジェクトR1の上に、あたかも都市のジオラマが存在するかのような映像を観察することができる。 FIG. 1(b) shows the plane P detected in the real plane object R1 by the information processing device. In FIG. 1B, the area indicated by the dashed rectangle is the plane P detected on the real plane object R1. Also, FIG. 1(c) shows an example of a city object V superimposed on the plane P of the real plane object R1. As shown in FIG. 1(c), the user observing the display unit can observe an image as if a city diorama exists on the real plane object R1.

ユーザが情報処理装置の操作部を介して都市オブジェクトVに重畳させるべきARオブジェクト(以下、「選択オブジェクト」と記載する。)を選択して配置場所等を指定すると、情報処理装置は、都市オブジェクトVに選択オブジェクトを重畳した映像を、実平面オブジェクトR1の上にさらに重畳して表示部に表示させる。図1(d)は、都市オブジェクトVの拡大図であり、具体的には都市オブジェクトVに選択オブジェクトAが重畳されている様子を示す図である。 When the user selects an AR object (hereinafter referred to as "selected object") to be superimposed on the city object V via the operation unit of the information processing device and designates an arrangement location, etc., the information processing device displays the city object An image in which the selected object is superimposed on V is further superimposed on the real plane object R1 and displayed on the display unit. FIG. 1(d) is an enlarged view of the city object V, and specifically shows a state in which the selected object A is superimposed on the city object V. As shown in FIG.

図1(d)は、選択オブジェクトAとしてユーザがペンギンのキャラクタを選択した場合の例を示している。煩雑となることを避けるため全ての選択オブジェクトAに符号を付していないが、図1(d)において、符号Aが付されたペンギンと同一形状のオブジェクトは、全て選択オブジェクトAである。図1(d)は、都市オブジェクトVに4つの選択オブジェクトが重畳されている様子を示している。 FIG. 1(d) shows an example in which the user selects a penguin character as the selection object A. FIG. In order to avoid complication, not all selected objects A are labeled, but in FIG. FIG. 1(d) shows how four selected objects are superimposed on the city object V. FIG.

このように、実施の形態に係る情報処理装置は、実平面オブジェクトR1上に実在する都市を模した都市オブジェクトを配置するとともに、都市オブジェクトに選択オブジェクトをさらに重畳した映像をユーザに提供する。これにより、実施の形態に係る情報処理装置は、ARオブジェクトである選択オブジェクトと、その選択オブジェクトを配置する都市の環境との関係を、ユーザが実在する都市に実際に赴くことなく把握させることができる。 As described above, the information processing apparatus according to the embodiment arranges a city object that simulates an existing city on the real plane object R1, and provides the user with an image in which the selected object is further superimposed on the city object. As a result, the information processing apparatus according to the embodiment allows the user to grasp the relationship between the selection object, which is an AR object, and the environment of the city in which the selection object is arranged, without actually visiting the city where the user actually exists. can.

<実施の形態に係る情報処理装置1の機能構成>
図2は、実施の形態に係る表示システムSの構成を模式的に示す図である。表示システムSは情報処理装置1、コンテンツサーバ2、及びモデルサーバ3を含む。情報処理装置1はインターネット等のネットワークNを介してコンテンツサーバ2とモデルサーバ3とに通信可能な態様で接続しており、例えばスマートフォン等の携帯端末である。また、図2は、情報処理装置1の機能構成も示している。情報処理装置1は、記憶部10、制御部11、撮像部12、表示部13、及び通信部14を備える。
<Functional Configuration of Information Processing Apparatus 1 According to Embodiment>
FIG. 2 is a diagram schematically showing the configuration of the display system S according to the embodiment. A display system S includes an information processing device 1 , a content server 2 and a model server 3 . The information processing device 1 is connected to the content server 2 and the model server 3 via a network N such as the Internet in a communicable manner, and is a portable terminal such as a smart phone. 2 also shows the functional configuration of the information processing apparatus 1. As shown in FIG. The information processing device 1 includes a storage unit 10 , a control unit 11 , an imaging unit 12 , a display unit 13 and a communication unit 14 .

図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってもよい。図2において、各機能ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示す機能ブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。機能ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。 In FIG. 2, arrows indicate main data flows, and there may be data flows not shown in FIG. In FIG. 2, each functional block does not show the configuration in units of hardware (apparatus), but the configuration in units of functions. Therefore, the functional blocks shown in FIG. 2 may be implemented within a single device, or may be implemented separately within a plurality of devices. Data exchange between functional blocks may be performed via any means such as a data bus, network, or portable storage medium.

記憶部10は、情報処理装置1を実現するコンピュータのBIOS(Basic Input Output System)等を格納するROM(Read Only Memory)や情報処理装置1の作業領域となるRAM(Random Access Memory)、OS(Operating System)やアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置である。 The storage unit 10 includes a ROM (Read Only Memory) that stores a BIOS (Basic Input Output System) of a computer that implements the information processing apparatus 1, a RAM (Random Access Memory) that serves as a work area of the information processing apparatus 1, an OS ( (Operating System), application programs, and a large-capacity storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that stores various information referred to when the application program is executed.

制御部11は、情報処理装置1のCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサであり、コンテンツサーバ2に記憶されたプログラムを実行することによって特定情報取得部110、マッチング部111、表示制御部112、及びオブジェクト管理部113として機能する。 The control unit 11 is a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) of the information processing device 1, and executes a program stored in the content server 2 to obtain the specific information acquisition unit 110, the matching unit 111 , a display control unit 112 , and an object management unit 113 .

撮像部12は、情報処理装置1の外部の環境を撮像するためのカメラであり、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の既知の固体撮像素子を用いて実現されている。表示部13は、情報処理装置1がユーザに画像情報を提示するためのインタフェースであり、既知の液晶パネルや有機EL(Electroluminescence)等で実現されている。また、表示部13はタッチセンサも備えており、ユーザが情報処理装置1に指示する入力インタフェースとしても機能する。 The imaging unit 12 is a camera for imaging the environment outside the information processing device 1, and uses a known solid-state imaging device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. has been realized. The display unit 13 is an interface for the information processing apparatus 1 to present image information to the user, and is realized by a known liquid crystal panel, organic EL (Electroluminescence), or the like. The display unit 13 also has a touch sensor and functions as an input interface for the user to give instructions to the information processing apparatus 1 .

通信部14は情報処理装置1がコンテンツサーバ2やモデルサーバ3等の外部の装置と情報をやり取りするための通信インタフェースであり、既知の携帯電話モジュールやWi-Fi(登録商標)モジュールで実現されている。したがって、通信部14は、制御部11を構成する各部が外部の装置に情報を送信するための送信部として機能するとともに、外部の装置から情報を受信するための受信部としても機能する。 The communication unit 14 is a communication interface for the information processing device 1 to exchange information with external devices such as the content server 2 and the model server 3, and is realized by a known mobile phone module or Wi-Fi (registered trademark) module. ing. Therefore, the communication unit 14 functions as a transmitting unit for each unit constituting the control unit 11 to transmit information to an external device, and also functions as a receiving unit for receiving information from an external device.

特定情報取得部110は、現実世界の構造物の三次元モデルである都市オブジェクトVを含むデータを特定するための特定情報を取得する。限定はしないが、都市オブジェクトVはVPS(Visual Positioning Service)データの一部に含まれるか、又はVPSデータと関連付けられる形で含まれていてもよい。VPSの技術は既知の技術であるため詳細な説明は省略するが、VPSデータは、実在する建物等の構造物の三次元データ(例えば、都市の表面を示す点群データ)を含むデータである。 The specific information acquisition unit 110 acquires specific information for specifying data including a city object V, which is a three-dimensional model of a structure in the real world. Although not limited, the city object V may be included as part of the VPS (Visual Positioning Service) data, or may be included in a form associated with the VPS data. Since VPS technology is a known technology, detailed description is omitted, but VPS data is data including three-dimensional data of existing structures such as buildings (for example, point cloud data representing the surface of a city). .

マッチング部111は、撮像部12が撮像中の撮像画像に、特定情報取得部110が取得した特定情報で特定されるデータに含まれる都市オブジェクトVを重畳させる。表示制御部112は、都市オブジェクトVが重畳された撮像画像を表示部13に表示させる。なお、都市オブジェクトVを含むデータはモデルサーバ3が保持しており、マッチング部111が特定情報を用いてモデルサーバ3に問い合わせることでモデルサーバ3から取得する。あるいは、データが記憶部10に既に格納されている場合には、マッチング部111は、記憶部10からデータを読み出して取得してもよい。 The matching unit 111 superimposes the city object V included in the data specified by the specific information acquired by the specific information acquiring unit 110 on the captured image being captured by the imaging unit 12 . The display control unit 112 causes the display unit 13 to display the captured image on which the city object V is superimposed. The model server 3 holds data including the city object V, and the matching unit 111 obtains the data from the model server 3 by inquiring the model server 3 using the specific information. Alternatively, if the data is already stored in the storage unit 10 , the matching unit 111 may read the data from the storage unit 10 to obtain the data.

オブジェクト管理部113は、三次元モデルである都市オブジェクトVを規定する三次元座標系で特定される空間に設置するためのARオブジェクト(すなわち、選択オブジェクトA)の選択と、その三次元座標系における選択オブジェクトAの設置位置及び設置向きの設定と、を受け付ける。 The object management unit 113 selects an AR object (that is, a selection object A) to be installed in a space specified by a three-dimensional coordinate system that defines a city object V, which is a three-dimensional model, and The setting of the installation position and installation orientation of the selected object A is accepted.

表示制御部112は、表示部13に、選択オブジェクトAをオブジェクト管理部113が受け付けた設置位置に設置向きで表示させる。これにより、ユーザは、実在する都市に実際に赴くことなく選択オブジェクトAと都市オブジェクトVとの関係を把握することができる。 The display control unit 112 causes the display unit 13 to display the selected object A at the installation position accepted by the object management unit 113 in the installation direction. This allows the user to grasp the relationship between the selected object A and the city object V without actually visiting an existing city.

図3は、実施の形態に係る情報処理装置1が提供する特定情報指定画面の一例を模式的に示す図である。具体的には、図3は、情報処理装置1がスマートフォンであり、表示部13は情報処理装置1の画面である場合の例を示している。図3に示すように、ユーザは情報処理装置1の画面をタッチすることにより、都市オブジェクトVを特定するための特定情報を、地名、最寄り駅、又は郵便番号を用いて検索したり、地図上で直接指定したりすることにより情報処理装置1に指示することができる。すなわち、特定情報取得部110は、現実世界において都市オブジェクトVが模している構造物が存在する位置を示す情報を、特定情報としてユーザから取得する。これにより、モデルサーバ3がデータとして保持している限り、ユーザは現実世界における構造物の付近に赴かなくても自宅等で手軽に構造物の状況を把握することができる。 FIG. 3 is a diagram schematically showing an example of a specific information specifying screen provided by the information processing device 1 according to the embodiment. Specifically, FIG. 3 shows an example in which the information processing device 1 is a smart phone and the display unit 13 is the screen of the information processing device 1 . As shown in FIG. 3, by touching the screen of the information processing device 1, the user searches for specific information for specifying the city object V using the place name, nearest station, or postal code, or searches for specific information on the map. It is possible to instruct the information processing apparatus 1 by directly specifying with . That is, the specific information acquisition unit 110 acquires from the user, as specific information, information indicating the position of the structure modeled by the city object V in the real world. As a result, as long as the model server 3 holds the data, the user can easily grasp the situation of the structure at home or the like without going to the vicinity of the structure in the real world.

図4は、実平面オブジェクトR1と都市オブジェクトVとのマッチングを説明するための図である。実施の形態に係るマッチング部111は、都市オブジェクトVを規定する三次元座標系Cのうちの2つの軸で特定される平面を表示部13が撮像した撮像画像中に含まれる平面形状の被写体である実平面オブジェクトR1とマッチングさせることで、撮像画像と都市オブジェクトVとを重畳させる。 FIG. 4 is a diagram for explaining matching between the real plane object R1 and the city object V. FIG. The matching unit 111 according to the embodiment detects a plane specified by two axes in the three-dimensional coordinate system C that defines the city object V as a planar object included in the captured image captured by the display unit 13. By matching with a certain real plane object R1, the captured image and the city object V are superimposed.

図4では、都市オブジェクトVを規定するx軸、y軸、及びz軸から構成される三次元座標系は符号Cで示されており、高さ方向がz軸、x軸及びy軸で規定される平面が地平面である。また、図4に示す例では、表示部13が撮像する撮像画像に含まれる実平面オブジェクトR1は机の天板である。制御部11は、実平面オブジェクトR1とx軸及びy軸で規定される平面とをマッチングさせることで、撮像画像と都市オブジェクトVとを重畳させることができる。これにより、ユーザは、机上に都市のジオラマが出現したかのような映像を観察することができる。 In FIG. 4, the three-dimensional coordinate system composed of the x-axis, y-axis, and z-axis defining the city object V is indicated by C, and the height direction is defined by the z-axis, x-axis, and y-axis. is the ground plane. Further, in the example shown in FIG. 4, the real plane object R1 included in the captured image captured by the display unit 13 is a desk top. The control unit 11 can superimpose the captured image and the city object V by matching the real plane object R1 with the plane defined by the x-axis and the y-axis. As a result, the user can observe an image as if a city diorama appeared on the desk.

図5は、実施の形態に係る情報処理装置1が提供する選択オブジェクトAの選択画面の一例を模式的に示す図である。図3に示す図と同様に、図5は、情報処理装置1がスマートフォンであり、表示部13は情報処理装置1の画面である場合の例を示している。 FIG. 5 is a diagram schematically showing an example of a selection screen for selection object A provided by information processing apparatus 1 according to the embodiment. Similar to the diagram shown in FIG. 3 , FIG. 5 shows an example in which the information processing device 1 is a smart phone and the display unit 13 is the screen of the information processing device 1 .

図5は、選択オブジェクトAとしてペンギンのARオブジェクトが表示されている場合の例を示している。選択オブジェクトAの候補は記憶部10に格納されており、ユーザは表示部13をタップすることで他の選択オブジェクトAに切り替えることができる。 FIG. 5 shows an example in which a penguin AR object is displayed as the selection object A. In FIG. Candidates for the selection object A are stored in the storage unit 10 , and the user can switch to another selection object A by tapping the display unit 13 .

選択オブジェクトAは三次元オブジェクトとしてモデル化されている。このため、図5に示すように、ユーザは選択オブジェクトの正面、背面、側面を含む任意の角度から選択オブジェクトを観察することができる。都市オブジェクトVも三次元オブジェクトとしてモデル化されているため、都市オブジェクトVと選択オブジェクトAとを重畳させた後、ユーザは都市オブジェクトVと選択オブジェクトAとの関係を任意の角度から観察することができる。 Selection object A is modeled as a three-dimensional object. Therefore, as shown in FIG. 5, the user can observe the selected object from any angle including the front, back, and side of the selected object. Since the city object V is also modeled as a three-dimensional object, after superimposing the city object V and the selected object A, the user can observe the relationship between the city object V and the selected object A from any angle. can.

ユーザは、都市オブジェクトVと選択オブジェクトAとの関係を把握しながら、選択オブジェクトAの配置位置及び配置向きを変更し、最終的に決定する。ユーザが選択オブジェクトAの配置位置及び配置向きを決定すると、通信部14は、選択オブジェクトAを特定する情報と、選択オブジェクトAの設置位置と設置向きとの設定を示す情報とを含むオブジェクト情報を、コンテンツサーバ2に送信する。 While understanding the relationship between the city object V and the selected object A, the user changes the placement position and placement direction of the selected object A, and finally determines. When the user determines the placement position and placement orientation of the selection object A, the communication unit 14 transmits object information including information specifying the selection object A and information indicating settings of the installation position and installation orientation of the selection object A. , to the content server 2 .

情報処理装置1は、ネットワークNと接続できることを条件としてどこからでもコンテンツサーバ2と通信することができる。このため、情報処理装置1のユーザは情報処理装置1を所持して都市オブジェクトVのモデルとなった構造物の所在地に赴いて撮像部12で撮像すると、表示部13には撮像画像に選択オブジェクトAが重畳された状態の映像が表示される。このように、通信部14がオブジェクト情報をコンテンツサーバ2に送信することで、ユーザは設定した選択オブジェクトAを他のユーザと現地で共有することができる。なお、情報処理装置1のマッチング部111は、既知のVPSの技術を用いることで撮像画像から撮像部12の位置や向きを推定することができる。 The information processing device 1 can communicate with the content server 2 from anywhere on the condition that the network N can be connected. Therefore, when the user of the information processing device 1 carries the information processing device 1, goes to the location of the structure that is the model of the city object V, and takes an image with the imaging unit 12, the display unit 13 displays the selected object as the captured image. An image with A superimposed is displayed. In this manner, the communication unit 14 transmits the object information to the content server 2, so that the user can share the set selection object A with other users at the site. Note that the matching unit 111 of the information processing device 1 can estimate the position and orientation of the imaging unit 12 from the captured image by using known VPS technology.

<情報処理装置1が実行する情報処理方法の処理フロー>
図6は、実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1が起動したときに開始する。
<Processing Flow of Information Processing Method Executed by Information Processing Apparatus 1>
FIG. 6 is a flowchart for explaining the flow of information processing executed by the information processing apparatus 1 according to the embodiment. The processing in this flowchart starts, for example, when the information processing apparatus 1 is activated.

特定情報取得部110は、都市オブジェクトVを含むデータを特定するための特定情報をユーザから取得する(S2)。マッチング部111は、特定情報で特定されるデータをモデルサーバ3から受信して取得する(S4)。 The specific information acquisition unit 110 acquires from the user specific information for specifying data including the city object V (S2). The matching unit 111 receives and acquires the data specified by the specifying information from the model server 3 (S4).

マッチング部111は、撮像部12が撮像中の撮像画像に三次元モデルである都市オブジェクトVをマッチングする(S6)。表示制御部112は、撮像画像に都市オブジェクトVが重畳された重畳画像を表示部13に表示させる(S8)。 The matching unit 111 matches the captured image being captured by the imaging unit 12 with the city object V, which is a three-dimensional model (S6). The display control unit 112 causes the display unit 13 to display a superimposed image in which the city object V is superimposed on the captured image (S8).

オブジェクト管理部113は、都市オブジェクトVを規定する三次元座標系Cで特定される空間に設置するための選択オブジェクトAの選択をユーザから受け付ける(S10)。また、オブジェクト管理部113は、三次元座標系Cにおける選択オブジェクトAの設置位置及び設置向きの設定をユーザから受け付ける(S12)。 The object management unit 113 receives from the user a selection of a selection object A to be installed in the space specified by the three-dimensional coordinate system C that defines the city object V (S10). Further, the object management unit 113 receives from the user the setting of the installation position and installation orientation of the selection object A in the three-dimensional coordinate system C (S12).

表示制御部112は、表示部13に、選択された選択オブジェクトAを設定された設置位置に設置向きで表示させる(S14)。通信部14は、選択オブジェクトAを特定する情報と、選択オブジェクトAの設置位置と設置向きとの設定を示す情報とを含むオブジェクト情報を、コンテンツサーバ2に送信する(S16)。通信部14がオブジェクト情報をコンテンツサーバ2に送信すると、本フローチャートにおける処理は終了する。 The display control unit 112 causes the display unit 13 to display the selected selection object A at the set installation position in the installation orientation (S14). The communication unit 14 transmits object information including information specifying the selection object A and information indicating the setting of the installation position and installation orientation of the selection object A to the content server 2 (S16). When the communication unit 14 transmits the object information to the content server 2, the processing in this flowchart ends.

<実施の形態に係る情報処理装置1が奏する効果>
以上説明したように、実施の形態に係る情報処理装置1によれば、選択オブジェクトAとその選択オブジェクトAを配置する環境との関係を把握するための技術を提供することができる。
<Effects of Information Processing Apparatus 1 According to Embodiment>
As described above, according to the information processing apparatus 1 according to the embodiment, it is possible to provide a technique for grasping the relationship between the selection object A and the environment in which the selection object A is arranged.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果をあわせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist thereof. be. For example, all or part of the device can be functionally or physically distributed and integrated in arbitrary units. In addition, new embodiments resulting from arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment caused by the combination has the effect of the original embodiment.

1・・・情報処理装置
10・・・記憶部
11・・・制御部
110・・・特定情報取得部
111・・・マッチング部
112・・・表示制御部
113・・・オブジェクト管理部
12・・・撮像部
13・・・表示部
14・・・通信部
2・・・コンテンツサーバ
3・・・モデルサーバ
N・・・ネットワーク
S・・・表示システム
1 Information processing apparatus 10 Storage unit 11 Control unit 110 Specific information acquisition unit 111 Matching unit 112 Display control unit 113 Object management unit 12 Imaging unit 13 Display unit 14 Communication unit 2 Contents server 3 Model server N Network S Display system

Claims (6)

現実世界の構造物の三次元モデルを含むデータを特定するための特定情報を取得する特定情報取得部と、
撮像部が撮像中の撮像画像に前記特定情報で特定されるデータに含まれる前記三次元モデルを重畳させるマッチング部と、
前記三次元モデルが重畳された前記撮像画像を表示部に表示させる表示制御部と、
前記三次元モデルを規定する三次元座標系で特定される空間に設置するためのAR(Augmented Reality)オブジェクトの選択と、前記三次元座標系における前記ARオブジェクトの設置位置及び設置向きの設定と、を受け付けるオブジェクト管理部と、を備え、
前記表示制御部は、前記表示部に、選択された前記ARオブジェクトを前記設置位置に前記設置向きで表示させる、
情報処理装置。
a specific information acquisition unit that acquires specific information for specifying data including a three-dimensional model of a structure in the real world;
a matching unit that superimposes the three-dimensional model included in the data specified by the specific information on the captured image being captured by the imaging unit;
a display control unit that causes a display unit to display the captured image on which the three-dimensional model is superimposed;
Selection of an AR (Augmented Reality) object to be installed in a space specified by a three-dimensional coordinate system that defines the three-dimensional model, setting of the installation position and installation orientation of the AR object in the three-dimensional coordinate system; an object management unit that accepts
The display control unit causes the display unit to display the selected AR object at the installation position in the installation orientation.
Information processing equipment.
選択された前記ARオブジェクトを特定する情報と、前記ARオブジェクトの設置位置と設置向きとの設定を示す情報とを含むオブジェクト情報を、コンテンツサーバに送信する通信部をさらに備える、
請求項1に記載の情報処理装置。
further comprising a communication unit that transmits object information including information specifying the selected AR object and information indicating the setting of the installation position and installation orientation of the AR object to the content server;
The information processing device according to claim 1 .
前記特定情報取得部は、現実世界において前記構造物が存在する位置を示す情報を、前記特定情報としてユーザから取得する、
請求項1又は2に記載の情報処理装置。
The specific information acquisition unit acquires information indicating a position where the structure exists in the real world from the user as the specific information.
The information processing apparatus according to claim 1 or 2.
前記マッチング部は、前記三次元モデルを規定する三次元座標系のうちの2つの軸で特定される平面を前記撮像画像中に含まれる平面形状の被写体とマッチングさせて前記撮像画像と前記三次元モデルとを重畳させる、
請求項1から3のいずれか1項に記載の情報処理装置。
The matching unit matches a plane specified by two axes in a three-dimensional coordinate system that defines the three-dimensional model with a planar object included in the captured image, thereby matching the captured image and the three-dimensional model. superimposed with the model,
The information processing apparatus according to any one of claims 1 to 3.
プロセッサが、
現実世界の構造物の三次元モデルを含むデータを特定するための特定情報を取得するステップと、
撮像部が撮像中の撮像画像に前記特定情報で特定されるデータに含まれる前記三次元モデルを重畳させるステップと、
前記三次元モデルが重畳された前記撮像画像を表示部に表示させるステップと、
前記三次元モデルを規定する三次元座標系で特定される空間に設置するためのARオブジェクトの選択と、前記三次元座標系における前記ARオブジェクトの設置位置及び設置向きの設定と、を受け付けるステップと、
前記表示部に、選択された前記ARオブジェクトを前記ARオブジェクトの前記設置位置に前記設置向きで表示させるステップと、を実行する、
情報処理方法。
the processor
obtaining identification information for identifying data containing a three-dimensional model of a real-world structure;
a step of superimposing the three-dimensional model included in the data specified by the specific information on the captured image being captured by the imaging unit;
a step of displaying the captured image on which the three-dimensional model is superimposed on a display unit;
receiving selection of an AR object to be installed in a space specified by a three-dimensional coordinate system that defines the three-dimensional model, and setting of an installation position and an installation orientation of the AR object in the three-dimensional coordinate system; ,
causing the display unit to display the selected AR object at the installation position of the AR object in the installation orientation;
Information processing methods.
コンピュータに、
現実世界の構造物の三次元モデルを含むデータを特定するための特定情報を取得する機能と、
撮像部が撮像中の撮像画像に前記特定情報で特定されるデータに含まれる前記三次元モデルを重畳させる機能と、
前記三次元モデルが重畳された前記撮像画像を表示部に表示させる機能と、
前記三次元モデルを規定する三次元座標系で特定される空間に設置するためのARオブジェクトの選択と、前記三次元座標系における前記ARオブジェクトの設置位置及び設置向きの設定と、を受け付ける機能と、
前記表示部に、選択された前記ARオブジェクトを前記ARオブジェクトの前記設置位置に前記設置向きで表示させる機能と、を実現させる、
プログラム。
to the computer,
the ability to obtain specific information for identifying data containing a three-dimensional model of a real-world structure;
a function of superimposing the three-dimensional model included in the data specified by the specific information on the captured image being captured by the imaging unit;
a function of displaying the captured image on which the three-dimensional model is superimposed on a display unit;
a function of accepting the selection of an AR object to be installed in a space specified by a three-dimensional coordinate system that defines the three-dimensional model, and the setting of the installation position and installation orientation of the AR object in the three-dimensional coordinate system; ,
a function of causing the display unit to display the selected AR object at the installation position of the AR object in the installation orientation;
program.
JP2021024685A 2021-02-18 2021-02-18 Information processing equipment, information processing methods, and programs Active JP7082698B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021024685A JP7082698B1 (en) 2021-02-18 2021-02-18 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021024685A JP7082698B1 (en) 2021-02-18 2021-02-18 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP7082698B1 JP7082698B1 (en) 2022-06-08
JP2022126546A true JP2022126546A (en) 2022-08-30

Family

ID=81940211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021024685A Active JP7082698B1 (en) 2021-02-18 2021-02-18 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP7082698B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168798A (en) * 2011-02-15 2012-09-06 Sony Corp Information processing device, authoring method, and program
JP2014149712A (en) * 2013-02-01 2014-08-21 Sony Corp Information processing device, terminal device, information processing method, and program
JP2016197342A (en) * 2015-04-03 2016-11-24 株式会社サイバーウォーカー Augmented reality program, augmented reality providing method, augmented reality providing device, and information delivery method
JP2018205828A (en) * 2017-05-30 2018-12-27 株式会社タカラトミー Ar video generation device
JP2019179382A (en) * 2018-03-30 2019-10-17 株式会社スクウェア・エニックス Information processing program, information processing method and information processing system
JP2020013231A (en) * 2018-07-14 2020-01-23 株式会社アンジー Augmented reality program and information processing apparatus
JP2020531985A (en) * 2017-08-31 2020-11-05 アップル インコーポレイテッドApple Inc. Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168798A (en) * 2011-02-15 2012-09-06 Sony Corp Information processing device, authoring method, and program
JP2014149712A (en) * 2013-02-01 2014-08-21 Sony Corp Information processing device, terminal device, information processing method, and program
JP2016197342A (en) * 2015-04-03 2016-11-24 株式会社サイバーウォーカー Augmented reality program, augmented reality providing method, augmented reality providing device, and information delivery method
JP2018205828A (en) * 2017-05-30 2018-12-27 株式会社タカラトミー Ar video generation device
JP2020531985A (en) * 2017-08-31 2020-11-05 アップル インコーポレイテッドApple Inc. Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
JP2019179382A (en) * 2018-03-30 2019-10-17 株式会社スクウェア・エニックス Information processing program, information processing method and information processing system
JP2020013231A (en) * 2018-07-14 2020-01-23 株式会社アンジー Augmented reality program and information processing apparatus

Also Published As

Publication number Publication date
JP7082698B1 (en) 2022-06-08

Similar Documents

Publication Publication Date Title
US11509825B2 (en) Image management system, image management method, and computer program product
JP6496671B2 (en) Information processing apparatus, terminal apparatus, information processing method, and program
JP2012168646A (en) Information processing apparatus, information sharing method, program, and terminal device
WO2013145566A1 (en) Information processing apparatus, information processing method, and program
WO2012112009A2 (en) Method and mobile apparatus for displaying an augmented reality
US9690533B2 (en) Displaying system, display controller, storage medium and method
US10672191B1 (en) Technologies for anchoring computer generated objects within augmented reality
JP6093841B2 (en) System, information processing method and program
US20220035592A1 (en) Image management system, image management method, and program
CN112667179B (en) Remote synchronous collaboration system based on mixed reality
JP6686547B2 (en) Image processing system, program, image processing method
JP2014203175A (en) Information processing device, information processing method, and program
JP2013228311A (en) Navigation system, navigation method, and navigation program
JP2018097581A (en) Information processing device and program
JP2011060254A (en) Augmented reality system and device, and virtual object display method
JP2018097694A (en) Transmission control program, transmission control method, and information apparatus
WO2019098739A1 (en) Map information providing method using geotagging information, service server, and computer program recording medium therefor
JP2022126546A (en) Information processing apparatus, information processing method, and program
JP2017108356A (en) Image management system, image management method and program
JP2022126547A (en) Information processing apparatus, information processing method, and program
JP5377071B2 (en) Astronomical guidance device, celestial guidance method, and program
JP2015072607A (en) Information processing apparatus, information processing method, and program
US20240144547A1 (en) Electronic device for providing information on virtual space and method thereof
WO2022004156A1 (en) Information setting control device, method, and program
JP2014225782A (en) Information processing device, communication terminal, and data acquisition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220527

R150 Certificate of patent or registration of utility model

Ref document number: 7082698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150