JP7261121B2 - Information terminal device and program - Google Patents

Information terminal device and program Download PDF

Info

Publication number
JP7261121B2
JP7261121B2 JP2019149154A JP2019149154A JP7261121B2 JP 7261121 B2 JP7261121 B2 JP 7261121B2 JP 2019149154 A JP2019149154 A JP 2019149154A JP 2019149154 A JP2019149154 A JP 2019149154A JP 7261121 B2 JP7261121 B2 JP 7261121B2
Authority
JP
Japan
Prior art keywords
information
user
unit
terminal device
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019149154A
Other languages
Japanese (ja)
Other versions
JP2021033377A (en
Inventor
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019149154A priority Critical patent/JP7261121B2/en
Publication of JP2021033377A publication Critical patent/JP2021033377A/en
Application granted granted Critical
Publication of JP7261121B2 publication Critical patent/JP7261121B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、他端末からの情報共有を簡素に実現できる、情報端末装置、プログラム、提示システム及びサーバに関する。 The present invention relates to an information terminal device, a program, a presentation system, and a server that can simply share information from other terminals.

撮像情報に提示情報を重畳する拡張現実が広く知られている。しかし、複数端末における共用においては利用可能な範囲が限定的であるという問題があり、従来技術の拡張現実において様々な対処がなされている。 Augmented reality that superimposes presentation information on imaging information is widely known. However, there is a problem that the usable range is limited when shared by a plurality of terminals, and various countermeasures have been taken in conventional augmented reality.

例えば、特許文献1はサーバが複数のワイドカメラから競技場のパノラマ合成映像を作成し、選手等の位置を画像認識する。認識されたパノラマ合成画像中の位置は複数の端末に配信され、各端末が競技場のフィールドラインをもとに端末の位置・姿勢を画像認識し、認識結果に応じて関連情報を重畳する。 For example, in Japanese Unexamined Patent Application Publication No. 2002-100000, a server creates a panoramic composite image of a stadium from a plurality of wide cameras and recognizes the positions of athletes and the like. The recognized position in the panoramic composite image is distributed to multiple terminals, and each terminal recognizes the position and posture of the terminal based on the field line of the stadium, and superimposes related information according to the recognition result.

非特許文献1は前方車両で遮蔽された情景を後方車両から確認できるようにするため、前方車両が後方車両に撮像情報を伝送し、前方の撮像情報と後方車両の撮像情報との特徴点対応に基づいたアフィン変換を前方車両の撮像情報に適用し後方車両の撮像情報と合成する。 In Non-Patent Document 1, in order to allow the vehicle behind to see the scene blocked by the vehicle ahead, the vehicle ahead transmits image information to the vehicle behind, and the image information of the front and the image information of the vehicle behind correspond to feature points. is applied to the imaging information of the forward vehicle, and synthesized with the imaging information of the rear vehicle.

非特許文献2も前方車両で遮蔽された情景を後方車両から確認できるようにするため、前方車両が後方車両に三次元復元した点群や特徴量等を伝送し、後方車両の自己位置推定結果に基づいた射影変換を前方車両の撮像情報に適用し後方車両の撮像情報と合成する。 In Non-Patent Document 2, in order to allow the rear vehicle to confirm the scene blocked by the front vehicle, the front vehicle transmits the three-dimensionally restored point cloud and feature values to the rear vehicle, and the self-position estimation result of the rear vehicle. is applied to the imaging information of the forward vehicle and combined with the imaging information of the rear vehicle.

特許文献2は他端末との近距離通信において他端末で測位された位置情報と他端末の周囲環境に依存した情報(他端末の信号強度など)とを受信することで、他端末の周囲環境に依存した情報を位置に紐づけて撮像情報に提示する。 In Patent Document 2, in short-range communication with other terminals, by receiving position information determined by other terminals and information depending on the surrounding environment of other terminals (such as signal strength of other terminals), the surrounding environment of other terminals can be detected. Information that depends on the position is linked to the position and presented to the imaging information.

再表2016-017121号公報Retable 2016-017121 特開2017-143409号公報JP 2017-143409 A

"Occluded Street Objects Perception Algorithm of Intelligent Vehicles Based on 3D Projection Model", JAT, 2018."Occluded Street Objects Perception Algorithm of Intelligent Vehicles Based on 3D Projection Model", JAT, 2018. "A Real-time Augmented Reality System to See-Through Cars", IEEE TVCG, 2016."A Real-time Augmented Reality System to See-Through Cars", IEEE TVCG, 2016.

しかしながら、以上のような従来技術には次の課題があった。 However, the conventional techniques as described above have the following problems.

特許文献1はワイドカメラが撮影可能な空間に限定されるため、広域化は困難であるという課題がある。また、サーバが画像認識に失敗する可能性が高いという課題がある。例えば、選手が重なって背番号などが遮蔽されると選手を検出・特定できない。そもそも背番号などの個人を特定する対象が無ければ関連情報を重畳できないという課題がある。 Patent document 1 is limited to a space that can be photographed by a wide camera, so there is a problem that it is difficult to widen the area. Also, there is a problem that the server is highly likely to fail in image recognition. For example, players cannot be detected and identified if the players are overlapped and their jersey numbers are blocked. In the first place, there is a problem that related information cannot be superimposed unless there is an object for identifying an individual, such as a jersey number.

非特許文献1,2も同じ課題を抱える。すなわち、撮像情報中から車や人という種別を画像認識したとしても個別の情報を開示する手段は開示されていない。また、前方車両と後方車両が同じ情景を撮像していないと機能しないという課題がある。例えば、図4のような状況下では前方車両VBの撮像情報と後方車両VAの撮像情報に同じ情景が撮像されないため一切機能しない。(なお、図4に関しては別の説明のために後述する。ここでは、図4は次の理由により当該一切機能しない状況が発生することを模式的に表している。すなわち、街角などのフィールドF1において前方車両VBはその走行方向dBを撮像しており、後方車両VAはその走行方向dAを撮像している状況を上空側から見た状況を図4は表しており、撮像の方向dB,dAが異なること及び遮蔽物としての建物の壁W1が存在することによって前後車両の撮像情報同士に共通の情景が含まれないため、当該一切機能しない状況が発生する。) Non-Patent Documents 1 and 2 also have the same problem. In other words, even if the type of image, such as a car or a person, is image-recognized from the imaging information, no means is disclosed for disclosing individual information. Moreover, there is a problem that it does not function unless the front vehicle and the rear vehicle capture the same scene. For example, under the situation shown in FIG. 4, the same scene is not imaged in the imaging information of the forward vehicle VB and the imaging information of the rearward vehicle VA, so it does not function at all. (Note that FIG. 4 will be described later for another explanation. Here, FIG. 4 schematically represents that the situation where the function does not work at all occurs due to the following reason. That is, field F1 such as street corner In FIG. 4, the front vehicle VB captures an image in its running direction dB, and the rear vehicle VA captures an image in its running direction dA. ) and the existence of the wall W1 of the building as a shield, the imaged information of the front and rear vehicles do not include a common scene, so a situation in which it does not function at all occurs.)

さらに、非特許文献1,2では、同じ情景を撮像している場合でも、同機能の活用が期待される夜間や悪天候ほど特徴点対応、三次元復元、自己位置推定に失敗する可能性が高いという課題がある。なおかつ、遮蔽物が無い場合の視野を再現しようとするため、遮蔽物そのものを見失う恐れがあり危険回避という本来の目的に合致しない恐れがあるという課題がある。 Furthermore, in Non-Patent Documents 1 and 2, even when the same scene is captured, there is a high possibility that feature point correspondence, three-dimensional reconstruction, and self-position estimation will fail at night or in bad weather, when the same function is expected to be used. There is a problem. In addition, since the field of view is reproduced when there is no shielding object, there is a possibility that the shielding object itself may be lost, and there is a possibility that the original purpose of avoiding danger may not be met.

特許文献2は上記課題を一部解決する。即ち、他端末からの情報を受信することで全体を俯瞰する撮像部が不要となるため、天候や時間帯に依存せず、かつ個人を特定できる。しかしながら、他端末の数が多数であった場合に他端末や軌跡などを描画する画像は視認者にとって煩わしい提示となり得た。また、任意視点からの描画は表示されない。 Patent Document 2 partially solves the above problem. In other words, receiving information from other terminals eliminates the need for an imaging unit that takes a bird's-eye view of the whole, so that an individual can be identified without depending on the weather or the time of day. However, when the number of other terminals is large, the presentation of an image depicting the other terminals, the trajectory, and the like may be troublesome for the viewer. Also, drawing from an arbitrary viewpoint is not displayed.

以上のような従来技術の課題に鑑み、本発明は、他端末からの情報共有を簡素に実現できる、情報端末装置、プログラム、提示システム及びサーバを提供することを目的とする。 SUMMARY OF THE INVENTION In view of the problems of the prior art as described above, it is an object of the present invention to provide an information terminal device, a program, a presentation system, and a server that can simply implement information sharing from other terminals.

上記目的を達成するため、本発明は情報端末装置であって、自身の位置姿勢を計測する計測部と、1つ以上の他端末においてそれぞれ計測された位置の情報と公開設定された開示情報とを参照することで、前記計測した自身の位置姿勢を基準とした3次元仮想空間 内において、前記1つ以上の他端末の開示情報を当該他端末の位置に配置して描画することで描画情報を得る描画部と、前記描画情報を提示する提示部と、を備えることを特徴とする。また、本発明は、コンピュータを前記情報端末装置として機能させるプログラムであることを特徴とする。また、本発明は、2つ以上の情報端末装置と、サーバと、を備える提示システムであって、前記情報端末装置の各々は、自身の位置姿勢を計測する計測部と、公開設定する開示情報を受け付ける開示部と、を備え、当該位置姿勢の情報及び当該開示情報を前記サーバへと送信し、前記サーバは、前記情報端末装置の各々より受信した位置姿勢の情報及び開示情報を参照して、前記情報端末装置の各々に対して、自身の位置姿勢を基準とした3次元仮想空間内において、1つ以上の他端末の開示情報を当該他端末の位置に配置して描画を行うことで描画情報を得る描画部を備え、当該描画情報を対応する情報端末装置へと送信し、前記情報端末装置の各々はさらに、前記送信された描画情報を提示する提示部を備えることを特徴とする。さらに、本発明は、前記提示システムにおけるサーバであることを特徴とする。 To achieve the above object, the present invention provides an information terminal device comprising: a measuring unit that measures its own position and orientation; position information measured by one or more other terminals; By referring to, in a three-dimensional virtual space based on the measured position and orientation of itself and a presentation unit for presenting the drawing information. Further, the present invention is characterized by a program that causes a computer to function as the information terminal device. Further, the present invention is a presentation system comprising two or more information terminal devices and a server, wherein each of the information terminal devices includes a measurement unit that measures its own position and orientation, and disclosure information that is set to be public. and a disclosure unit that receives the position and orientation information and the disclosure information to the server, and the server refers to the position and orientation information and the disclosure information received from each of the information terminal devices. , for each of the information terminal devices, in a three-dimensional virtual space based on the position and orientation of the information terminal device, disclosing information of one or more other terminals is arranged at the position of the other terminal and drawn. A drawing unit that obtains drawing information, transmits the drawing information to a corresponding information terminal device, and each of the information terminal devices further includes a presentation unit that presents the transmitted drawing information. . Furthermore, the present invention is characterized by being a server in the presentation system.

本発明によれば、他端末において能動的に開示情報を公開するものとして設定し、仮想空間に当該開示情報を配置して描画したうえで提示することにより、情報共有を簡素に実現することができる。 According to the present invention, it is possible to simply implement information sharing by setting disclosure information to be actively disclosed on other terminals, arranging the disclosure information in a virtual space, drawing it, and presenting it. can.

一実施形態に係る提示システムの構成例を示す図である。It is a figure which shows the structural example of the presentation system which concerns on one Embodiment. 一実施形態に係る提示システムの情報端末装置及びサーバの機能ブロック図である。1 is a functional block diagram of an information terminal device and a server of a presentation system according to one embodiment; FIG. 一実施形態に係る提示システムのリアルタイムの動作を示す図である。FIG. 2 illustrates real-time operation of a presentation system according to one embodiment; 撮像部が撮像を行う実世界の模式例としての街角のフィールドを、上空側から見た状況を表す模式図である。FIG. 3 is a schematic diagram showing a street corner field as a model example of the real world in which an imaging unit captures an image, as viewed from above. 図4の状況において撮像される撮像画像の模式例を示す図である。5 is a diagram showing a schematic example of a captured image captured in the situation of FIG. 4; FIG. 一実施形態に係る計測部の機能ブロック図である。4 is a functional block diagram of a measurement unit according to one embodiment; FIG. 深度情報の模式例を示す図である。It is a figure which shows the model example of depth information. 描画部が描画する仮想空間の模式例を示す図である。FIG. 4 is a diagram showing a schematic example of a virtual space drawn by a drawing unit; 図8の仮想空間における描画部での描画と提示部での重畳表示との模式例を種々の実施形態に関して示す図である。9A and 9B are diagrams showing schematic examples of drawing by the drawing unit and superimposed display by the presentation unit in the virtual space of FIG. 8 with respect to various embodiments; 第二実施形態の適用例としてアバタによるコミュニケーション等を行う際の仮想空間等の配置の模式例を示す図である。FIG. 10 is a diagram showing a schematic example of arrangement of virtual space and the like when performing communication and the like using avatars as an application example of the second embodiment. 第二実施形態を説明するための、図10に対応する模式例を示す図である。FIG. 11 is a diagram showing a schematic example corresponding to FIG. 10 for explaining the second embodiment; 第二実施形態の変形例の模式例を示す図である。It is a figure which shows the schematic example of the modification of 2nd embodiment. 一般的はコンピュータ装置におけるハードウェア構成を示す図である。1 is a diagram generally showing a hardware configuration in a computer device; FIG.

図1は、一実施形態に係る提示システムの構成例を示す図であり、提示システム100は、ユーザA,B,Cと共にそれぞれ移動する情報端末装置10-A,10-B,10-Cとサーバ20とを備え、これらはネットワークNWを通じて相互に通信可能に構成されている。図1では、提示システム100内に3人のユーザの3つの情報端末装置が備わるものとしているが、これは例示に過ぎず、任意の複数(2つ以上)の情報端末装置が備わってよい。 FIG. 1 is a diagram showing a configuration example of a presentation system according to one embodiment. and a server 20, which are configured to be able to communicate with each other through the network NW. In FIG. 1, three information terminal devices for three users are provided in the presentation system 100, but this is merely an example, and any number of (two or more) information terminal devices may be provided.

なお、以降の説明においても、3つの情報端末装置10-A,10-B,10-Cあるいはこの一部分を参照する場合は、説明上の例示(特に、1人の自ユーザA及びその自端末としての情報端末装置10-Aと、1人以上の任意数の他ユーザB,C等及びその1つ以上の他端末としての情報端末装置10-B,10-C等と、の区別を明確化するための例示)に過ぎず、各説明は任意の複数(少なくとも2つ)の情報端末装置を備えて提示システム100が構成される場合に一般化可能である。 In the following description, when referring to the three information terminal devices 10-A, 10-B, and 10-C or a portion thereof, an example for explanation (in particular, one own user A and its own terminal and the information terminal device 10-A as one or more arbitrary number of other users B, C, etc. and the information terminal devices 10-B, 10-C, etc. as one or more other terminals. Each description can be generalized when the presentation system 100 is configured with any plurality of (at least two) information terminal devices.

複数の情報端末装置10-A,10-B,10-C等はそれぞれ、スマートフォン端末等として構成されることでユーザA,B,C等によって所持されて移動するものであってもよいし、ユーザA,B,C等が利用する車両等の移動手段に設置される装置として構成されることで移動するものであってもよい。 Each of the plurality of information terminal devices 10-A, 10-B, 10-C, etc. may be configured as a smartphone terminal or the like, and may be carried and moved by users A, B, C, etc., It may move by being configured as a device installed in a moving means such as a vehicle used by users A, B, C, and the like.

図2は、一実施形態に係る提示システム100の情報端末装置10及びサーバ20の機能ブロック図である。情報端末装置10は、撮像部11、計測部12、開示部13及び提示部14を備え、サーバ20は、保存部21及び描画部22を備える。図2に示す情報端末装置10は、図1に任意の複数の一例として3つの場合を示した各情報端末装置10-A,10-B,10-Cでの共通の機能ブロック図である。すなわち、図1の各情報端末装置10-A,10-B,10-Cはいずれも図2の情報端末装置10の構成の全部又は一部を有するものであってよい。 FIG. 2 is a functional block diagram of the information terminal device 10 and server 20 of the presentation system 100 according to one embodiment. The information terminal device 10 includes an imaging unit 11, a measurement unit 12, a disclosure unit 13, and a presentation unit 14, and the server 20 includes a storage unit 21 and a drawing unit 22. The information terminal device 10 shown in FIG. 2 is a functional block diagram common to each of the information terminal devices 10-A, 10-B, and 10-C showing three cases as an arbitrary plurality of examples in FIG. That is, each of the information terminal devices 10-A, 10-B, and 10-C in FIG. 1 may have all or part of the configuration of the information terminal device 10 in FIG.

一実施形態に係る提示システム100の概略的な動作は次の通りであり、大きく(1)情報取得、(2)描画、(3)提示、の3つの処理に分けることができる。 The general operation of the presentation system 100 according to one embodiment is as follows, and can be roughly divided into three processes: (1) information acquisition, (2) rendering, and (3) presentation.

(1)情報取得…撮像部11、計測部12及び開示部13
まず、情報端末装置10の側において、撮像部11は、撮像を行って得られた撮像画像を計測部12及び提示部14へと出力する。計測部12は撮像画像を解析して、あるいはGPS(全地球測位システム)等の測位手段を用いて情報端末装置10の位置姿勢の情報を含む測位情報を取得し、当該計測情報をサーバ20の保存部21へと送信する。開示部13は、情報端末装置10を利用するユーザによる入力等によって、拡張現実表示として他ユーザに公開設定する情報である開示情報を受け付け、当該開示情報をサーバ20の保存部21へと送信する。
(1) Acquisition of information: imaging unit 11, measurement unit 12, and disclosure unit 13
First, on the information terminal device 10 side, the imaging unit 11 outputs a captured image obtained by performing imaging to the measurement unit 12 and the presentation unit 14 . The measurement unit 12 acquires positioning information including information on the position and orientation of the information terminal device 10 by analyzing the captured image or using positioning means such as GPS (Global Positioning System), and sends the measurement information to the server 20. Send to the storage unit 21 . The disclosure unit 13 receives disclosure information, which is information set to be disclosed to other users as an augmented reality display, by input from a user using the information terminal device 10, and transmits the disclosure information to the storage unit 21 of the server 20. .

(2)描画…保存部21及び描画部22
一方、サーバ20の側において、保存部21は、各ユーザの情報端末装置10における計測部12及び開示部13からそれぞれ送信される計測情報及び開示情報を当該ユーザのものとしてユーザID(識別子)を紐づけて保存することにより、描画部22からの参照を可能とする。描画部22は保存部21を参照して、それぞれのユーザの情報端末装置10に応じた描画情報を描画し、当該描画情報を対応するユーザの情報端末装置10の提示部14へと送信する。
(2) Drawing...storage unit 21 and drawing unit 22
On the other hand, on the side of the server 20, the storage unit 21 assigns the user ID (identifier) to the measurement information and disclosure information transmitted from the measurement unit 12 and the disclosure unit 13 of each user's information terminal device 10 as those of the user. By linking and saving, reference from the drawing unit 22 becomes possible. The drawing unit 22 refers to the storage unit 21, draws drawing information corresponding to the information terminal device 10 of each user, and transmits the drawing information to the presentation unit 14 of the information terminal device 10 of the corresponding user.

(3)提示…提示部14
情報端末装置10において、提示部14は、撮像部11で得た撮像画像に描画部22から得た描画情報を重畳したものを、拡張現実表示を実現した提示情報としてユーザに対して提示する。
(3) Presentation: presentation unit 14
In the information terminal device 10, the presentation unit 14 presents the captured image obtained by the imaging unit 11 with the drawing information obtained from the drawing unit 22 superimposed to the user as presentation information realizing an augmented reality display.

例えば図1のように提示システム100内の情報端末装置10が、ユーザA,B,Cの情報端末装置10-A,10-B,10-Cの3つである場合、描画部22ではユーザAの情報端末装置10-Aのための描画情報を次のようにして描画することができる。まず、描画情報はユーザAの情報端末装置10における撮像部11(カメラ)での撮像画像に重畳させるものであるため、このカメラの外部パラメータ(カメラの位置姿勢を表す)によるカメラ座標系において描画を行うために、描画部22は保存部21より当該ユーザAの計測情報に含まれる外部パラメータの情報を取得する。 For example, when there are three information terminal devices 10-A, 10-B, and 10-C of users A, B, and C in the presentation system 100 as shown in FIG. Drawing information for A's information terminal device 10-A can be drawn as follows. First, since the drawing information is to be superimposed on the image captured by the imaging unit 11 (camera) in the information terminal device 10 of user A, the drawing information is drawn in the camera coordinate system based on the camera's external parameters (representing the position and orientation of the camera). , the drawing unit 22 acquires external parameter information included in the measurement information of the user A from the storage unit 21 .

そして、描画部22は、保存部21より他ユーザであるユーザB,Cに関してそれぞれ保存されている計測情報及び開示情報を参照することによって、当該ユーザAのカメラの外部パラメータ(位置姿勢)によるカメラ座標系において、他ユーザB,Cの開示情報を描画することで、ユーザAの情報端末装置10の提示部14において撮像画像と重畳して提示されるものとしてユーザAの描画情報を得る。この詳細に関しては後述するが、自ユーザAの計測情報と他ユーザB,Cの計測情報とを比較することにより、拡張現実として表示する範囲外にあると判定された場合等には、当該他ユーザB,Cの開示情報の描画を行わない場合や、描画の態様を変更する場合もある。 Then, the drawing unit 22 refers to the measurement information and the disclosure information stored for each of the users B and C, who are other users, from the storage unit 21, thereby obtaining a camera image based on the external parameters (position and orientation) of the camera of the user A. By drawing the disclosure information of the other users B and C in the coordinate system, the drawing information of the user A is obtained as superimposed and presented on the captured image in the presentation unit 14 of the information terminal device 10 of the user A. Details of this will be described later, but by comparing the measurement information of user A with the measurement information of other users B and C, if it is determined that it is outside the range to be displayed as augmented reality, the other user Disclosure information of users B and C may not be drawn, or the manner of drawing may be changed.

提示システム100に存在する情報端末装置10が情報端末装置10-A,10-B,10-Cの3つではなく任意の複数である場合も同様に、描画部22では、各ユーザ(それぞれが「自ユーザ」である)の情報端末装置10に対して、自ユーザの位置姿勢において他ユーザの開示情報を選択的に描画することによって描画情報を得る。 Similarly, when the number of information terminal devices 10 present in the presentation system 100 is not the three information terminal devices 10-A, 10-B, and 10-C, but an arbitrary plurality of information terminal devices 10-A, 10-B, and 10-C, Drawing information is obtained by selectively drawing disclosure information of other users in the position and orientation of the own user on the information terminal device 10 of the user ("own user").

提示システム100では、リアルタイムに各ユーザの情報端末装置10より計測情報及び開示情報をサーバ20において取得して描画を行い、リアルタイムに各ユーザの情報端末装置10において当該描画情報を提示することができる。図3は、一実施形態に係る提示システム100の当該リアルタイムの動作を、各時刻t(t=1,2,3,…)で繰り返して実行される共通の処理ステップ群S(t)として、提示システム100内での各装置の処理ステップにより示す図である。なお、図3では下側方向が時間進行の向きを表し、横側方向が各々の情報端末装置10とサーバ20との間での情報の送受信の様子を表している。 In the presentation system 100, the server 20 acquires the measurement information and the disclosure information from the information terminal device 10 of each user in real time, draws the image, and can present the drawing information in real time on the information terminal device 10 of each user. . FIG. 3 shows the real-time operation of the presentation system 100 according to one embodiment as a group of common processing steps S(t) repeatedly executed at each time t (t=1, 2, 3, . . . ), 3 is a diagram showing processing steps of each device in the presentation system 100. FIG. In FIG. 3 , the downward direction represents the direction of time progression, and the horizontal direction represents how information is transmitted and received between each information terminal device 10 and the server 20 .

図3にて各装置の処理ステップは前述した(1)情報取得、(2)描画、(3)提示の処理の時刻tにおけるものとして示されており、例えば、情報端末装置10-Aに関して次の通りである。ステップGA(t)にて自身での情報取得(撮像部11による撮像画像、計測部12による計測情報及び開示部13による開示情報の取得)を行い、計測情報と開示情報に関してはユーザA(情報端末装置10-A)に紐づいた情報として、サーバ20の保存部へと送信する。ステップRA(t)にて、サーバ20の描画部22は、ユーザA(情報端末装置10-A)のための描画情報を描画して、情報端末装置10-Aへと送信する。ステップDA(t)にて、情報端末装置10-Aの提示部14は、受信した描画情報を撮像画像に重畳することで得られる拡張現実表示をユーザAに対して提示する。 In FIG. 3, the processing steps of each device are shown at the time t of the aforementioned processing of (1) information acquisition, (2) drawing, and (3) presentation. is as follows. In step GA(t), information is acquired by itself (captured image by the imaging unit 11, measurement information by the measurement unit 12, and disclosure information by the disclosure unit 13). It is transmitted to the storage unit of the server 20 as information associated with the terminal device 10-A). At step RA(t), the drawing unit 22 of the server 20 draws drawing information for the user A (the information terminal device 10-A) and transmits the drawing information to the information terminal device 10-A. At step DA(t), the presentation unit 14 of the information terminal device 10-A presents to the user A an augmented reality display obtained by superimposing the received drawing information on the captured image.

図3にて同様に、ステップGB(t),RB(t)及びDB(t)は情報端末装置10-Bに関する時刻tでの情報取得、描画及び提示の処理ステップであり、ステップGC(t),RC(t)及びDC(t)は情報端末装置10-Cに関する時刻tでの情報取得、描画及び提示の処理ステップである。 Similarly in FIG. 3, steps GB(t), RB(t), and DB(t) are processing steps for acquiring, drawing, and presenting information at time t regarding the information terminal device 10-B, and step GC(t ), RC(t) and DC(t) are the processing steps for information acquisition, rendering and presentation at time t for the information terminal device 10-C.

以上の概略説明のように、各々の情報端末装置10に関して共通の処理によりリアルタイムで拡張現実表示を行うことが可能な提示システム100の各機能部に関して、その詳細を以下に説明する。 As outlined above, the functional units of the presentation system 100 capable of performing real-time augmented reality display by common processing for each information terminal device 10 will be described in detail below.

(撮像部11)
撮像部11は、情景を撮像して撮像画像を得て、計測部12及び提示部14へ出力する。(なお、計測部12への撮像画像の出力は、計測部12において必要な場合のみでよく、計測部12で撮像画像を必要としない実施形態ではこの出力を省略してよい。)撮像部11を実現するハードウェアとしてはスマートフォン等の携帯端末に標準装備されるデジタルカメラ等を用いることができる。
(imaging unit 11)
The imaging unit 11 captures a scene to obtain a captured image, and outputs the captured image to the measurement unit 12 and the presentation unit 14 . (It should be noted that the output of the captured image to the measuring unit 12 is only required when the measuring unit 12 needs it, and in an embodiment in which the measuring unit 12 does not require the captured image, this output may be omitted.) The imaging unit 11 A digital camera or the like standardly installed in a mobile terminal such as a smart phone can be used as hardware for realizing the above.

図4は撮像部11が撮像を行う実世界の模式例としての街角のフィールドF1を、上空側から見た状況を表す模式図である。フィールドF1には壁W1と、ユーザA,B,Cのそれぞれの情報端末装置10-A,10-B,10-Cとが存在し、情報端末装置10-A,10-Bはそれぞれ方向dA,dBに向かって道路上を走行している車両VA,VBに搭載され、情報端末装置10-Cは歩行者であるユーザCによって保持されている。 FIG. 4 is a schematic diagram showing a street corner field F1 as a model example of the real world in which the imaging unit 11 captures an image, as viewed from above. A wall W1 and information terminal devices 10-A, 10-B, and 10-C of users A, B, and C exist in the field F1. , dB, and the information terminal device 10-C is carried by a user C who is a pedestrian.

図5は、図4の状況において撮像される撮像画像の模式例を示す図であり、具体的には、図4の情報端末装置10-Aの撮像部11がその前方の方向dAを撮像することで得られた撮像画像PAが模式例として示されている。撮像画像PAにおいてはユーザAの車両10-Aの前方dAの情景が撮像され、画像中央側及び右側に、車両10-Aの前方を左に向かって走行しており、情報端末装置10-BのユーザBが乗車している車両VBが撮像されると共に、画像左側には壁W1が撮像されている。図4に示される通り、この壁W1の奥には情報端末装置10-Cを保持するユーザCが存在するが、壁W1によって遮蔽されることで、撮像画像PAにおいてユーザC及び情報端末装置10-Cは撮像されていない。ここで、ユーザC及び情報端末装置10-Cは、仮に壁W1が存在しなかったとすることにより遮蔽が発生しないとする場合には、撮像画像PA内に撮像される範囲に位置している。なお、この図4及び図5の例は、以降の説明例においても適宜、前提となる状況を表すものとして参照する。 FIG. 5 is a diagram showing a schematic example of a captured image captured in the situation of FIG. 4. Specifically, the imaging unit 11 of the information terminal device 10-A in FIG. 4 captures an image in the forward direction dA. A captured image PA obtained by this is shown as a schematic example. In the imaged image PA, the scene dA in front of the vehicle 10-A of the user A is imaged. A vehicle VB in which the user B is riding is imaged, and a wall W1 is imaged on the left side of the image. As shown in FIG. 4, the user C holding the information terminal device 10-C exists behind the wall W1. -C is not imaged. Here, the user C and the information terminal device 10-C are positioned within the range captured in the captured image PA if it is assumed that the wall W1 does not exist and thus no shielding occurs. It should be noted that the examples of FIGS. 4 and 5 will also be referred to in the following explanation examples as appropriate, as they represent the prerequisite conditions.

(計測部12)
計測部12は、情報端末装置10の位置姿勢の情報を少なくとも含む計測情報を取得して、当該計測情報をサーバ20の保存部21へと送信する。計測情報を取得する際は、撮像部11で得た撮像画像を利用してもよいし、撮像画像を利用しない手法を用いるようにしてもよい。図6は一実施形態に係る計測部12の機能ブロック図であり、計測部12は位置姿勢を取得する位置姿勢取得部121と、内部パラメータを取得する内部パラメータ取得部122と、深度を取得する深度取得部123と、光源情報を取得する光源情報取得部124と、を備える。この各部121~124においても、各情報を取得する際には、撮像画像を利用する手法を用いてもよいし、利用しない手法を用いてもよい。
(Measurement part 12)
The measurement unit 12 acquires measurement information including at least position and orientation information of the information terminal device 10 and transmits the measurement information to the storage unit 21 of the server 20 . When acquiring the measurement information, the captured image obtained by the imaging unit 11 may be used, or a method that does not use the captured image may be used. FIG. 6 is a functional block diagram of the measurement unit 12 according to one embodiment. It includes a depth acquisition unit 123 and a light source information acquisition unit 124 that acquires light source information. Each of these units 121 to 124 may also use a method that uses a captured image or a method that does not use the captured image when acquiring each piece of information.

計測部12は少なくとも位置姿勢取得部121を備えることで、計測情報に位置姿勢の情報を含めて出力するが、残りの各部122~124の全部又は一部をさらに備えることで、内部パラメータ、深度、光源情報の全部又は一部を含めたものを計測情報として出力するようにしてもよい。 The measurement unit 12 includes at least the position/orientation acquisition unit 121 to output the measurement information including the position/orientation information. , all or part of the light source information may be output as the measurement information.

位置姿勢取得部121は、撮像部11をハードウェアとして構成するカメラの外部パラメータを、位置姿勢の情報として取得する。この際、任意の既存手法を用いてよい。例えば、スマートフォン等の携帯端末に標準装備される測位センサとしてのGPS、コンパス(方位センサ)、ジャイロ(角度センサ)を用いて位置姿勢情報を取得してもよい。また、撮像部11で得た撮像画像よりSIFT特徴量などの画像特徴情報を抽出することで、3次元座標情報が既知のマーカ等を撮像画像内において検出し、カメラキャリブレーションの手法により、撮像画像内でのマーカの座標と3次元座標情報との変換関係から位置姿勢情報を取得してもよい。また、屋内GPSの手法により、無線局からの電波強度等により無線局との距離を推定したうえで、三角測量等によって位置姿勢情報を取得してもよい。これら既存手法を組み合わせて位置姿勢情報を取得してもよい。 The position/orientation acquisition unit 121 acquires external parameters of a camera that configures the imaging unit 11 as hardware as position/orientation information. At this time, any existing method may be used. For example, position and orientation information may be acquired using a GPS, compass (orientation sensor), or gyro (angle sensor) as a positioning sensor that is standardly installed in a mobile terminal such as a smartphone. In addition, by extracting image feature information such as SIFT feature amount from the captured image obtained by the imaging unit 11, a marker or the like whose three-dimensional coordinate information is known is detected in the captured image. The position and orientation information may be acquired from the conversion relationship between the coordinates of the marker in the image and the three-dimensional coordinate information. Alternatively, the position and orientation information may be acquired by triangulation or the like after estimating the distance to the wireless station based on the radio wave intensity or the like from the wireless station using an indoor GPS method. The position and orientation information may be obtained by combining these existing methods.

内部パラメータ取得部122は、撮像部11をハードウェアとして構成するカメラの内部パラメータ(画角や焦点距離)を取得する。内部パラメータの取得は、位置姿勢取得部121にて外部パラメータを求める際と同様のカメラキャリブレーションの手法を用いて撮像画像から取得してもよいし、撮像部11を構成するカメラを制御するアクチュエータにアクセスできる場合は、このアクチュエータに対する駆動制御の信号から内部パラメータを取得してもよいし、撮像部11を構成するカメラによる撮像状況を表すExif情報などの形式で撮像画像に内部パラメータが紐づけて記録されている場合は、この記録から取得してもよい。 The internal parameter acquisition unit 122 acquires internal parameters (angle of view and focal length) of a camera that configures the imaging unit 11 as hardware. Intrinsic parameters may be obtained from captured images using the same camera calibration method as in obtaining external parameters in the position/orientation obtaining unit 121, or may be obtained from an actuator that controls the camera that constitutes the imaging unit 11. can be accessed, the internal parameters may be obtained from the drive control signal for this actuator, or the internal parameters are linked to the captured image in the form of Exif information representing the imaging situation by the camera that constitutes the imaging unit 11. may be obtained from this record.

内部パラメータ取得部122では、内部パラメータが時間変化しないことが既知の場合、ある1時刻のみにおいて内部パラメータを取得して保存部21へと送信し、保存部21では、当該1時刻で取得された内部パラメータが時間変化しないものとして、以降の時刻において継続して描画部22から参照されるようにすればよい。 When it is known that the internal parameters do not change over time, the internal parameter acquisition unit 122 acquires the internal parameters only at a certain time and transmits them to the storage unit 21. In the storage unit 21, the Assuming that the internal parameters do not change over time, the rendering unit 22 may continue to refer to them at subsequent times.

なお、カメラパラメータ(外部パラメータ及び内部パラメータ)は、3DCGの分野において数学的な関係として既知のように、「3次元世界座標系⇔3次元カメラ座標系⇒2次元投影座標系⇒ビューポート(撮像画像の画像平面)」の変換関係(ビューイングパイプラインの関係)に対応するものである。外部パラメータは前者の3次元座標系の間の変換を与え、内部パラメータは後者の3次元カメラ座標系から2次元画像平面への変換関係を与える。 Note that the camera parameters (external parameters and internal parameters) are known as mathematical relationships in the field of 3DCG, such as "three-dimensional world coordinate system ⇔ three-dimensional camera coordinate system ⇒ two-dimensional projection coordinate system ⇒ viewport (imaging The image plane of the image)” corresponds to the transformation relationship (viewing pipeline relationship). The extrinsic parameters give the transformation between the former three-dimensional coordinate systems, and the intrinsic parameters give the latter transformation relation from the three-dimensional camera coordinate system to the two-dimensional image plane.

深度取得部123は、撮像画像の深度情報(撮像画像の各画素位置において、撮影されている対象が位置する深度を与えた深度マップ)を取得する。深度情報の取得は任意の既存手法を用いてよく、異なる2時刻(現時刻及びこれに近い過去時刻)での撮像画像間での同一点対応を求めたうえで運動視差やステレオ視により求めるようにしてもよいし、車載設備等の形で撮像部11のカメラと対応付けられたLiDAR(光検出と測距)装置の光センサが利用できる場合は、当該LiDAR装置による測距結果を用いるようにしてもよい。 The depth acquisition unit 123 acquires depth information of the captured image (a depth map that gives the depth at which the object being imaged is located at each pixel position of the captured image). Depth information can be acquired using any existing method, and after obtaining the same point correspondence between images captured at two different times (current time and past time close to this), it can be obtained by motion parallax or stereo vision. Alternatively, if a light sensor of a LiDAR (light detection and ranging) device associated with the camera of the imaging unit 11 can be used in the form of in-vehicle equipment, etc., the distance measurement result by the LiDAR device can be used. can be

図7は深度情報の模式例を示す図であり、具体的には図5の撮像画像PAに対応する深度情報D(PA)が、深度が小さいほど白色寄りとして、深度が大きいほど黒色寄りとして表現されるグレースケール画像の形式で示されている。(なお、黒の矩形枠は画像範囲を示すものであり深度ではない。)図7の深度情報D(PA)は、図5で示した壁W1の領域の深度が小さく、車両VBの領域の深度は中程度で、それ以外の領域は道路等の地面の領域として、車両VBよりも手前の領域ではこれらの中間の深度で構成され、車両VBよりも遠方の領域では車両VBの深度よりもさらに大きな深度で構成されている。 FIG. 7 is a diagram showing a schematic example of depth information. Specifically, the depth information D(PA) corresponding to the captured image PA in FIG. It is shown in the form of a rendered grayscale image. (The black rectangular frame indicates the image range, not the depth.) The depth information D(PA) in FIG. 7 indicates that the depth of the wall W1 shown in FIG. The depth is intermediate, and the other areas are ground areas such as roads. The area in front of the vehicle VB has an intermediate depth. Consists of greater depth.

光源情報取得部124は、撮像部11が撮像を行っている周辺環境(情報端末装置10が存在している周辺環境)における光源情報を取得する。光源情報の取得は任意の既存手法を用いてよく、照度センサで直接計測してもよいし、撮像部11で得た撮像画像から深層学習で推定する既存手法を利用してよい。また、周辺環境が屋内照明によって構成されており、且つ、この屋内照明が照明制御装置によってプログラム制御されている場合などは、当該制御装置にアクセスして、プログラム制御している照明の形状・配置・配色・照度等を光源情報として直接取り込んでもよい。また、屋外環境では、位置姿勢取得部121による位置姿勢情報から得られる、緯度及び経度の情報と撮像している方位の情報と、日時情報(撮像画像において撮像がなされた日時情報)とから算出した、撮像画像における太陽座標情報や天候情報を光源情報として利用してもよい。これら太陽座標情報や天候情報は、これらの情報を保持しているネットワーク上のサーバにアクセスして、位置姿勢情報及び日時情報を照合して該当する情報を取得するようにしてもよい。 The light source information acquisition unit 124 acquires light source information in the surrounding environment where the imaging unit 11 is capturing an image (the surrounding environment where the information terminal device 10 exists). Any existing method may be used to acquire the light source information, such as direct measurement with an illuminance sensor, or an existing method of estimating from the captured image obtained by the imaging unit 11 by deep learning. In addition, if the surrounding environment is composed of indoor lighting, and if this indoor lighting is program-controlled by a lighting control device, etc., access the control device and determine the shape and arrangement of the lighting that is being program-controlled. - The color scheme, illuminance, etc. may be directly captured as light source information. In an outdoor environment, it is calculated from the latitude and longitude information, the imaged direction information, and the date/time information (the date/time information when the captured image was captured) obtained from the position/orientation information by the position/orientation acquisition unit 121. The solar coordinate information and weather information in the captured image may be used as the light source information. The sun coordinate information and weather information may be obtained by accessing a server on the network that holds such information and collating the position and orientation information and the date and time information.

(開示部13)
開示部13は、開示情報を保存部21へと送信する。提示システム100による拡張現実の任意の用途に応じて、開示情報にはテキスト、画像、エフェクト等の、任意種類及び任意内容のマルチメディアコンテンツをユーザが個別に指定できる。URL等で外部コンテンツを引用する(他ユーザに開示情報として、外部コンテンツへのアクセス情報を与える)ようにしてもよい。開示情報が時間変化しない静的な情報(時刻をパラメータとして未来に関しても決まった挙動(同一動作の繰り返しなど)を示す情報も含む)である場合は、ある1時刻のみにおいて開示部13から当該開示情報を保存部21へと送信して、保存部21では、当該1時刻で取得された開示情報が時間変化しないものとして、以降の時刻において継続して描画部22から参照されるようにすればよい。
(Disclosure 13)
Disclosure unit 13 transmits disclosure information to storage unit 21 . Depending on the desired application of augmented reality with the presentation system 100, the disclosure can be customized by the user to include any type and content of multimedia content, such as text, images, effects, and the like. The external content may be quoted using a URL or the like (access information to the external content may be given to other users as disclosed information). If the disclosure information is static information that does not change with time (including information that shows a fixed behavior (such as repeating the same action) with respect to the future using time as a parameter), the disclosure unit 13 will only disclose the information at a certain time. If the information is transmitted to the storage unit 21, and the storage unit 21 assumes that the disclosed information acquired at that one time does not change with time, it is continuously referred to by the drawing unit 22 at subsequent times. good.

また、開示情報が時間変化する動的な情報である場合、各時刻において開示部13から開示情報を保存部21へと送信してよい。動的な情報の例として、開示情報にアバタ等の3Dモデル等を用いる場合は3Dモデルの動きも開示情報に含めてもよい。すなわち、ポーズ等が時間変化する、各時刻での開示情報を与えるようにしてもよい。3Dモデルの動きは既存技術を用いて利用者の動き(骨格及び/又は表情などの動き)をトレースするようにしてよく、3Dモデルの情報に加え当該トレースされた動きパラメータを保存部21へと送信すればよい。動きパラメータに応じてポーズ等が定まることで描画される3Dモデルの情報に関しては、静的な情報としてある1時刻のみにおいて保存部21へと送信するようにして、動きパラメータを動的な情報として各時刻に保存部21へと送信するようにしてもよい。 Further, when the disclosed information is dynamic information that changes with time, the disclosed information may be transmitted from the disclosure unit 13 to the storage unit 21 at each time. As an example of dynamic information, when a 3D model such as an avatar is used in the disclosed information, the motion of the 3D model may also be included in the disclosed information. In other words, disclosure information may be given at each time, such as when the pause or the like changes with time. The movement of the 3D model may be traced using existing technology (movements of the skeleton and/or facial expressions) of the user, and the traced movement parameters in addition to the information of the 3D model are stored in the storage unit 21. Just send it. Regarding the information of the 3D model drawn by determining the pose etc. according to the motion parameters, it is transmitted as static information to the storage unit 21 only at a certain time, and the motion parameters are used as dynamic information. You may make it transmit to the preservation|save part 21 at each time.

(描画部22)
描画部22は、各ユーザの情報端末装置10から(動的な情報の場合に)リアルタイムに送信される計測情報及び開示情報を保存している保存部21を参照し、各ユーザ(それぞれ自ユーザとする)の情報端末装置10に向けて、他ユーザの開示情報を仮想空間の他ユーザの計測情報(位置姿勢情報)に該当する位置に配置したうえで、当該他ユーザの開示情報が配置された仮想空間を自ユーザの外部パラメータ(及び内部パラメータ)で描画し、得られた描画情報を対応する自ユーザの情報端末装置10の提示部14へと送信する。
(drawing part 22)
The drawing unit 22 refers to the storage unit 21 that stores measurement information and disclosure information transmitted in real time from each user's information terminal device 10 (in the case of dynamic information), and each user (each own user ), the other user's disclosed information is arranged at a position corresponding to the other user's measurement information (position and orientation information) in the virtual space, and then the other user's disclosed information is arranged. The resulting virtual space is drawn using the user's external parameters (and internal parameters), and the obtained drawing information is transmitted to the corresponding presentation unit 14 of the user's information terminal device 10 .

(提示部14)
提示部14は、撮像部11で得た撮像画像に対して、描画部22で得た描画情報を重畳することにより、撮像画像に対して拡張現実表示を加えたものとしての提示情報を得て、ユーザに対して当該提示情報を提示する。
(presentation part 14)
The presentation unit 14 superimposes the drawing information obtained by the drawing unit 22 on the captured image obtained by the imaging unit 11, thereby obtaining presentation information as a result of adding augmented reality display to the captured image. , presents the presentation information to the user.

以下、描画部22及び提示部14に関して詳細をさらに説明する。 Details of the drawing unit 22 and the presentation unit 14 will be further described below.

一実施形態では描画部22によって得られる描画情報は、その画素位置(u,v)が、自ユーザの撮像部11で撮像した撮像画像の各画素位置(u,v)にそのまま対応しており、他ユーザの開示情報(コンテンツ)の描画がなされた領域に関しては当該描画されたコンテンツのテクスチャで構成され、他ユーザの開示情報の描画がなされていない領域に関してはテクスチャなしの透明領域として、透過画像の形式で与えることができるものである。また、描画部22での描画に用いる仮想空間は、自ユーザ及び他ユーザの外部パラメータと、自ユーザの内部パラメータとを利用して、3次元の仮想空間を2次元の画像平面上へと投影して描画することで、撮像部11で撮像した実世界と、その位置姿勢が整合する空間となっている。こうして、提示部14では、実世界に対応する3次元仮想空間を扱う既存の拡張現実表示技術においてなされているのと同様にして、撮像部11で得た撮像画像に対して、描画部22で得た透過画像としての描画情報を重畳することで、撮像画像に対して拡張現実表示を加えた提示情報を得ることができる。 In one embodiment, the pixel position (u, v) of the drawing information obtained by the drawing unit 22 directly corresponds to each pixel position (u, v) of the captured image captured by the imaging unit 11 of the user. , the area where other user's disclosed information (content) is drawn is composed of the texture of the drawn content, and the area where other user's disclosed information is not drawn is transparent as a transparent area without texture. It can be given in the form of an image. The virtual space used for drawing by the drawing unit 22 uses external parameters of the user and other users and internal parameters of the user to project a three-dimensional virtual space onto a two-dimensional image plane. By drawing the real world imaged by the imaging unit 11, a space is created in which the position and orientation match those of the real world. In this way, in the presentation unit 14, in the same way as in the existing augmented reality display technology that handles a three-dimensional virtual space corresponding to the real world, the image captured by the imaging unit 11 is displayed by the drawing unit 22. By superimposing the drawing information as the obtained transparent image, it is possible to obtain the presentation information in which the augmented reality display is added to the captured image.

描画部22では、保存部21に保存されている全ての他ユーザの開示情報のうち、計測情報における位置の情報を参照し、この位置が仮想空間において自ユーザの所定のビューボリューム(視体積)の範囲内にある開示情報だけを描画の対象とすることができる。自ユーザの所定のビューボリュームは、自ユーザのカメラ位置から見た、当該カメラの画角範囲内の錐体領域(カメラ位置を頂点として無限に延びる錐体領域)としてもよいし、当該錐体領域のうち、カメラ位置からの距離や深度が一定値以下となる範囲内としてもよい。ここで、画角は前述の通りカメラの内部パラメータより取得可能である。 The drawing unit 22 refers to the position information in the measurement information among the disclosed information of all the other users stored in the storage unit 21, and this position corresponds to the user's predetermined view volume (visual volume) in the virtual space. Only disclosed information within the range of can be drawn. The user's predetermined view volume may be a cone area (a cone area extending infinitely with the camera position as the apex) within the angle of view range of the camera viewed from the camera position of the user, or the cone Within the area, the distance or depth from the camera position may be within a certain range or less. Here, the angle of view can be obtained from the internal parameters of the camera as described above.

描画部22による描画は、上記ビューボリューム範囲内に位置している他ユーザの開示情報を対象として行い、この際、以下に(1)~(4)の見出しでそれぞれ示すように、種々の計測情報を利用することによる種々の実施形態が可能である。これらの一部又は全部の任意の組み合わせの実施形態も可能である。 Rendering by the rendering unit 22 is performed on disclosure information of other users positioned within the view volume range. Various embodiments are possible by using the information. Any combination of some or all of these embodiments is also possible.

(1) 仮想空間において他ユーザの開示情報を配置する際に、他ユーザの計測情報(位置姿勢情報)に該当する位置に、対応する姿勢(他ユーザのカメラの向き)において配置したうえで、描画部22によって描画するようにしてもよい。例えば、他ユーザの開示情報が3Dモデルとして与えられ、その正面の向きが定義されている場合に、当該正面の向きが他ユーザのカメラの向きに一致するように、3Dモデルを配置して描画することができる。 (1) When arranging other user's disclosure information in the virtual space, after arranging it at the position corresponding to the other user's measurement information (position and orientation information) in the corresponding posture (other user's camera orientation), It may be drawn by the drawing unit 22 . For example, when another user's disclosure information is given as a 3D model and the front orientation is defined, the 3D model is arranged and drawn so that the front orientation matches the other user's camera orientation. can do.

上記とは異なり、他ユーザの姿勢の情報は利用せず、位置の情報のみを利用して他ユーザの開示情報を描画してもよく、この際、姿勢の情報は自ユーザのカメラにおける姿勢の情報を利用するようにしてもよい。(後述する図8,9の、他ユーザの開示情報BI,CIを自ユーザのカメラに正対させた状態で描画する例がこれに該当する。) Different from the above, it is also possible to render disclosure information of other users using only position information without using posture information of other users. Information may be used. (This corresponds to the example shown in FIGS. 8 and 9, which will be described later, in which disclosure information BI and CI of other users are drawn facing the user's own camera.)

(2) 計測情報に内部パラメータ取得部122で取得された内部パラメータが含まれる場合は、描画部22では当該内部パラメータを反映させて、(画像範囲を定めるビューポートの範囲などを設定したうえで、)描画することができる。 (2) If the measurement information includes internal parameters acquired by the internal parameter acquisition unit 122, the rendering unit 22 reflects the internal parameters (after setting the viewport range that determines the image range, etc. ,) can be drawn.

(3) 計測情報に深度取得部123で取得された深度情報(撮像画像の各画素位置(u,v)での深度を与えた深度マップ)が含まれる場合、描画部22では、他ユーザの開示情報を仮想空間に配置したうえで、当該深度マップが定める仮想空間内において深度値によって定まる表面位置(空間位置)と照合し、深度マップの定めるこの表面位置よりも手前側(表面上に一致する場合を含む)にあるか奥側にあるか(すなわち、カメラに近く深度が浅い側にあるか、カメラから遠く深度が深い側にあるか)を判定したうえで、手前側(浅い側)か奥側(深い側)かの区別に応じて、開示情報の描画の態様を変化させるようにしてもよい。 (3) When the measurement information includes the depth information acquired by the depth acquisition unit 123 (the depth map that gives the depth at each pixel position (u, v) of the captured image), the drawing unit 22 calculates the After arranging the disclosed information in the virtual space, it is compared with the surface position (spatial position) determined by the depth value in the virtual space defined by the depth map, and the front side of the surface position defined by the depth map (matches on the surface) ) or on the far side (that is, on the shallow side close to the camera or on the deep side far from the camera), and then on the near side (shallow side) The manner in which the disclosure information is drawn may be changed according to whether the disclosure information is on the far side (deep side) or on the deep side.

ここで、深度マップの定める表面位置よりも奥側に位置する開示情報は、仮想空間と対応している実世界においては、深度マップの定める表面位置に存在する何らかの遮蔽物(例えば、壁など)によって遮蔽された状態にあることとなる。従って、一実施形態では、深度マップの定める表面位置よりも手前側にある開示情報はそのまま、特段の加工処理を施すことなく描画し、一方で、奥側にある開示情報は遮蔽された状態にあるものとしての所定の加工処理を施して描画するようにしてよい。遮蔽された状態にあるものとしての加工された描画は、半透明の状態でテクスチャを描画するようにしてもよいし、完全透明の状態(遮蔽されて見えない状態)となるよう、テクスチャ描画を行わないようにしてもよい。(これらの模式例は、図9を参照して後述する。)半透明での描画及び提示部14におけるこれを重畳した提示は、透過度(アルファ値)による既存手法を用いればよい。半透明で描画する場合、開示情報がより奥側に位置するほど、より透過度が増すように描画してもよく、この際、一定距離よりもさらに奥側に位置する場合には完全透明となるようにしてもよい。 Here, the disclosed information located on the far side of the surface position defined by the depth map is some kind of obstructing object (for example, a wall, etc.) existing at the surface position defined by the depth map in the real world corresponding to the virtual space. is blocked by Therefore, in one embodiment, disclosure information on the front side of the surface position defined by the depth map is drawn as it is without special processing, while disclosure information on the back side is hidden. Rendering may be performed by performing predetermined processing as a certain object. Rendering that has been processed as being in the occluded state may render the texture in a semi-transparent state, or render the texture so that it is in a completely transparent state (a state that is hidden and cannot be seen). You can choose not to do it. (These schematic examples will be described later with reference to FIG. 9.) Translucent drawing and presentation in which this is superimposed on the presentation unit 14 may be performed using an existing method based on transparency (alpha value). When rendering semi-transparently, the further the disclosure information is located, the more transparent it may be rendered. You can make it

(4) 計測情報に光源情報取得部124で取得された自ユーザの光源情報が含まれる場合、描画部22では他ユーザの開示情報をテクスチャとして描画する際に、自ユーザの光源情報を反映させて描画することができる。光源情報を反映させた描画は、3DCG技術分野における既存手法を用いればよい。 (4) When the measurement information includes the light source information of the user acquired by the light source information acquisition unit 124, the drawing unit 22 reflects the light source information of the user when drawing the disclosed information of other users as a texture. can be drawn using Existing techniques in the 3DCG technical field may be used for rendering reflecting light source information.

以下、図8及び図9を参照して、描画部22及び提示部14に関して上記説明した各処理に関する模式例を示す。 8 and 9, schematic examples of the processes described above with respect to the drawing unit 22 and the presentation unit 14 will be shown.

図8は描画部22が描画する仮想空間の模式例を示す図である。図8では、前述の図1のように情報端末装置10-A,10-B,10-Cがあり、図4に示される街角のフィールドF1内にこれらが存在する場合における、自ユーザAの情報端末装置10-Aに向けて描画する仮想空間VS[A]が示される。従って、仮想空間VS[A]はそのまま、実世界としての街角のフィールドF1に対応しているものである。 FIG. 8 is a diagram showing a schematic example of a virtual space drawn by the drawing unit 22. As shown in FIG. In FIG. 8, there are information terminal devices 10-A, 10-B, and 10-C as in FIG. 1 described above, and when these exist in the street corner field F1 shown in FIG. A virtual space VS[A] drawn toward the information terminal device 10-A is shown. Therefore, the virtual space VS[A] directly corresponds to the street corner field F1 in the real world.

図8にて、所定のランドマーク位置等を基準点(原点)Prefとする世界座標系XYZ(実世界の位置を与える緯度、経度、高度などと対応する)に対して、情報端末装置10-Aの外部パラメータよりユーザAの原点PAのカメラ座標系XAYAZAが定まる。(ここで、前述したビューイングパイプラインの関係として既知のように、外部パラメータは、世界座標系XYZからカメラ座標系XAYAZAへの変換関係TAを表し、世界座標系XYZ内におけるカメラの位置姿勢に対応するものである。すなわち、世界座標系XYZでの位置pをカメラ座標系XAYAZAで表現した位置pAを、変換行列TAを左から積算することよって「pA=TA・p」として得ることができる。ここで3次元の位置p及びpAは斉次座標表現の4次元ベクトルで与えられる。)同様にして、世界座標系XYZに対して情報端末装置10-B,10-Cの外部パラメータよりそれぞれ、変換関係TBによって変換されるユーザBの原点PBのカメラ座標系XBYBZBと、変換関係TCによって変換されるユーザCの原点PCのカメラ座標系XCYCZCと、が定まる。 In FIG . 8, the information terminal device 10 The camera coordinate system X A Y A Z A of user A's origin P A is determined from the external parameters of -A. (Here, as is known as the relationship of the viewing pipeline described above, the extrinsic parameter represents the transformation relationship T A from the world coordinate system XYZ to the camera coordinate system X A Y A Z A , and within the world coordinate system XYZ That is, the position p A expressed by the camera coordinate system X A Y A Z A , which is the position p in the world coordinate system XYZ, is multiplied by the transformation matrix T A from the left. Therefore, it can be obtained as "p A =T A · p", where the three-dimensional positions p and p A are given by a four-dimensional vector of homogeneous coordinate representation.) Similarly, for the world coordinate system XYZ, Then, from the external parameters of the information terminal devices 10-B and 10-C, the camera coordinate system X B Y B Z B of the origin P B of the user B transformed by the transformation relationship T B and the camera coordinate system X B Y B Z B transformed by the transformation relationship T C A camera coordinate system X C Y C Z C of the origin P C of the user C is determined.

従って、他ユーザB及びCのカメラ座標系XBYBZB及びXCYCZCから自ユーザAのカメラ座標系XAYAZAへの変換関係はそれぞれ、積TATB -1及び積TATC -1で与えられることとなる。(ここで、TB -1及びTC -1はそれぞれTB及びTCの逆変換として、他ユーザB及びCのカメラ座標系XBYBZB及びXCYCZCから世界座標系XYZへの変換を表す。例えば世界座標系XYZでの位置pをカメラ座標系XAYAZAで表現した位置pA及びカメラ座標系XBYBZBで表現した位置pBに対して、関係「pA=TA・p」及び「pB=TB・p」が成立することから関係「pA=TATB -1・pB」が成立し、上記の積で変換関係が与えられる。)こうして、各々の情報端末装置10の外部パラメータから求めることができる当該変換する関係(積TATB -1及び積TATC -1)を用いて図8の模式例に示されるように、自ユーザAの仮想空間VS[A]に他ユーザB,Cの開示情報BI及びCIをそれぞれ配置して描画することが可能となる。 Therefore, the transformation relationship from the camera coordinate systems X B Y B Z B and X C Y C Z C of other users B and C to the camera coordinate system X A Y A Z A of user A is the product T A T B -1 and the product T A T C -1 . (Here, T B -1 and T C -1 are the inverse transforms of T B and T C , respectively, from the camera coordinate systems X B Y B Z B and X C Y C Z C of other users B and C to the world coordinates represents the transformation to the system XYZ, for example, the position p in the world coordinate system XYZ to the position p A expressed in the camera coordinate system X A Y A Z A and the position p B expressed in the camera coordinate system X B Y B Z B On the other hand, since the relationships ``p A = T A・p'' and ``p B =T B・p'' hold, the relationship ``p A =T A T B -1・p B '' holds, and the above product .) Thus, using the transforming relationship (product T A T B -1 and product T A T C -1 ) that can be obtained from the external parameters of each information terminal device 10, As shown in the schematic example, it is possible to arrange and draw disclosure information BI and CI of other users B and C in user A's virtual space VS[A].

図8の例では、開示情報BI及びCIはそれぞれ、他ユーザB及びCの位置PB及びPCに、自ユーザAのカメラに正対する(カメラ正面方向である深さ方向ZAの逆方向を向いた)矩形状の看板にテキスト「Bの開示情報」及び「Cの開示情報」を描いたものとして設定されており、他ユーザB,Cの位置姿勢情報のうち、座標系原点としてのカメラ位置PB及びPCのみが反映され、姿勢(座標系の座標軸の向きに表現されるカメラ向き)は反映されていない。すなわち、図8の例は前述した描画部22の見出し(1)の実施形態のうちの後者の例となっている。図8の例とは異なり、前述した描画部22の見出し(1)の実施形態のうち前者を適用して、開示情報BI及びCIに関して、他ユーザB及びCの姿勢も反映した描画を行うことも、開示情報にそのように描画すべき旨を設定しておくことにより可能である。例えば図8において描画されるテキスト看板としての開示情報BI及びCIを、自ユーザAのカメラに正対する方向ではなく、他ユーザB,Cのカメラの向きであるZB軸方向及びZC軸方向を向いた状態で仮想空間VS[A]に描画させることも可能である。 In the example of FIG. 8, disclosure information BI and CI are located at positions P B and P C of other users B and C, respectively, facing the camera of user A (in the opposite direction of depth direction Z A which is the front direction of the camera). ) is set as a rectangular signboard with the texts "Disclosure information of B" and "Disclosure information of C" drawn on it, and among the position and orientation information of other users B and C, as the origin of the coordinate system Only the camera positions P B and P C are reflected, and the orientation (the orientation of the camera expressed in the orientation of the coordinate axes of the coordinate system) is not reflected. That is, the example of FIG. 8 is an example of the latter among the embodiments of heading (1) of the drawing unit 22 described above. Unlike the example of FIG. 8, the former of the embodiments of heading (1) of the rendering unit 22 described above is applied to render disclosure information BI and CI that also reflects the postures of other users B and C. Also, it is possible by setting the disclosure information to the effect that such drawing should be performed. For example , the disclosure information BI and CI as text signboards drawn in FIG . It is also possible to draw in the virtual space VS[A] while facing .

図9は、図8の仮想空間VS[A]における描画部22での描画と提示部14での重畳表示との模式例を種々の実施形態に関してそれぞれ、例EX1~EX3として示す図である。例EX1~EX3はいずれもそれぞれ、描画情報R1~R3と、この描画情報を撮像画像(図5の撮像画像PA)に重畳した提示情報D1~D3と、を示しており、これら描画情報及び提示情報は、図8の自ユーザのカメラ位置PAにおいて他ユーザB,Cの開示情報BI,CIの描画及び提示を種々の実施形態で行ったものである。 FIG. 9 is a diagram showing schematic examples of drawing by the drawing unit 22 and superimposed display by the presentation unit 14 in the virtual space VS[A] of FIG. Examples EX1 to EX3 each indicate drawing information R1 to R3 and presentation information D1 to D3 obtained by superimposing the drawing information on a captured image (captured image PA in FIG. 5). The information is obtained by drawing and presenting disclosure information BI and CI of other users B and C at the own user's camera position P A in FIG. 8 in various embodiments.

例EX1では、描画情報R1として、他ユーザB,Cの開示情報BI,CIがそのまま描画され、且つ、当該描画情報R1を撮像画像PA(図5)に重畳することで提示情報D1が得られている。 In the example EX1, the disclosure information BI and CI of the other users B and C are drawn as they are as the drawing information R1, and the presentation information D1 is obtained by superimposing the drawing information R1 on the captured image PA (FIG. 5). ing.

一方、例EX2及びEX3では、描画情報R2及びR3として、他ユーザB,Cの開示情報BI,CIを描画する際に、描画部22の見出し(3)の実施形態を適用して深度情報(図5の撮像画像PAに対応する図7の深度情報D(PA))との照合を行い、深度よりも奥に位置している開示情報の描画の態様を変える例である。例EX2及びEX3のいずれにおいても、開示情報BIはその全体が深度よりも手前側にあるものと判定され、例EX1の場合と同様に、そのままの形で特に加工処理を加えることなく、開示情報BIとして描画されている。一方、例EX2及びEX3のいずれにおいても、開示情報CIはその一部分(矩形の中央部分及び左側部分)が深度よりも奥側にあるものと判定され、例EX1の場合とは異なり、当該判定された奥側にある一部分に関して、異なる描画態様で描画された開示情報CI-2及びCI-3が得られている。 On the other hand, in examples EX2 and EX3, when rendering disclosure information BI and CI of other users B and C as rendering information R2 and R3, depth information ( In this example, the depth information D(PA) in FIG. 7 corresponding to the captured image PA in FIG. 5 is checked to change the rendering mode of the disclosure information positioned deeper than the depth. In both examples EX2 and EX3, the disclosed information BI is determined to be wholly on the nearer side than the depth. It is drawn as BI. On the other hand, in both examples EX2 and EX3, the disclosed information CI is determined to have a part (the central part and the left part of the rectangle) behind the depth. Disclosure information CI-2 and CI-3 drawn in different drawing modes are obtained for a portion on the far side.

例EX2の描画された開示情報CI-2は、深度よりも奥にある部分を一切描画しない(透過度100%の完全透明の状態で描画する)ようにして、描画情報R2及び提示情報D2が得られている。例EX3の描画された開示情報CI-3は、深度よりも奥にある部分を半透明にする(一定割合の透過度で半透明の状態で描画する)ようにして、描画情報R3及び提示情報D3が得られている。例EX2及びEX3のいずれも、例EX1とは異なり、ユーザCの位置に配置されている開示情報CIが開示情報CI-2及びCI-3として描画されることにより、実世界の壁W1(当該図9及び図4)よりも奥にあって遮蔽された状態にあることを、遮蔽されていない状態として描画されている開示情報BIとの相違によって感覚的に認識可能な状態となっている。図4に示すように、ユーザAが車両VAに乗っているユーザである場合、提示情報D2やD3により、現時刻では前方で壁W1の陰に隠れているが、そのすぐ後の時刻には壁W1の陰を抜けて現れようとしているユーザCの存在の注意喚起を、効果的に行うことが可能である。 Disclosure information CI-2 drawn in example EX2 does not draw any part deeper than the depth (renders completely transparent with 100% transparency) so that drawing information R2 and presentation information D2 are have been obtained. Disclosure information CI-3 rendered in example EX3 is made semi-transparent (rendered in a semi-transparent state with a certain percentage of transparency) behind the depth, and rendering information R3 and presentation information D3 is obtained. In both examples EX2 and EX3, different from example EX1, the disclosed information CI placed at the position of user C is drawn as disclosed information CI-2 and CI-3, thereby creating a wall W1 in the real world (such 9 and 4), the hidden state can be intuitively recognized due to the difference from the disclosed information BI drawn as an unshielded state. As shown in FIG. 4, when user A is a user riding in a vehicle VA, he is hidden behind a wall W1 in front of him at the present time due to the presentation information D2 and D3, but at a time immediately after that, It is possible to effectively draw attention to the presence of user C who is about to appear behind the wall W1.

以上、本発明の各実施形態によれば、複数の情報端末装置10-A,10-B,10-C等における能動的な情報共有により、すなわち、各々の情報端末装置10での計測部12による位置情報と開示部13による開示情報との、サーバ20を介した共有により、撮像画像から他端末を画像認識する処理を必要とすることなく、各端末の提示部14において提示情報として拡張現実表示を実現することができる。従って、画像認識が困難な対象(夜間の光量不足等を原因とする不可視の対象や、テクスチャレスであり画像局所特徴等の検出に不向きな対象や、相互に類似しており一意に識別することが困難な対象など)であっても、拡張現実表示を実現することが可能である。 As described above, according to each embodiment of the present invention, active information sharing among a plurality of information terminal devices 10-A, 10-B, 10-C, etc., that is, the measuring unit 12 in each information terminal device 10 and the information disclosed by the disclosure unit 13 are shared via the server 20, so that the presentation unit 14 of each terminal can display augmented reality as presentation information without the need for image recognition processing of other terminals from the captured image. display can be realized. Therefore, it is necessary to uniquely identify objects that are difficult to image recognize (objects that are invisible due to insufficient light at night, objects that are textureless and are not suitable for detecting local image features, etc.), and objects that are similar to each other and uniquely identified. It is possible to realize augmented reality display even for objects that are difficult to display).

以下、<1>~<7>として、本発明の実施形態の変形例や追加例などに関する補足説明を行う。 Below, as <1> to <7>, supplementary explanations regarding modified examples and additional examples of the embodiments of the present invention will be given.

<1> 開示部13における開示情報の設定の詳細に関して
図8や図9の模式例からも理解されるように、仮想空間に配置し描画対象となるコンテンツとしての開示情報は、各端末(情報端末装置10)のカメラ位置を基準(原点)とする3次元カメラ座標系において、拡張現実表示の用途に応じた任意内容のコンテンツを表現した3Dモデル(平面や線、点のみで構成される場合も含む)として定義しておけばよい。例えば図8のユーザCの情報端末装置10-Cの開示情報CIは、そのカメラ座標系XCYCZC(原点PC)において3Dモデルとして定義しておくことで、ユーザAの情報端末装置10-Aの仮想空間VS[A]としてのカメラ座標系XAYAZA(原点PA)における描画も可能となる。すなわち、前述の通り、カメラ座標系XCYCZC(原点PC)において3Dモデルを積TATC -1によって変換してカメラ座標系XAYAZA(原点PA)に配置することが可能である。
<1> Details of Disclosure Information Setting in Disclosure Unit 13 As can be understood from the schematic examples of FIGS. A 3D model that expresses arbitrary content according to the application of augmented reality display in a 3D camera coordinate system with the camera position of the terminal device 10) as the reference (origin) (if it is composed only of planes, lines, and points) including ). For example, the disclosure information CI of the information terminal device 10-C of user C in FIG. Drawing in the camera coordinate system X A Y A Z A (origin P A ) as the virtual space VS[A] of the device 10-A is also possible. That is, as described above, the 3D model in the camera coordinate system X C Y C Z C (origin P C ) is transformed by the product T A T C -1 to the camera coordinate system X A Y A Z A (origin P A ). can be placed.

また、図8と図9の例EX1とで示される模式例に、自ユーザAのカメラ位置PAに正対する看板としての開示情報BI及びCIとして示されるように、描画の際の向き等を、描画の基準となる端末のカメラ位置(図8のPA)に応じて定まるものとして、この3D立体モデルに付随する描画のための付随情報として定義しておき、描画部22ではこの付随情報に従って描画を行うようにしてもよい。以上により描画部22の見出し(1)の実施形態で説明した前者及び後者の2通りの描画が可能である。
Also, in the schematic examples shown in examples EX1 in FIG . 8 and FIG . , is defined according to the camera position (P A in FIG. 8) of the own terminal as a reference for drawing, and is defined as accompanying information for drawing accompanying this 3D solid model. Drawing may be performed according to the information. As described above, the drawing unit 22 can perform two types of drawing, the former and the latter described in the embodiment of heading (1).

一実施形態では、3Dモデルとしての開示情報は、描画して拡張現実表示を行った際に、各端末のカメラ位置に当該開示情報が存在すると認識されるものとして設定してよい。例えば、3Dモデル内の所定点(重心など)が、対応する端末のカメラ位置に合致するように定義してもよい。また、3Dモデルの位置が、対応する端末のカメラ位置とは一定のベクトル量だけ乖離しているが、拡張現実表示とした際には対応する端末やそのユーザに紐づいた開示情報として認識されるように定義しておいてもよい。例えば、端末はスマートフォンでありそのユーザが衣類のポケットや鞄などの中に所定の姿勢で格納して保持する前提で、当該ユーザの近傍(頭上など)に拡張現実表示としての開示情報が描画されるように、カメラ位置の所定近傍に3D立体モデルとしての開示情報を定義することができる。また例えば、仮想空間内においてカメラ位置をその終点として示すベクトル矢印を定義し、その始点の位置に3Dコンテンツを配置して定義しておくことで、当該3Dコンテンツ及びベクトル矢印の組を開示情報として定義しておいてもよい。仮想空間に描画した際は、当該矢印によって示される注釈のように3Dコンテンツが表示されることとなる。 In one embodiment, the disclosure information as a 3D model may be set so that it is recognized as being present at the camera position of each terminal when it is drawn and displayed in augmented reality. For example, a given point (such as the center of gravity) in the 3D model may be defined to match the camera position of the corresponding terminal. In addition, although the position of the 3D model deviates from the camera position of the corresponding terminal by a certain vector amount, it is recognized as disclosed information linked to the corresponding terminal and its user when displayed in augmented reality. may be defined as For example, on the premise that the terminal is a smartphone and the user stores and holds it in a pocket of clothing or a bag in a predetermined posture, disclosure information as an augmented reality display is drawn near the user (over the head, etc.). As shown, disclosure information can be defined as a 3D solid model in a predetermined vicinity of the camera position. Also, for example, by defining a vector arrow indicating the camera position as its end point in the virtual space and arranging and defining the 3D content at the position of the starting point, the pair of the 3D content and the vector arrow can be used as disclosed information. may be defined. When drawn in the virtual space, the 3D content will be displayed like the annotation indicated by the arrow.

なお、前述の図9の例EX2,EX3における描画された開示情報CI-2,CI-3に示されるように、描画部22で見出し(3)の実施形態により深度情報を考慮して3Dモデルとしての開示情報の描画を行う際は、3Dモデルの表面(仮想空間を描画する基準となるカメラから見えている側の表面)上の各位置において深度情報の深度値との比較を行うことで、1つの3Dモデルであっても、その一部は遮蔽状態にあり、一部は遮蔽状態にはないものとして、区別した描画を行うことが可能である。 In addition, as shown in the disclosure information CI-2 and CI-3 drawn in the examples EX2 and EX3 of FIG. When drawing disclosure information as, by comparing the depth information with the depth value at each position on the surface of the 3D model (the surface that is visible from the camera that is the reference for drawing the virtual space) , even if it is one 3D model, it is possible to draw distinguishably assuming that part of it is in the occluded state and part of it is not in the occluded state.

<2> 計測部12(位置姿勢取得部121)で取得する自端末の位置姿勢とは異なる位置姿勢を基準として、描画部22において自端末の仮想空間の描画を行い、提示部14においてこれを提示する実施形態を説明する。なお、この実施形態を第二実施形態、以上説明してきた実施形態を第一実施形態として、区別して称する。 <2> Based on a position and orientation different from the position and orientation of the own terminal acquired by the measurement unit 12 (position and orientation acquisition unit 121), the rendering unit 22 renders the virtual space of the own terminal, and the presentation unit 14 renders the virtual space. Presented embodiments are described. This embodiment will be referred to as the second embodiment, and the embodiment described above will be referred to as the first embodiment.

第二実施形態を適用するのに好適な用途の一例として、仮想空間内にユーザの動作(骨格や表情の動作)をトレースするアバタを当該ユーザの開示情報として配置して、当該アバタを介して仮想空間内でコミュニケーション等を行う用途が挙げられる。図10は、第二実施形態の適用例として、当該アバタによるコミュニケーション等を行う際の仮想空間等の配置の模式例を示す図である。以下、図10を参照しながら第二実施形態を説明するが、好適な用途としてのアバタによるコミュニケーションは、第二実施形態の説明の理解を容易にするための一例に過ぎず、第二実施形態の用途は任意のものが可能である。 As an example of a suitable application for applying the second embodiment, an avatar that traces the user's motion (skeletal and facial motion) is placed in the virtual space as the user's disclosed information, and through the avatar Applications such as communication in a virtual space can be mentioned. FIG. 10 is a diagram showing a schematic example of arrangement of a virtual space or the like when performing communication or the like using the avatar, as an application example of the second embodiment. Hereinafter, the second embodiment will be described with reference to FIG. can be used arbitrarily.

図10に示すフィールドF2は劇場等のエンターテインメント空間を想定したものであり、ステージ側STのフロアに情報端末装置10-Bを有するユーザBが存在し、舞台裏側BCのフロアに情報端末装置10-Aを有するユーザAが存在する。これらステージ側ST及び舞台裏側BCの両フロアの間は壁W2(不透明で光を遮断する壁W2)によって隔離されていることにより、情報端末装置10-Bと情報端末装置10-Aとは、その撮像部11において互いを撮像対象として捉えて撮像を行うことが不可能な状態にある。従って、第一実施形態を、描画部22において見出し(3)の深度情報を利用する実施形態の下で適用したとすると、ユーザAの情報端末装置10-A(カメラ座標系XAYAZA、原点PA)においてユーザBの情報端末装置10-B(カメラ座標系XBYBZB、原点PB)を拡張現実表示する場合と、この逆にユーザBの情報端末装置10-BにおいてユーザAの情報端末装置10-Aを拡張現実表示する場合と、のいずれにおいても、壁W2に遮蔽された状態として、描画されないか半透明で描画されることとなる。 A field F2 shown in FIG. 10 is assumed to be an entertainment space such as a theater. User B having an information terminal device 10-B is present on the stage ST floor, and information terminal device 10-B is present on the backstage BC floor. There is a user A with A. A wall W2 (a wall W2 that is opaque and blocks light) separates the floors of the stage side ST and the backstage side BC of the information terminal device 10-B and the information terminal device 10-A. The imaging unit 11 is in a state in which it is impossible to capture each other as imaging targets. Therefore, if the first embodiment is applied under the embodiment in which the depth information of heading (3) is used in the drawing unit 22, user A's information terminal device 10-A (camera coordinate system X A Y A Z A , origin P A ) of user B's information terminal device 10-B (camera coordinate system X B Y B Z B , origin P B ) is displayed in augmented reality, and vice versa. When the information terminal device 10-A of the user A is displayed in augmented reality in B, and in both cases, the information terminal device 10-A is not drawn or drawn semi-transparently as a state shielded by the wall W2.

第一実施形態による上記描画されないあるいは半透明で描画される状態に対して、第二実施形態では図10に示されるように、ユーザAのアバタAIを情報端末装置10-Aの位置姿勢とは異なる位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)にあることにより、ユーザB及びその情報端末装置10-Bと同様にステージ側STに存在しているものとして、仮想空間内でのユーザAによる開示情報として登場させることが可能となる。なお、アバタAIはステージST上の実物としての台CL上に乗る形で、フィールドF2に対応する仮想空間内に描画されている。 In the second embodiment, as shown in FIG. 10, user A's avatar AI is defined as the position and orientation of the information terminal device 10-A, in contrast to the non-rendering or translucent drawing state according to the first embodiment. By being in different positions and orientations (camera coordinate system X AI Y AIZ AI , origin P AI ), assuming that user B and his information terminal device 10-B exist on the stage side ST in the same way as user B and his information terminal device 10-B, in the virtual space It is possible to make it appear as disclosed information by user A in . Note that the avatar AI is drawn in the virtual space corresponding to the field F2 in the form of riding on the platform CL as a real object on the stage ST.

ここで、ユーザAのアバタAIの位置姿勢に、実際のユーザA及び情報端末装置10-Aが存在したと仮定する場合には、第一実施形態を適用して、壁W2によって遮蔽されることなく、ユーザA,B間で相互の表示を仮想空間内において実現することができる。(カメラの撮像向きはアバタAIが軸ZAIであり、ユーザBが軸ZBの方向であり、相互に対面して撮像しているものとする。) Here, if it is assumed that the actual user A and the information terminal device 10-A are present in the position and orientation of the avatar AI of the user A, the first embodiment is applied so that the avatar AI is shielded by the wall W2. Instead, mutual display can be realized between users A and B in the virtual space. (It is assumed that the direction of camera imaging is such that avatar AI is on axis Z AI , user B is on axis Z B , and they are facing each other.)

図11にこの表示の模式例を例EX4,EX5として示す。(図11は第二実施形態を説明するための、図10に対応する模式例を示す図であるが、以下ではまず、上記仮定のものでの第一実施形態を前提として説明しながら、第二実施形態に関して説明するものとする。) Schematic examples of this display are shown in FIG. 11 as examples EX4 and EX5. (FIG. 11 is a diagram showing a schematic example corresponding to FIG. 10 for explaining the second embodiment, but in the following, first, while explaining the first embodiment based on the above assumption, shall be described with respect to two embodiments.)

例EX4ではアバタAIからユーザBの側を撮像した画像P4'(実際にカメラがあって撮像できたと仮定する画像P4')と、これに対して重畳する描画情報R4としてのユーザBの開示情報BIの例が、ユーザBのアバタ及びその頭部上方に示されるテキストメッセージ「Bの開示情報」として示されている。(なお、アバタAIの位置に実際には情報端末装置10-Aとそのカメラは存在せず、画像P4'は当該カメラが存在したとする仮定の下のものであって実際には撮像不可能なものであるため、画像P4'のユーザBは実線ではなく破線で描いている。)例EX5では、ユーザBからアバタAIの側を撮像した撮像画像P5が、当該仮定する第一実施形態ではなく第二実施形態の場合に関して示されており、ステージ側STの台CL上には、仮想空間ではアバタAIが存在するが、実世界においては何も存在していない状態にある。そして、この撮像画像P5に対してアバタAIを描画情報として重畳して得られる提示情報D5が示されている。(当該仮定する第一実施形態では、この提示情報D5のアバタAIが実世界における実物として存在して、撮像画像P5にも実際に撮像されることとなる。) In the example EX4, an image P4' (an image P4' that is assumed to have been captured by an actual camera) captured from the avatar AI of the user B side, and user B's disclosure information as drawing information R4 superimposed on this An example of a BI is shown as User B's avatar and the text message "Disclosure information for B" shown above his head. (It should be noted that the information terminal device 10-A and its camera do not actually exist at the position of the avatar AI, and the image P4' is based on the assumption that the camera exists and cannot actually be captured. Therefore, the user B in the image P4' is drawn with a dashed line instead of a solid line.) In the example EX5, the captured image P5 obtained by capturing the side of the avatar AI from the user B is, in the assumed first embodiment, In the case of the second embodiment, the avatar AI exists in the virtual space on the table CL of the stage side ST, but nothing exists in the real world. Then, presentation information D5 obtained by superimposing the avatar AI as drawing information on the captured image P5 is shown. (In the assumed first embodiment, the avatar AI of this presentation information D5 exists as a real object in the real world, and is actually captured in the captured image P5 as well.)

第二実施形態は、この図11に示される表示(例EX4の描画情報R4や例EX5の提示情報D5)を、実際のユーザA及び情報端末装置10-AがアバタAIの位置姿勢(ステージ側ST)ではなく、図10に示される通りの位置姿勢(舞台裏側BC)にある場合において実現するものである。具体的には、開示部13、描画部22及び提示部14において、第一実施形態での処理から変更された以下のような処理を行うようにすることで、第二実施形態を実現することができる。 In the second embodiment, the display shown in FIG. 11 (drawing information R4 in example EX4 and presentation information D5 in example EX5) is displayed by the actual user A and the information terminal device 10-A as the position and orientation of the avatar AI (on the stage side). ST), but in the position and orientation shown in FIG. 10 (behind the stage BC). Specifically, the disclosure unit 13, the drawing unit 22, and the presentation unit 14 perform the following processing that is changed from the processing in the first embodiment, thereby realizing the second embodiment. can be done.

現実の位置姿勢とは異なる位置姿勢にあるアバタAIを登場させる自ユーザAに関して、開示部13での開示情報の設定(この設定はサーバ20の保存部21に送信され保存される)を以下の2点の情報とする。
(1)計測部12で計測された位置姿勢(外部パラメータとしてのカメラ座標系XAYAZA、原点PAの情報)をアバタAIの位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)へと変換する、図10に矢印で模式的に示される所定変換TAIの情報
(2)当該変換された位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)で表示する3DモデルとしてのアバタAIの情報(すなわち、変換TAIで変換された位置姿勢における開示情報)
Regarding user A who makes an avatar AI with a position and orientation different from the actual position and orientation, the disclosure information setting in the disclosure unit 13 (this setting is transmitted and saved in the storage unit 21 of the server 20) is set as follows. 2 points of information.
(1) The position and orientation of the avatar AI (camera coordinate system X AI Y AI Z AI , (2) the transformed position and orientation (camera coordinate system X AI Y AI Z AI , origin P AI ), which is schematically indicated by an arrow in FIG. Avatar AI information as a 3D model to be displayed (i.e. disclosure information in the position and orientation transformed by the transformation T AI )

ここで、上記(2)の情報は、第一実施形態で自ユーザAの位置姿勢(カメラ座標系XAYAZA、原点PA)を基準として3Dモデルの開示情報を設定するのと同様の設定を、変換TAIで変換された位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)を基準として行うようにすればよい。 Here, the above information (2) is similar to setting disclosure information of the 3D model based on the position and orientation of user A (camera coordinate system X A Y A Z A , origin P A ) in the first embodiment. A similar setting may be performed using the position and orientation (camera coordinate system X AI Y AI Z AI , origin P AI ) converted by the conversion T AI as a reference.

なお、アバタによるコミュニケーションを実現する場合、この変換された位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)は、当該アバタAI(人物などを模している)の視点の位置姿勢に合致するよう、開示情報である3DモデルとしてのアバタAIを用意しておいてもよい。 It should be noted that, when realizing communication by an avatar, this converted position/orientation (camera coordinate system X AI Y AI Z AI , origin P AI ) is the viewpoint position/orientation of the avatar AI (simulating a person or the like). You may prepare an avatar AI as a 3D model, which is disclosed information, so as to match the above.

なお、現実の位置姿勢に合致した位置姿勢に開示情報BIを設定する他ユーザBに関して、開示部13での開示情報の設定は第一実施形態と同様でよい。 Regarding the other user B who sets the disclosure information BI to a position and orientation matching the actual position and orientation, the setting of the disclosure information in the disclosure unit 13 may be the same as in the first embodiment.

描画部22では、他ユーザBに対して当該変換TAIの下でアバタAIを設定している自ユーザAの開示情報(アバタAI)の描画を行う際は、上記設定され保存部21に保存されている(1)及び(2)の情報を参照することにより、他ユーザBの位置姿勢(カメラ座標系XBYBZB、原点PB)を基準とした仮想空間に、自ユーザAの位置姿勢(カメラ座標系XAYAZA、原点PA)を変換TAIで変換した位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)にアバタAIを配置し、描画する。 In the drawing unit 22, when drawing the disclosure information (avatar AI) of the user A who has set the avatar AI for the other user B under the conversion T AI , the information set as described above is stored in the storage unit 21. By referring to the information of (1 ) and (2 ) , the user A position and orientation (camera coordinate system X A Y A Z A , origin P A ) converted by transformation T AI , avatar AI is placed in the position and orientation (camera coordinate system X AI Y AI Z AI , origin P AI ) and drawn do.

こうして、情報端末装置10-Bを利用する他ユーザBは、図11の例EX5及び図10の配置に示されるように、実世界では撮像画像P5に示されるように自ユーザAを見ることが不可能な位置姿勢にあったとしても、仮想空間としての提示情報D5において、そのアバタAIを登場させた状態を見ることができる。 In this way, another user B using the information terminal device 10-B can see his/her own user A as shown in the captured image P5 in the real world, as shown in the example EX5 of FIG. 11 and the arrangement of FIG. Even if it is in an impossible position and posture, it is possible to see the state in which the avatar AI appears in the presentation information D5 as a virtual space.

また、描画部22では、アバタAIを設定している自ユーザAに対して他ユーザBの開示情報の描画を行う際は、自ユーザAの位置姿勢(カメラ座標系XAYAZA、原点PA)を変換TAIで変換した位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)を基準とした仮想空間に、他ユーザBの(カメラ座標系XBYBZB、原点PB)の開示情報を配置し、描画する。 In the drawing unit 22, when drawing the disclosed information of the other user B for the user A who has set the avatar AI, the position and orientation of the user A (camera coordinate system X A Y A Z A , ( camera coordinate system X B Y B Z B , origin P B ) to place and draw disclosure information.

こうして、情報端末装置10-Aを利用する自ユーザAは、図11の例EX4及び図10の配置に示されるように、実世界では他ユーザBを見ることが不可能な位置姿勢にあっても、仮想空間としての描画情報R5において、ユーザA自身がアバタAIの位置姿勢にあるものとして、他ユーザBの開示情報BIを見ることが可能となる。 In this way, the user A using the information terminal device 10-A is in a position and posture in which it is impossible to see the other user B in the real world, as shown in the example EX4 of FIG. 11 and the arrangement of FIG. Also, in the drawing information R5 as a virtual space, it is possible for the user A to see the disclosure information BI of the other user B assuming that the user A is in the position and orientation of the avatar AI.

以上のようにして、第二実施形態ではユーザA,B間において、ユーザAが位置姿勢の異なるアバタAIに実質的に変身した状態において、ユーザAの動作を当該アバタAIの動作に反映させて、仮想空間内においてコミュニケーション等を行うことが可能である。 As described above, in the second embodiment, between users A and B, in a state in which user A has substantially transformed into an avatar AI with a different position and orientation, the motion of user A is reflected in the motion of avatar AI. , communication and the like can be performed in the virtual space.

提示部14では、他ユーザB(他ユーザBが自ユーザの立場である場合)に対する提示情報は、他ユーザBの情報端末装置10-Bの撮像部11で得た撮像画像に対して、描画部22で描画された描画情報(すなわち、他ユーザBから見た他ユーザであるユーザAのアバタAI)を重畳して提示すればよい。この際、前述したように、ユーザAでは開示部13において利用者であるユーザAの動き(骨格及び/又は表情などの動き)をトレースした情報を開示情報に含めることで、ユーザBに対して提示されるアバタAIを、ユーザAの動きを模したものとなるようにすることができる。一方、提示部14では、自ユーザAに対する提示情報に関しては、自ユーザAの情報端末装置10-Aの撮像部11で得た撮像画像は自ユーザAの位置姿勢におけるものであってアバタAIの位置姿勢におけるものではないため、この撮像画像は利用せず、描画部22で描画された描画情報(ユーザBの開示情報BI)のみを提示すればよい。あるいは、仮想空間における背景に関しても予め3Dモデルを定義して保存部21に記憶させておき、(例えば、実世界のフィールドF2における背景としてのステージ側STのフロア、壁W2及び舞台裏側BCのフロアなどを3Dモデルとして定義して記憶部21に記憶させておき、)当該モデル化された背景を描画したうえで、当該背景に対して、描画部22で描画された描画情報(ユーザBの開示情報BI)を重畳したものを提示してもよい。 In the presentation unit 14, the presentation information for the other user B (when the other user B is in the position of the own user) is drawn on the captured image obtained by the imaging unit 11 of the information terminal device 10-B of the other user B. The drawing information drawn by the unit 22 (that is, the avatar AI of the user A who is the other user as seen from the other user B) may be superimposed and presented. At this time, as described above, the disclosure unit 13 allows the user A to include information obtained by tracing the movement of the user A (the movement of the skeleton and/or the facial expression) in the disclosed information, so that the user B can The presented avatar AI can be made to imitate the movement of the user A. On the other hand, in the presentation unit 14, regarding the presentation information for the user A, the captured image obtained by the imaging unit 11 of the information terminal device 10-A of the user A is in the position and orientation of the user A, and the avatar AI is displayed. Since it is not based on the position and orientation, it is sufficient to present only the drawing information drawn by the drawing unit 22 (disclosure information BI of user B) without using this captured image. Alternatively, a 3D model may be defined in advance for the background in the virtual space and stored in the storage unit 21 (for example, the floor of the stage side ST, the wall W2, and the floor behind the stage BC as the background in the field F2 in the real world). etc. is defined as a 3D model and stored in the storage unit 21, and after drawing the modeled background, the drawing information (disclosed by user B) drawn by the drawing unit 22 is drawn on the background. Information BI) may be superimposed and presented.

第二実施形態でアバタAIを利用する自ユーザAにおいては、この3Dモデル化された背景をアバタAIの位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)から見た深度情報を算出することで、第一実施形態の描画部22による見出し(3)の深度情報を利用する実施形態と同様の描画を、第二実施形態において行うようにしてもよい。 User A, who uses avatar AI in the second embodiment, obtains depth information of the 3D modeled background from the position and orientation of avatar AI (camera coordinate system X AI Y AI Z AI , origin P AI ). With this calculation, the drawing unit 22 of the first embodiment may perform drawing similar to the embodiment using the depth information of the headline (3) in the second embodiment.

以上、第二実施形態の説明例では自ユーザAが現実の位置姿勢と異なるアバタAIを利用するものとしたが、自ユーザAと同時に他ユーザBも、現実の位置姿勢と異なるアバタBIを利用することも可能である。すなわち、提示システム100内においては、任意の一部又は全部のユーザが、実際の位置姿勢と異なるアバタ(開示情報)を利用するようにしてもよい。 As described above, in the explanation example of the second embodiment, user A uses an avatar AI that differs from the actual position and orientation, but user B also uses an avatar BI that differs from the actual position and orientation. It is also possible to That is, within the presentation system 100, any part or all of the users may use avatars (disclosure information) that differ from their actual positions and orientations.

また、第二実施形態の図10の説明例では壁W2を隔てるのみでユーザA,B間の距離は比較的近い(例えば十メートル程度)ことが想定される説明例としているが、この距離は任意の大きさに設定することが可能であり、ユーザA,Bが互いに遠隔にある場合(例えば数百キロメートル程度離れた別のオフィスにそれぞれ存在する場合)であっても、第二実施形態は適用可能である。この際、遠隔でのアバタAIの位置姿勢合わせの情報として、変換TAIを所定値として設定しておけばよい。例えば、ユーザAが存在する第1オフィス内に設置しておく第1マーカの位置姿勢から、ユーザBが存在する遠隔の第2オフィス内に設置しておく第二マーカ(例えば台CL)の位置姿勢への変換として変換TAIを設定しておけば、ユーザAが第1マーカに位置している際に、遠隔のユーザBに対して、ユーザAのアバタAIが第2マーカに位置するような拡張現実表示を提示することが可能となる。同様に、ユーザAに対しても、ユーザBの開示情報BIを、自身が位置する第1マーカの近くにおいて拡張現実表示として提示することが可能となる。 Further, in the explanation example of FIG. 10 of the second embodiment, the explanation example assumes that the distance between users A and B is relatively short (for example, about ten meters) only by separating the wall W2. It can be set to any size, and even if users A and B are remote from each other (for example, if they are in different offices several hundred kilometers apart), the second embodiment Applicable. At this time, the conversion T AI may be set as a predetermined value as information for adjusting the position and orientation of the avatar AI remotely. For example, from the position and orientation of the first marker placed in the first office where user A exists, the position of the second marker (for example, table CL) placed in the remote second office where user B exists If a transformation T AI is set as a transformation to a posture, when user A is positioned at the first marker, user A's avatar AI will be positioned at the second marker for remote user B. It is possible to present a wide variety of augmented reality displays. Similarly, for user A, it is possible to present user B's disclosure information BI as an augmented reality display near the first marker where the user is located.

第1マーカ及び第2マーカとしては、画像認識等を介して世界座標系での位置姿勢を計算可能なものとして、拡張現実表示における正方マーカなどを利用すればよい。こうして、第1マーカの位置姿勢と第2マーカの位置姿勢とを計算したうえで、これらの間の変換TAIを予め算出しておけばよい。(ただし、当該算出され設定された変換TAIを利用して本発明による拡張現実表示を行う際には、これらマーカを撮像して認識することは不要である。) As the first marker and the second marker, a square marker or the like in augmented reality display may be used as a marker capable of calculating the position and orientation in the world coordinate system through image recognition or the like. After calculating the position and orientation of the first marker and the position and orientation of the second marker in this way, the transformation T AI between them may be calculated in advance. (However, when the augmented reality display according to the present invention is performed using the calculated and set conversion T AI , it is not necessary to image and recognize these markers.)

以上の第二実施形態は、ユーザAに対して提示される拡張現実表示が、ユーザAとは異なる位置姿勢にあるアバタAIの視点から見たもの(アバタAIでの一人称視点)となる例であった。この変形例として、ユーザAに対して提示される拡張現実表示が第一実施形態と同様にユーザA自身の視点であり、且つ、第一実施形態では実現されなかった処理として、自身のアバタAIを三人称視点(アバタAIの立場では三人称視点であり、ユーザA自身の立場では一人称視点に相当)で見ているものとなるように、描画情報に追加することも可能である。図12は、この第二実施形態の変形例の模式例を示す図であり、図10に示されるのと同じユーザA,B間での撮像状況における例EX6(図11の例EX4の変形例に相当)として、アバタAIを利用するユーザAの情報端末装置10-Aにおける撮像画像P4''と描画情報R40との模式例が示されている。 The second embodiment described above is an example in which the augmented reality display presented to user A is viewed from the viewpoint of avatar AI in a position and orientation different from that of user A (first-person viewpoint of avatar AI). there were. As a modified example of this, the augmented reality display presented to user A is the user A's own viewpoint as in the first embodiment, and the processing that was not realized in the first embodiment is performed by the user's own avatar AI. can be added to the drawing information so that it is viewed from a third-person point of view (a third-person point of view from the point of view of avatar AI, which corresponds to a first-person point of view from the point of view of user A himself). FIG. 12 is a diagram showing a schematic example of a modification of the second embodiment, showing an example EX6 (a modification of example EX4 in FIG. 11) in the same imaging situation between users A and B as shown in FIG. ), a schematic example of a captured image P4'' and drawing information R40 in the information terminal device 10-A of the user A using the avatar AI is shown.

撮像画像P4''は、ユーザAがユーザBの側を向いて撮像されるものであるが、図10に示されるように壁W2に遮蔽されているので、ステージST及び当該ステージST上の台CL並びにユーザB等は撮像不可能な状態にある。(図12では、壁W2が存在しない場合に撮像可能となる台CLとユーザBを、画像P4''上に破線を用いてその位置のみを示している。)描画情報R40は、撮像画像P4''における台CL上の位置にユーザA自身のアバタAIが描画されたものと、他ユーザBの描画された開示情報BIと、で構成されることにより、ユーザAはユーザAの実在する位置PAから見た三人称視点において自身のアバタAI(位置PAI)と他ユーザBの開示情報BI(位置PB)と、を提示部14での提示情報として確認することができる。 The captured image P4'' is captured with the user A facing the user B, but is blocked by the wall W2 as shown in FIG. CL, user B, etc. are in a state where imaging is not possible. (In FIG. 12, only the positions of the table CL and the user B, which can be imaged when the wall W2 does not exist, are indicated by broken lines on the image P4''.) User A's own avatar AI is drawn at a position on the platform CL in '' and disclosure information BI drawn by another user B. From the third-person viewpoint seen from PA , the user's own avatar AI (position P AI ) and other user B's disclosure information BI (position P B ) can be confirmed as information presented by the presentation unit 14 .

この第二実施形態の変形例は、ユーザAに対する他ユーザBの開示情報を第一実施形態と同様にしてカメラ座標系XAYAZA(原点PA)の仮想空間において描画し、且つ、同仮想空間内において追加処理として、ユーザAが開示部13において開示情報として自身のアバタAI(ユーザAの動きをトレースした情報を含んでよい)と変換情報TAIとを設定しておいたうえで、ユーザAの開示情報であるアバタAIを変換TAIを用いて位置PAI(及び座標系XAIYAIZAIで表現される姿勢)に配置して描画し、ユーザAの描画情報に追加することで実現することができる。図10の状況のように、遮蔽が発生することが既知である場合、描画部22における見出し(3)の深度情報の利用は行わずに、自ユーザA及び他ユーザBの描画情報を描画してもよい。ユーザB(自ユーザの場合)の描画情報に関しては既に説明した第二実施形態と同様でよく、ユーザBに対しては図11の例EX5で示される通りの拡張現実表示が提示される。 In this modification of the second embodiment, disclosure information of another user B to the user A is drawn in the virtual space of the camera coordinate system X A Y A Z A (origin P A ) in the same manner as in the first embodiment, and As an additional process in the same virtual space, the user A sets his own avatar AI (which may include information tracing the movement of the user A) and conversion information T AI as disclosure information in the disclosure unit 13. Then, the avatar AI, which is user A's disclosed information, is placed and drawn at position P AI (and the posture expressed by the coordinate system X AI Y AI Z AI ) using transformation T AI , and user A's drawing information This can be achieved by adding the . As in the situation of FIG. 10, when it is known that occlusion will occur, the rendering unit 22 does not use the depth information of the headline (3), and renders the rendering information of the user A and the other user B. may The drawing information of user B (in the case of his own user) may be the same as that of the already described second embodiment, and user B is presented with an augmented reality display as shown in example EX5 in FIG.

<3> 図3に示す提示システム100での情報端末装置10及びサーバ20での機能ブロックの構成(役割の分担)は、一例に過ぎず、種々の変形が可能である。例えば、保存部21のみをサーバ20に設け、描画部22を情報端末装置10に設けるようにしてもよい。保存部21及び描画部22の両方を情報端末装置10に設け、サーバ20が存在しない実施形態も可能であり、この場合、複数の情報端末装置10の間でアドホック通信などにより、保存部21に保存すべき情報を共有するようにしてもよい。複数の情報端末装置10で互いに構成が違っていてもよく、例えば、描画部22を情報端末装置10自身において備えるものと、描画部22を備えず、サーバ20に当該機能を委ねるものとがあってもよい。 <3> The functional block configuration (role sharing) of the information terminal device 10 and the server 20 in the presentation system 100 shown in FIG. 3 is merely an example, and various modifications are possible. For example, only the storage unit 21 may be provided in the server 20 and the drawing unit 22 may be provided in the information terminal device 10. FIG. An embodiment in which both the storage unit 21 and the drawing unit 22 are provided in the information terminal device 10 and the server 20 does not exist is also possible. Information to be saved may be shared. A plurality of information terminal devices 10 may have different configurations. For example, some information terminal devices 10 themselves include the drawing unit 22, while others do not include the drawing unit 22 and entrust the function to the server 20. may

<4> 提示システム100内の複数の情報端末装置10のうち、一部分のものは、開示部13を備えない構成であってもよい。この場合、開示部13を備えない情報端末装置10自身においては、開示部13を備える1つ以上の他端末としての情報端末装置10の開示情報を拡張現実表示として提示することが可能であるが、他端末から見た場合、当該自端末は開示情報を公開しないので、拡張現実表示として提示される対象には含まれないこととなる。 <4> Some of the plurality of information terminal devices 10 in the presentation system 100 may be configured without the disclosure unit 13 . In this case, the information terminal device 10 itself that does not include the disclosure unit 13 can present the disclosed information of the information terminal device 10 as one or more other terminals that include the disclosure unit 13 as an augmented reality display. , when viewed from another terminal, the terminal itself does not disclose the disclosed information, so it is not included in the objects presented as augmented reality display.

<5> 上記と同様に、提示システム100内の複数の情報端末装置10のうち、一部分のものは、計測部12及び開示部13は備えるが、提示部14は備えない構成であってもよい。このような情報端末装置10は、他端末に対して自端末の開示情報を公開して描画させて他端末において拡張現実表示として提示させる役割のみを担い、自端末における拡張現実表示は行わない。 <5> As described above, some of the information terminal devices 10 in the presentation system 100 may have the measurement unit 12 and the disclosure unit 13, but may not have the presentation unit 14. . Such an information terminal device 10 plays only the role of making the disclosed information of its own terminal available to other terminals, drawing it, and presenting it as an augmented reality display on the other terminal, and does not perform the augmented reality display on its own terminal.

<6> 提示部14では、撮像部11で得た撮像画像に描画部22で得た描画情報を重畳して提示情報を提示するが、これは、ハードウェアとしてビデオシースルー型HMD(ヘッドマウントディスプレイ)を用いて実現してもよいし、スマートフォン等の画面としての通常のディスプレイを用いて実現してもよい。また、別の実施形態として、提示部14では、撮像部11で得た撮像画像は利用せず、描画部22で得た描画情報のみをフィールドを背景として提示するようにしてもよく、この場合、ハードウェアとして光学シースルー型HMDを用いて実現してもよい。光学シースルー型HMDに関しては、予めキャリブレーションを行い、撮像部11で撮像して得られる撮像画像でのフィールドの風景と同じ風景が、当該HMDを装着するユーザにおいて実世界の風景(背景)として見えるようにすることで、描画情報が拡張現実表示としてHMD上の適切な位置に描画されるようにしておけばよい。 <6> The presentation unit 14 presents presentation information by superimposing the drawing information obtained by the drawing unit 22 on the captured image obtained by the imaging unit 11. This is based on a video see-through HMD (head-mounted display) as hardware. ), or may be realized using a normal display as a screen of a smartphone or the like. Further, as another embodiment, the presentation unit 14 may present only the drawing information obtained by the drawing unit 22 as the background of the field without using the captured image obtained by the imaging unit 11. In this case, , may be realized using an optical see-through HMD as hardware. As for the optical see-through HMD, calibration is performed in advance, and the same scenery as the scenery of the field in the imaged image obtained by the imaging unit 11 can be seen as the scenery (background) of the real world by the user wearing the HMD. By doing so, the drawing information can be drawn at an appropriate position on the HMD as an augmented reality display.

<7> 図13は、一般的なコンピュータ装置70におけるハードウェア構成の例を示す図である。提示システム100における情報端末装置10及びサーバ20はそれぞれ、このような構成を有する1台以上のコンピュータ装置70として実現可能である。コンピュータ装置70は、所定命令を実行するCPU(中央演算装置)71、CPU71の実行命令の一部又は全部をCPU71に代わって又はCPU71と連携して実行する1つ以上の専用プロセッサ72(GPU(グラフィックス処理装置)や深層学習専用プロセッサ等)、CPU71にワークエリアを提供する主記憶装置としてのRAM73、補助記憶装置としてのROM74、通信インタフェース75、ディスプレイ76、マウス、キーボード、タッチパネル等によりユーザ入力を受け付ける入力インタフェース77、1つ以上のセンサ装置78、カメラ79と、これらの間でデータを授受するためのバスBSと、を備える。 <7> FIG. 13 is a diagram showing an example of a hardware configuration in a general computer device 70. As shown in FIG. Each of the information terminal device 10 and the server 20 in the presentation system 100 can be implemented as one or more computer devices 70 having such a configuration. The computer device 70 includes a CPU (Central Processing Unit) 71 that executes predetermined instructions, and one or more dedicated processors 72 (GPU ( graphics processor), deep learning dedicated processor, etc.), RAM 73 as a main storage device that provides a work area to the CPU 71, ROM 74 as an auxiliary storage device, communication interface 75, display 76, mouse, keyboard, touch panel, etc. User input It comprises an input interface 77 for receiving, one or more sensor devices 78, a camera 79 and a bus BS for passing data between them.

情報端末装置10及びサーバ20の各部は、各部の機能に対応する所定のプログラムをROM74から読み込んで実行するCPU71及び/又は専用プロセッサ72によって実現することができる。ここで、表示関連の処理が行われる場合にはさらに、ディスプレイ76が連動して動作し、ネットワーク上でのデータ送受信に関する通信関連の処理が行われる場合にはさらに通信インタフェース75が連動して動作する。撮像部11及び提示部14をハードウェアとして構成するのがそれぞれ、カメラ79及びディスプレイ76である。センサ装置78は、計測部12において撮像画像を解析する手法以外で種々の計測情報を取得する際に用いる、1つ以上の専用センサをハードウェアとして構成するものであり、位置姿勢取得部121での測位センサとしてのGPS、コンパス、ジャイロ、屋内GPSや、深度取得部123での光センサ(深度センサ)としてのLiDAR装置や、光源情報取得部124での照度センサなどが含まれる。 Each part of the information terminal device 10 and the server 20 can be implemented by a CPU 71 and/or a dedicated processor 72 that reads and executes a predetermined program corresponding to the function of each part from the ROM 74 . Here, when display-related processing is performed, the display 76 further operates in conjunction, and when communication-related processing relating to data transmission and reception on the network is performed, the communication interface 75 further operates in conjunction. do. A camera 79 and a display 76 constitute the imaging unit 11 and the presentation unit 14 as hardware, respectively. The sensor device 78 is configured as hardware of one or more dedicated sensors that are used when acquiring various measurement information by methods other than analyzing the captured image in the measurement unit 12. The position and orientation acquisition unit 121 GPS, compass, gyro, indoor GPS as a positioning sensor, a LiDAR device as an optical sensor (depth sensor) in the depth acquisition unit 123, an illuminance sensor in the light source information acquisition unit 124, and the like.

なお、情報端末装置10においてはその筐体に、図13に示されるような各ハードウェアが固定して設置されることにより、カメラ79やセンサ装置78の位置姿勢は当該固定されている筐体の位置姿勢に一致することとなる。従って、各種の実施形態によりカメラ79やセンサ装置78の出力を元に求めた位置姿勢や周辺環境に関する情報は、情報端末装置10の位置姿勢や周辺環境に関する情報を表すものとなる。 In addition, in the information terminal device 10, each hardware as shown in FIG. will match the position and orientation of Therefore, the information about the position and orientation and the surrounding environment obtained based on the output of the camera 79 and the sensor device 78 according to various embodiments represents the information about the position and orientation of the information terminal device 10 and the surrounding environment.

100…提示システム、10…情報端末装置、20…サーバ、11…撮像部、12…計測部、13…開示部、14…提示部、21…保存部、22…描画部 DESCRIPTION OF SYMBOLS 100... Presentation system, 10... Information terminal device, 20... Server, 11... Imaging part, 12... Measurement part, 13... Disclosure part, 14... Presentation part, 21... Storage part, 22... Drawing part

Claims (6)

自身の位置姿勢を各時刻において計測する計測部と、
1つ以上の他端末においてそれぞれ各時刻において計測された位置の情報と公開設定された開示情報でありアバタとして構成される3Dモデルとを参照することで、前記各時刻において計測した自身の位置姿勢を基準とした3次元仮想空間内において、前記1つ以上の他端末の3Dモデルを当該他端末の位置及び所定の姿勢に各時刻において配置して描画することで描画情報を得る描画部と、
前記描画情報を各時刻において提示する提示部と、を備え、
前記3Dモデルには基準となる向きが定義されており、
前記3Dモデルの所定の姿勢は、前記3次元仮想空間内において前記各時刻における自身の位置姿勢に対して、当該3Dモデルが前記基準となる向きにおいて正対する姿勢であることを特徴とする情報端末装置。
a measurement unit that measures the position and orientation of itself at each time ;
By referring to position information measured at each time by one or more other terminals and a 3D model configured as an avatar that is disclosure information that is set to be public, the position of itself measured at each time a drawing unit that obtains drawing information by arranging and drawing the one or more 3D models of the other terminal at each time in a three-dimensional virtual space based on the position of the other terminal at the position and predetermined position of the other terminal; ,
a presentation unit that presents the drawing information at each time ,
A reference orientation is defined in the 3D model,
The information terminal, wherein the predetermined posture of the 3D model is a posture in which the 3D model faces the reference direction with respect to the position and posture of the 3D model at each time in the three-dimensional virtual space. Device.
前記情報端末装置では、前記計測した自身の位置姿勢に対する所定変換が設定されており、
前記描画部では、前記計測した自身の位置姿勢を基準とした3次元仮想空間内において描画を行うことに代えて、前記計測した自身の位置姿勢に対して、前記設定されている所定変換を適用した位置姿勢を基準とした3次元仮想空間内において描画を行うことを特徴とする請求項に記載の情報端末装置。
In the information terminal device, a predetermined transformation is set for the measured position and orientation of itself,
The rendering unit applies the set predetermined transformation to the measured position and orientation of the user, instead of performing rendering in a three-dimensional virtual space based on the measured position and orientation of the user. 2. The information terminal device according to claim 1 , wherein drawing is performed in a three-dimensional virtual space with reference to the position and orientation of the information terminal device.
前記情報端末装置では、前記計測した自身の位置姿勢に対する所定変換と、自身に関して公開設定された開示情報と、が設定されており、
前記描画部ではさらに、前記自身に関して公開設定された開示情報を、前記計測した自身の位置姿勢に対して前記所定変換を適用した位置姿勢に配置して描画することを特徴と
する請求項1または2に記載の情報端末装置。
In the information terminal device, a predetermined transformation of the measured position and orientation of the device itself and disclosure information set to the public regarding the device are set, and
2. The drawing unit further arranges and draws the disclosure information that is set to be open to the public in the position and orientation obtained by applying the predetermined transformation to the measured position and orientation of the user. 2. The information terminal device according to 2 above.
前記1つ以上の他端末のうち少なくとも一部ではそれぞれ、前記計測された位置に対する所定変換が設定されており、
前記描画部では、当該少なくとも一部の他端末の開示情報を、当該他端末の位置に配置して描画することに代えて、当該他端末の位置に対して、設定されている所定変換を適用した位置に配置して描画することを特徴とする請求項1ないしのいずれかに記載の情報端末装置。
At least some of the one or more other terminals are respectively set with a predetermined transformation for the measured position,
In the drawing unit, instead of arranging and drawing the disclosed information of the at least part of the other terminal at the position of the other terminal, a predetermined conversion that is set is applied to the position of the other terminal. 4. The information terminal device according to any one of claims 1 to 3 , wherein drawing is performed by arranging the information terminal device at a position where the image is drawn.
前記少なくとも一部の他端末の開示情報はそれぞれ、当該他端末を利用するユーザのアバタとして設定されていることを特徴とする請求項に記載の情報端末装置。 5. The information terminal device according to claim 4 , wherein each of the disclosure information of said at least some of the other terminals is set as an avatar of the user who uses said other terminal. コンピュータを請求項1ないしのいずれかに記載の情報端末装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as the information terminal device according to any one of claims 1 to 5 .
JP2019149154A 2019-08-15 2019-08-15 Information terminal device and program Active JP7261121B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019149154A JP7261121B2 (en) 2019-08-15 2019-08-15 Information terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019149154A JP7261121B2 (en) 2019-08-15 2019-08-15 Information terminal device and program

Publications (2)

Publication Number Publication Date
JP2021033377A JP2021033377A (en) 2021-03-01
JP7261121B2 true JP7261121B2 (en) 2023-04-19

Family

ID=74676579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149154A Active JP7261121B2 (en) 2019-08-15 2019-08-15 Information terminal device and program

Country Status (1)

Country Link
JP (1) JP7261121B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100109A (en) 2003-09-25 2005-04-14 Namco Ltd Image generation information, information storage medium and image generation apparatus
JP2013196616A (en) 2012-03-22 2013-09-30 Sharp Corp Information terminal device and information processing method
JP2013254305A (en) 2012-06-06 2013-12-19 Sony Corp Information processing device, computer program, and terminal device
JP2015068831A (en) 2013-09-30 2015-04-13 本田技研工業株式会社 Function-extended three-dimensional (3d) navigation
JP2014517373A5 (en) 2012-04-10 2015-05-07
JP2016071900A (en) 2014-09-30 2016-05-09 キヤノンマーケティングジャパン株式会社 Information processing system and control method of the same, and program
JP2016081225A (en) 2014-10-15 2016-05-16 Kddi株式会社 Information presenting system
JP2017143409A (en) 2016-02-10 2017-08-17 株式会社Jvcケンウッド Mobile terminal device and program
JP2019020832A (en) 2017-07-12 2019-02-07 株式会社コロプラ Information processing method, device, and program for causing computer to execute the method
JP6730537B1 (en) 2017-06-01 2020-07-29 シグニファイ ホールディング ビー ヴィSignify Holding B.V. System and method for rendering virtual objects

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3234802B2 (en) * 1997-10-15 2001-12-04 日本電信電話株式会社 Information search method and storage medium storing information search program
US9360991B2 (en) 2011-04-11 2016-06-07 Microsoft Technology Licensing, Llc Three-dimensional icons for organizing, invoking, and using applications

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100109A (en) 2003-09-25 2005-04-14 Namco Ltd Image generation information, information storage medium and image generation apparatus
JP2013196616A (en) 2012-03-22 2013-09-30 Sharp Corp Information terminal device and information processing method
JP2014517373A5 (en) 2012-04-10 2015-05-07
JP2013254305A (en) 2012-06-06 2013-12-19 Sony Corp Information processing device, computer program, and terminal device
JP2015068831A (en) 2013-09-30 2015-04-13 本田技研工業株式会社 Function-extended three-dimensional (3d) navigation
JP2016071900A (en) 2014-09-30 2016-05-09 キヤノンマーケティングジャパン株式会社 Information processing system and control method of the same, and program
JP2016081225A (en) 2014-10-15 2016-05-16 Kddi株式会社 Information presenting system
JP2017143409A (en) 2016-02-10 2017-08-17 株式会社Jvcケンウッド Mobile terminal device and program
JP6730537B1 (en) 2017-06-01 2020-07-29 シグニファイ ホールディング ビー ヴィSignify Holding B.V. System and method for rendering virtual objects
JP2019020832A (en) 2017-07-12 2019-02-07 株式会社コロプラ Information processing method, device, and program for causing computer to execute the method

Also Published As

Publication number Publication date
JP2021033377A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
CN106157359B (en) Design method of virtual scene experience system
WO2018116790A1 (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
KR102125293B1 (en) Generation device, generation method, and storage medium
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
US20110084983A1 (en) Systems and Methods for Interaction With a Virtual Environment
US20160140761A1 (en) Using depth information for drawing in augmented reality scenes
US11790610B2 (en) Systems and methods for selective image compositing
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
CA2550512A1 (en) 3d videogame system
US11682138B2 (en) Localization and mapping using images from multiple devices
JP2015114905A (en) Information processor, information processing method, and program
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
KR20180120456A (en) Apparatus for providing virtual reality contents based on panoramic image and method for the same
US11043019B2 (en) Method of displaying a wide-format augmented reality object
US11297296B2 (en) Display control apparatus, program, and display control method
JP7261121B2 (en) Information terminal device and program
Kim et al. 3-d virtual studio for natural inter-“acting”
US20200410734A1 (en) Spatial reproduction method and spatial reproduction system
CN113256773A (en) Surface grid scanning and displaying method, system and device
Saito Computer vision for 3DTV and augmented reality
Alfakhori et al. Occlusion screening using 3d city models as a reference database for mobile ar-applications
WO2023166794A1 (en) Information processing device, information processing method, image generation device, image generation method, and program
WO2022224964A1 (en) Information processing device and information processing method
US11310472B2 (en) Information processing device and image generation method for projecting a subject image onto a virtual screen
CN113449027A (en) Three-dimensional visual display method and device for dynamic information of urban intersection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230209

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230222

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R150 Certificate of patent or registration of utility model

Ref document number: 7261121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150