JP7261121B2 - Information terminal device and program - Google Patents
Information terminal device and program Download PDFInfo
- Publication number
- JP7261121B2 JP7261121B2 JP2019149154A JP2019149154A JP7261121B2 JP 7261121 B2 JP7261121 B2 JP 7261121B2 JP 2019149154 A JP2019149154 A JP 2019149154A JP 2019149154 A JP2019149154 A JP 2019149154A JP 7261121 B2 JP7261121 B2 JP 7261121B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- unit
- terminal device
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、他端末からの情報共有を簡素に実現できる、情報端末装置、プログラム、提示システム及びサーバに関する。 The present invention relates to an information terminal device, a program, a presentation system, and a server that can simply share information from other terminals.
撮像情報に提示情報を重畳する拡張現実が広く知られている。しかし、複数端末における共用においては利用可能な範囲が限定的であるという問題があり、従来技術の拡張現実において様々な対処がなされている。 Augmented reality that superimposes presentation information on imaging information is widely known. However, there is a problem that the usable range is limited when shared by a plurality of terminals, and various countermeasures have been taken in conventional augmented reality.
例えば、特許文献1はサーバが複数のワイドカメラから競技場のパノラマ合成映像を作成し、選手等の位置を画像認識する。認識されたパノラマ合成画像中の位置は複数の端末に配信され、各端末が競技場のフィールドラインをもとに端末の位置・姿勢を画像認識し、認識結果に応じて関連情報を重畳する。 For example, in Japanese Unexamined Patent Application Publication No. 2002-100000, a server creates a panoramic composite image of a stadium from a plurality of wide cameras and recognizes the positions of athletes and the like. The recognized position in the panoramic composite image is distributed to multiple terminals, and each terminal recognizes the position and posture of the terminal based on the field line of the stadium, and superimposes related information according to the recognition result.
非特許文献1は前方車両で遮蔽された情景を後方車両から確認できるようにするため、前方車両が後方車両に撮像情報を伝送し、前方の撮像情報と後方車両の撮像情報との特徴点対応に基づいたアフィン変換を前方車両の撮像情報に適用し後方車両の撮像情報と合成する。 In Non-Patent Document 1, in order to allow the vehicle behind to see the scene blocked by the vehicle ahead, the vehicle ahead transmits image information to the vehicle behind, and the image information of the front and the image information of the vehicle behind correspond to feature points. is applied to the imaging information of the forward vehicle, and synthesized with the imaging information of the rear vehicle.
非特許文献2も前方車両で遮蔽された情景を後方車両から確認できるようにするため、前方車両が後方車両に三次元復元した点群や特徴量等を伝送し、後方車両の自己位置推定結果に基づいた射影変換を前方車両の撮像情報に適用し後方車両の撮像情報と合成する。
In
特許文献2は他端末との近距離通信において他端末で測位された位置情報と他端末の周囲環境に依存した情報(他端末の信号強度など)とを受信することで、他端末の周囲環境に依存した情報を位置に紐づけて撮像情報に提示する。
In
しかしながら、以上のような従来技術には次の課題があった。 However, the conventional techniques as described above have the following problems.
特許文献1はワイドカメラが撮影可能な空間に限定されるため、広域化は困難であるという課題がある。また、サーバが画像認識に失敗する可能性が高いという課題がある。例えば、選手が重なって背番号などが遮蔽されると選手を検出・特定できない。そもそも背番号などの個人を特定する対象が無ければ関連情報を重畳できないという課題がある。 Patent document 1 is limited to a space that can be photographed by a wide camera, so there is a problem that it is difficult to widen the area. Also, there is a problem that the server is highly likely to fail in image recognition. For example, players cannot be detected and identified if the players are overlapped and their jersey numbers are blocked. In the first place, there is a problem that related information cannot be superimposed unless there is an object for identifying an individual, such as a jersey number.
非特許文献1,2も同じ課題を抱える。すなわち、撮像情報中から車や人という種別を画像認識したとしても個別の情報を開示する手段は開示されていない。また、前方車両と後方車両が同じ情景を撮像していないと機能しないという課題がある。例えば、図4のような状況下では前方車両VBの撮像情報と後方車両VAの撮像情報に同じ情景が撮像されないため一切機能しない。(なお、図4に関しては別の説明のために後述する。ここでは、図4は次の理由により当該一切機能しない状況が発生することを模式的に表している。すなわち、街角などのフィールドF1において前方車両VBはその走行方向dBを撮像しており、後方車両VAはその走行方向dAを撮像している状況を上空側から見た状況を図4は表しており、撮像の方向dB,dAが異なること及び遮蔽物としての建物の壁W1が存在することによって前後車両の撮像情報同士に共通の情景が含まれないため、当該一切機能しない状況が発生する。)
さらに、非特許文献1,2では、同じ情景を撮像している場合でも、同機能の活用が期待される夜間や悪天候ほど特徴点対応、三次元復元、自己位置推定に失敗する可能性が高いという課題がある。なおかつ、遮蔽物が無い場合の視野を再現しようとするため、遮蔽物そのものを見失う恐れがあり危険回避という本来の目的に合致しない恐れがあるという課題がある。
Furthermore, in
特許文献2は上記課題を一部解決する。即ち、他端末からの情報を受信することで全体を俯瞰する撮像部が不要となるため、天候や時間帯に依存せず、かつ個人を特定できる。しかしながら、他端末の数が多数であった場合に他端末や軌跡などを描画する画像は視認者にとって煩わしい提示となり得た。また、任意視点からの描画は表示されない。
以上のような従来技術の課題に鑑み、本発明は、他端末からの情報共有を簡素に実現できる、情報端末装置、プログラム、提示システム及びサーバを提供することを目的とする。 SUMMARY OF THE INVENTION In view of the problems of the prior art as described above, it is an object of the present invention to provide an information terminal device, a program, a presentation system, and a server that can simply implement information sharing from other terminals.
上記目的を達成するため、本発明は情報端末装置であって、自身の位置姿勢を計測する計測部と、1つ以上の他端末においてそれぞれ計測された位置の情報と公開設定された開示情報とを参照することで、前記計測した自身の位置姿勢を基準とした3次元仮想空間 内において、前記1つ以上の他端末の開示情報を当該他端末の位置に配置して描画することで描画情報を得る描画部と、前記描画情報を提示する提示部と、を備えることを特徴とする。また、本発明は、コンピュータを前記情報端末装置として機能させるプログラムであることを特徴とする。また、本発明は、2つ以上の情報端末装置と、サーバと、を備える提示システムであって、前記情報端末装置の各々は、自身の位置姿勢を計測する計測部と、公開設定する開示情報を受け付ける開示部と、を備え、当該位置姿勢の情報及び当該開示情報を前記サーバへと送信し、前記サーバは、前記情報端末装置の各々より受信した位置姿勢の情報及び開示情報を参照して、前記情報端末装置の各々に対して、自身の位置姿勢を基準とした3次元仮想空間内において、1つ以上の他端末の開示情報を当該他端末の位置に配置して描画を行うことで描画情報を得る描画部を備え、当該描画情報を対応する情報端末装置へと送信し、前記情報端末装置の各々はさらに、前記送信された描画情報を提示する提示部を備えることを特徴とする。さらに、本発明は、前記提示システムにおけるサーバであることを特徴とする。 To achieve the above object, the present invention provides an information terminal device comprising: a measuring unit that measures its own position and orientation; position information measured by one or more other terminals; By referring to, in a three-dimensional virtual space based on the measured position and orientation of itself and a presentation unit for presenting the drawing information. Further, the present invention is characterized by a program that causes a computer to function as the information terminal device. Further, the present invention is a presentation system comprising two or more information terminal devices and a server, wherein each of the information terminal devices includes a measurement unit that measures its own position and orientation, and disclosure information that is set to be public. and a disclosure unit that receives the position and orientation information and the disclosure information to the server, and the server refers to the position and orientation information and the disclosure information received from each of the information terminal devices. , for each of the information terminal devices, in a three-dimensional virtual space based on the position and orientation of the information terminal device, disclosing information of one or more other terminals is arranged at the position of the other terminal and drawn. A drawing unit that obtains drawing information, transmits the drawing information to a corresponding information terminal device, and each of the information terminal devices further includes a presentation unit that presents the transmitted drawing information. . Furthermore, the present invention is characterized by being a server in the presentation system.
本発明によれば、他端末において能動的に開示情報を公開するものとして設定し、仮想空間に当該開示情報を配置して描画したうえで提示することにより、情報共有を簡素に実現することができる。 According to the present invention, it is possible to simply implement information sharing by setting disclosure information to be actively disclosed on other terminals, arranging the disclosure information in a virtual space, drawing it, and presenting it. can.
図1は、一実施形態に係る提示システムの構成例を示す図であり、提示システム100は、ユーザA,B,Cと共にそれぞれ移動する情報端末装置10-A,10-B,10-Cとサーバ20とを備え、これらはネットワークNWを通じて相互に通信可能に構成されている。図1では、提示システム100内に3人のユーザの3つの情報端末装置が備わるものとしているが、これは例示に過ぎず、任意の複数(2つ以上)の情報端末装置が備わってよい。
FIG. 1 is a diagram showing a configuration example of a presentation system according to one embodiment. and a
なお、以降の説明においても、3つの情報端末装置10-A,10-B,10-Cあるいはこの一部分を参照する場合は、説明上の例示(特に、1人の自ユーザA及びその自端末としての情報端末装置10-Aと、1人以上の任意数の他ユーザB,C等及びその1つ以上の他端末としての情報端末装置10-B,10-C等と、の区別を明確化するための例示)に過ぎず、各説明は任意の複数(少なくとも2つ)の情報端末装置を備えて提示システム100が構成される場合に一般化可能である。
In the following description, when referring to the three information terminal devices 10-A, 10-B, and 10-C or a portion thereof, an example for explanation (in particular, one own user A and its own terminal and the information terminal device 10-A as one or more arbitrary number of other users B, C, etc. and the information terminal devices 10-B, 10-C, etc. as one or more other terminals. Each description can be generalized when the
複数の情報端末装置10-A,10-B,10-C等はそれぞれ、スマートフォン端末等として構成されることでユーザA,B,C等によって所持されて移動するものであってもよいし、ユーザA,B,C等が利用する車両等の移動手段に設置される装置として構成されることで移動するものであってもよい。 Each of the plurality of information terminal devices 10-A, 10-B, 10-C, etc. may be configured as a smartphone terminal or the like, and may be carried and moved by users A, B, C, etc., It may move by being configured as a device installed in a moving means such as a vehicle used by users A, B, C, and the like.
図2は、一実施形態に係る提示システム100の情報端末装置10及びサーバ20の機能ブロック図である。情報端末装置10は、撮像部11、計測部12、開示部13及び提示部14を備え、サーバ20は、保存部21及び描画部22を備える。図2に示す情報端末装置10は、図1に任意の複数の一例として3つの場合を示した各情報端末装置10-A,10-B,10-Cでの共通の機能ブロック図である。すなわち、図1の各情報端末装置10-A,10-B,10-Cはいずれも図2の情報端末装置10の構成の全部又は一部を有するものであってよい。
FIG. 2 is a functional block diagram of the
一実施形態に係る提示システム100の概略的な動作は次の通りであり、大きく(1)情報取得、(2)描画、(3)提示、の3つの処理に分けることができる。
The general operation of the
(1)情報取得…撮像部11、計測部12及び開示部13
まず、情報端末装置10の側において、撮像部11は、撮像を行って得られた撮像画像を計測部12及び提示部14へと出力する。計測部12は撮像画像を解析して、あるいはGPS(全地球測位システム)等の測位手段を用いて情報端末装置10の位置姿勢の情報を含む測位情報を取得し、当該計測情報をサーバ20の保存部21へと送信する。開示部13は、情報端末装置10を利用するユーザによる入力等によって、拡張現実表示として他ユーザに公開設定する情報である開示情報を受け付け、当該開示情報をサーバ20の保存部21へと送信する。
(1) Acquisition of information: imaging unit 11,
First, on the
(2)描画…保存部21及び描画部22
一方、サーバ20の側において、保存部21は、各ユーザの情報端末装置10における計測部12及び開示部13からそれぞれ送信される計測情報及び開示情報を当該ユーザのものとしてユーザID(識別子)を紐づけて保存することにより、描画部22からの参照を可能とする。描画部22は保存部21を参照して、それぞれのユーザの情報端末装置10に応じた描画情報を描画し、当該描画情報を対応するユーザの情報端末装置10の提示部14へと送信する。
(2) Drawing...storage unit 21 and drawing unit 22
On the other hand, on the side of the
(3)提示…提示部14
情報端末装置10において、提示部14は、撮像部11で得た撮像画像に描画部22から得た描画情報を重畳したものを、拡張現実表示を実現した提示情報としてユーザに対して提示する。
(3) Presentation: presentation unit 14
In the
例えば図1のように提示システム100内の情報端末装置10が、ユーザA,B,Cの情報端末装置10-A,10-B,10-Cの3つである場合、描画部22ではユーザAの情報端末装置10-Aのための描画情報を次のようにして描画することができる。まず、描画情報はユーザAの情報端末装置10における撮像部11(カメラ)での撮像画像に重畳させるものであるため、このカメラの外部パラメータ(カメラの位置姿勢を表す)によるカメラ座標系において描画を行うために、描画部22は保存部21より当該ユーザAの計測情報に含まれる外部パラメータの情報を取得する。
For example, when there are three information terminal devices 10-A, 10-B, and 10-C of users A, B, and C in the
そして、描画部22は、保存部21より他ユーザであるユーザB,Cに関してそれぞれ保存されている計測情報及び開示情報を参照することによって、当該ユーザAのカメラの外部パラメータ(位置姿勢)によるカメラ座標系において、他ユーザB,Cの開示情報を描画することで、ユーザAの情報端末装置10の提示部14において撮像画像と重畳して提示されるものとしてユーザAの描画情報を得る。この詳細に関しては後述するが、自ユーザAの計測情報と他ユーザB,Cの計測情報とを比較することにより、拡張現実として表示する範囲外にあると判定された場合等には、当該他ユーザB,Cの開示情報の描画を行わない場合や、描画の態様を変更する場合もある。
Then, the drawing unit 22 refers to the measurement information and the disclosure information stored for each of the users B and C, who are other users, from the storage unit 21, thereby obtaining a camera image based on the external parameters (position and orientation) of the camera of the user A. By drawing the disclosure information of the other users B and C in the coordinate system, the drawing information of the user A is obtained as superimposed and presented on the captured image in the presentation unit 14 of the
提示システム100に存在する情報端末装置10が情報端末装置10-A,10-B,10-Cの3つではなく任意の複数である場合も同様に、描画部22では、各ユーザ(それぞれが「自ユーザ」である)の情報端末装置10に対して、自ユーザの位置姿勢において他ユーザの開示情報を選択的に描画することによって描画情報を得る。
Similarly, when the number of
提示システム100では、リアルタイムに各ユーザの情報端末装置10より計測情報及び開示情報をサーバ20において取得して描画を行い、リアルタイムに各ユーザの情報端末装置10において当該描画情報を提示することができる。図3は、一実施形態に係る提示システム100の当該リアルタイムの動作を、各時刻t(t=1,2,3,…)で繰り返して実行される共通の処理ステップ群S(t)として、提示システム100内での各装置の処理ステップにより示す図である。なお、図3では下側方向が時間進行の向きを表し、横側方向が各々の情報端末装置10とサーバ20との間での情報の送受信の様子を表している。
In the
図3にて各装置の処理ステップは前述した(1)情報取得、(2)描画、(3)提示の処理の時刻tにおけるものとして示されており、例えば、情報端末装置10-Aに関して次の通りである。ステップGA(t)にて自身での情報取得(撮像部11による撮像画像、計測部12による計測情報及び開示部13による開示情報の取得)を行い、計測情報と開示情報に関してはユーザA(情報端末装置10-A)に紐づいた情報として、サーバ20の保存部へと送信する。ステップRA(t)にて、サーバ20の描画部22は、ユーザA(情報端末装置10-A)のための描画情報を描画して、情報端末装置10-Aへと送信する。ステップDA(t)にて、情報端末装置10-Aの提示部14は、受信した描画情報を撮像画像に重畳することで得られる拡張現実表示をユーザAに対して提示する。
In FIG. 3, the processing steps of each device are shown at the time t of the aforementioned processing of (1) information acquisition, (2) drawing, and (3) presentation. is as follows. In step GA(t), information is acquired by itself (captured image by the imaging unit 11, measurement information by the
図3にて同様に、ステップGB(t),RB(t)及びDB(t)は情報端末装置10-Bに関する時刻tでの情報取得、描画及び提示の処理ステップであり、ステップGC(t),RC(t)及びDC(t)は情報端末装置10-Cに関する時刻tでの情報取得、描画及び提示の処理ステップである。 Similarly in FIG. 3, steps GB(t), RB(t), and DB(t) are processing steps for acquiring, drawing, and presenting information at time t regarding the information terminal device 10-B, and step GC(t ), RC(t) and DC(t) are the processing steps for information acquisition, rendering and presentation at time t for the information terminal device 10-C.
以上の概略説明のように、各々の情報端末装置10に関して共通の処理によりリアルタイムで拡張現実表示を行うことが可能な提示システム100の各機能部に関して、その詳細を以下に説明する。
As outlined above, the functional units of the
(撮像部11)
撮像部11は、情景を撮像して撮像画像を得て、計測部12及び提示部14へ出力する。(なお、計測部12への撮像画像の出力は、計測部12において必要な場合のみでよく、計測部12で撮像画像を必要としない実施形態ではこの出力を省略してよい。)撮像部11を実現するハードウェアとしてはスマートフォン等の携帯端末に標準装備されるデジタルカメラ等を用いることができる。
(imaging unit 11)
The imaging unit 11 captures a scene to obtain a captured image, and outputs the captured image to the
図4は撮像部11が撮像を行う実世界の模式例としての街角のフィールドF1を、上空側から見た状況を表す模式図である。フィールドF1には壁W1と、ユーザA,B,Cのそれぞれの情報端末装置10-A,10-B,10-Cとが存在し、情報端末装置10-A,10-Bはそれぞれ方向dA,dBに向かって道路上を走行している車両VA,VBに搭載され、情報端末装置10-Cは歩行者であるユーザCによって保持されている。 FIG. 4 is a schematic diagram showing a street corner field F1 as a model example of the real world in which the imaging unit 11 captures an image, as viewed from above. A wall W1 and information terminal devices 10-A, 10-B, and 10-C of users A, B, and C exist in the field F1. , dB, and the information terminal device 10-C is carried by a user C who is a pedestrian.
図5は、図4の状況において撮像される撮像画像の模式例を示す図であり、具体的には、図4の情報端末装置10-Aの撮像部11がその前方の方向dAを撮像することで得られた撮像画像PAが模式例として示されている。撮像画像PAにおいてはユーザAの車両10-Aの前方dAの情景が撮像され、画像中央側及び右側に、車両10-Aの前方を左に向かって走行しており、情報端末装置10-BのユーザBが乗車している車両VBが撮像されると共に、画像左側には壁W1が撮像されている。図4に示される通り、この壁W1の奥には情報端末装置10-Cを保持するユーザCが存在するが、壁W1によって遮蔽されることで、撮像画像PAにおいてユーザC及び情報端末装置10-Cは撮像されていない。ここで、ユーザC及び情報端末装置10-Cは、仮に壁W1が存在しなかったとすることにより遮蔽が発生しないとする場合には、撮像画像PA内に撮像される範囲に位置している。なお、この図4及び図5の例は、以降の説明例においても適宜、前提となる状況を表すものとして参照する。 FIG. 5 is a diagram showing a schematic example of a captured image captured in the situation of FIG. 4. Specifically, the imaging unit 11 of the information terminal device 10-A in FIG. 4 captures an image in the forward direction dA. A captured image PA obtained by this is shown as a schematic example. In the imaged image PA, the scene dA in front of the vehicle 10-A of the user A is imaged. A vehicle VB in which the user B is riding is imaged, and a wall W1 is imaged on the left side of the image. As shown in FIG. 4, the user C holding the information terminal device 10-C exists behind the wall W1. -C is not imaged. Here, the user C and the information terminal device 10-C are positioned within the range captured in the captured image PA if it is assumed that the wall W1 does not exist and thus no shielding occurs. It should be noted that the examples of FIGS. 4 and 5 will also be referred to in the following explanation examples as appropriate, as they represent the prerequisite conditions.
(計測部12)
計測部12は、情報端末装置10の位置姿勢の情報を少なくとも含む計測情報を取得して、当該計測情報をサーバ20の保存部21へと送信する。計測情報を取得する際は、撮像部11で得た撮像画像を利用してもよいし、撮像画像を利用しない手法を用いるようにしてもよい。図6は一実施形態に係る計測部12の機能ブロック図であり、計測部12は位置姿勢を取得する位置姿勢取得部121と、内部パラメータを取得する内部パラメータ取得部122と、深度を取得する深度取得部123と、光源情報を取得する光源情報取得部124と、を備える。この各部121~124においても、各情報を取得する際には、撮像画像を利用する手法を用いてもよいし、利用しない手法を用いてもよい。
(Measurement part 12)
The
計測部12は少なくとも位置姿勢取得部121を備えることで、計測情報に位置姿勢の情報を含めて出力するが、残りの各部122~124の全部又は一部をさらに備えることで、内部パラメータ、深度、光源情報の全部又は一部を含めたものを計測情報として出力するようにしてもよい。
The
位置姿勢取得部121は、撮像部11をハードウェアとして構成するカメラの外部パラメータを、位置姿勢の情報として取得する。この際、任意の既存手法を用いてよい。例えば、スマートフォン等の携帯端末に標準装備される測位センサとしてのGPS、コンパス(方位センサ)、ジャイロ(角度センサ)を用いて位置姿勢情報を取得してもよい。また、撮像部11で得た撮像画像よりSIFT特徴量などの画像特徴情報を抽出することで、3次元座標情報が既知のマーカ等を撮像画像内において検出し、カメラキャリブレーションの手法により、撮像画像内でのマーカの座標と3次元座標情報との変換関係から位置姿勢情報を取得してもよい。また、屋内GPSの手法により、無線局からの電波強度等により無線局との距離を推定したうえで、三角測量等によって位置姿勢情報を取得してもよい。これら既存手法を組み合わせて位置姿勢情報を取得してもよい。
The position/
内部パラメータ取得部122は、撮像部11をハードウェアとして構成するカメラの内部パラメータ(画角や焦点距離)を取得する。内部パラメータの取得は、位置姿勢取得部121にて外部パラメータを求める際と同様のカメラキャリブレーションの手法を用いて撮像画像から取得してもよいし、撮像部11を構成するカメラを制御するアクチュエータにアクセスできる場合は、このアクチュエータに対する駆動制御の信号から内部パラメータを取得してもよいし、撮像部11を構成するカメラによる撮像状況を表すExif情報などの形式で撮像画像に内部パラメータが紐づけて記録されている場合は、この記録から取得してもよい。
The internal
内部パラメータ取得部122では、内部パラメータが時間変化しないことが既知の場合、ある1時刻のみにおいて内部パラメータを取得して保存部21へと送信し、保存部21では、当該1時刻で取得された内部パラメータが時間変化しないものとして、以降の時刻において継続して描画部22から参照されるようにすればよい。
When it is known that the internal parameters do not change over time, the internal
なお、カメラパラメータ(外部パラメータ及び内部パラメータ)は、3DCGの分野において数学的な関係として既知のように、「3次元世界座標系⇔3次元カメラ座標系⇒2次元投影座標系⇒ビューポート(撮像画像の画像平面)」の変換関係(ビューイングパイプラインの関係)に対応するものである。外部パラメータは前者の3次元座標系の間の変換を与え、内部パラメータは後者の3次元カメラ座標系から2次元画像平面への変換関係を与える。 Note that the camera parameters (external parameters and internal parameters) are known as mathematical relationships in the field of 3DCG, such as "three-dimensional world coordinate system ⇔ three-dimensional camera coordinate system ⇒ two-dimensional projection coordinate system ⇒ viewport (imaging The image plane of the image)” corresponds to the transformation relationship (viewing pipeline relationship). The extrinsic parameters give the transformation between the former three-dimensional coordinate systems, and the intrinsic parameters give the latter transformation relation from the three-dimensional camera coordinate system to the two-dimensional image plane.
深度取得部123は、撮像画像の深度情報(撮像画像の各画素位置において、撮影されている対象が位置する深度を与えた深度マップ)を取得する。深度情報の取得は任意の既存手法を用いてよく、異なる2時刻(現時刻及びこれに近い過去時刻)での撮像画像間での同一点対応を求めたうえで運動視差やステレオ視により求めるようにしてもよいし、車載設備等の形で撮像部11のカメラと対応付けられたLiDAR(光検出と測距)装置の光センサが利用できる場合は、当該LiDAR装置による測距結果を用いるようにしてもよい。
The
図7は深度情報の模式例を示す図であり、具体的には図5の撮像画像PAに対応する深度情報D(PA)が、深度が小さいほど白色寄りとして、深度が大きいほど黒色寄りとして表現されるグレースケール画像の形式で示されている。(なお、黒の矩形枠は画像範囲を示すものであり深度ではない。)図7の深度情報D(PA)は、図5で示した壁W1の領域の深度が小さく、車両VBの領域の深度は中程度で、それ以外の領域は道路等の地面の領域として、車両VBよりも手前の領域ではこれらの中間の深度で構成され、車両VBよりも遠方の領域では車両VBの深度よりもさらに大きな深度で構成されている。 FIG. 7 is a diagram showing a schematic example of depth information. Specifically, the depth information D(PA) corresponding to the captured image PA in FIG. It is shown in the form of a rendered grayscale image. (The black rectangular frame indicates the image range, not the depth.) The depth information D(PA) in FIG. 7 indicates that the depth of the wall W1 shown in FIG. The depth is intermediate, and the other areas are ground areas such as roads. The area in front of the vehicle VB has an intermediate depth. Consists of greater depth.
光源情報取得部124は、撮像部11が撮像を行っている周辺環境(情報端末装置10が存在している周辺環境)における光源情報を取得する。光源情報の取得は任意の既存手法を用いてよく、照度センサで直接計測してもよいし、撮像部11で得た撮像画像から深層学習で推定する既存手法を利用してよい。また、周辺環境が屋内照明によって構成されており、且つ、この屋内照明が照明制御装置によってプログラム制御されている場合などは、当該制御装置にアクセスして、プログラム制御している照明の形状・配置・配色・照度等を光源情報として直接取り込んでもよい。また、屋外環境では、位置姿勢取得部121による位置姿勢情報から得られる、緯度及び経度の情報と撮像している方位の情報と、日時情報(撮像画像において撮像がなされた日時情報)とから算出した、撮像画像における太陽座標情報や天候情報を光源情報として利用してもよい。これら太陽座標情報や天候情報は、これらの情報を保持しているネットワーク上のサーバにアクセスして、位置姿勢情報及び日時情報を照合して該当する情報を取得するようにしてもよい。
The light source
(開示部13)
開示部13は、開示情報を保存部21へと送信する。提示システム100による拡張現実の任意の用途に応じて、開示情報にはテキスト、画像、エフェクト等の、任意種類及び任意内容のマルチメディアコンテンツをユーザが個別に指定できる。URL等で外部コンテンツを引用する(他ユーザに開示情報として、外部コンテンツへのアクセス情報を与える)ようにしてもよい。開示情報が時間変化しない静的な情報(時刻をパラメータとして未来に関しても決まった挙動(同一動作の繰り返しなど)を示す情報も含む)である場合は、ある1時刻のみにおいて開示部13から当該開示情報を保存部21へと送信して、保存部21では、当該1時刻で取得された開示情報が時間変化しないものとして、以降の時刻において継続して描画部22から参照されるようにすればよい。
(Disclosure 13)
また、開示情報が時間変化する動的な情報である場合、各時刻において開示部13から開示情報を保存部21へと送信してよい。動的な情報の例として、開示情報にアバタ等の3Dモデル等を用いる場合は3Dモデルの動きも開示情報に含めてもよい。すなわち、ポーズ等が時間変化する、各時刻での開示情報を与えるようにしてもよい。3Dモデルの動きは既存技術を用いて利用者の動き(骨格及び/又は表情などの動き)をトレースするようにしてよく、3Dモデルの情報に加え当該トレースされた動きパラメータを保存部21へと送信すればよい。動きパラメータに応じてポーズ等が定まることで描画される3Dモデルの情報に関しては、静的な情報としてある1時刻のみにおいて保存部21へと送信するようにして、動きパラメータを動的な情報として各時刻に保存部21へと送信するようにしてもよい。
Further, when the disclosed information is dynamic information that changes with time, the disclosed information may be transmitted from the
(描画部22)
描画部22は、各ユーザの情報端末装置10から(動的な情報の場合に)リアルタイムに送信される計測情報及び開示情報を保存している保存部21を参照し、各ユーザ(それぞれ自ユーザとする)の情報端末装置10に向けて、他ユーザの開示情報を仮想空間の他ユーザの計測情報(位置姿勢情報)に該当する位置に配置したうえで、当該他ユーザの開示情報が配置された仮想空間を自ユーザの外部パラメータ(及び内部パラメータ)で描画し、得られた描画情報を対応する自ユーザの情報端末装置10の提示部14へと送信する。
(drawing part 22)
The drawing unit 22 refers to the storage unit 21 that stores measurement information and disclosure information transmitted in real time from each user's information terminal device 10 (in the case of dynamic information), and each user (each own user ), the other user's disclosed information is arranged at a position corresponding to the other user's measurement information (position and orientation information) in the virtual space, and then the other user's disclosed information is arranged. The resulting virtual space is drawn using the user's external parameters (and internal parameters), and the obtained drawing information is transmitted to the corresponding presentation unit 14 of the user's
(提示部14)
提示部14は、撮像部11で得た撮像画像に対して、描画部22で得た描画情報を重畳することにより、撮像画像に対して拡張現実表示を加えたものとしての提示情報を得て、ユーザに対して当該提示情報を提示する。
(presentation part 14)
The presentation unit 14 superimposes the drawing information obtained by the drawing unit 22 on the captured image obtained by the imaging unit 11, thereby obtaining presentation information as a result of adding augmented reality display to the captured image. , presents the presentation information to the user.
以下、描画部22及び提示部14に関して詳細をさらに説明する。 Details of the drawing unit 22 and the presentation unit 14 will be further described below.
一実施形態では描画部22によって得られる描画情報は、その画素位置(u,v)が、自ユーザの撮像部11で撮像した撮像画像の各画素位置(u,v)にそのまま対応しており、他ユーザの開示情報(コンテンツ)の描画がなされた領域に関しては当該描画されたコンテンツのテクスチャで構成され、他ユーザの開示情報の描画がなされていない領域に関してはテクスチャなしの透明領域として、透過画像の形式で与えることができるものである。また、描画部22での描画に用いる仮想空間は、自ユーザ及び他ユーザの外部パラメータと、自ユーザの内部パラメータとを利用して、3次元の仮想空間を2次元の画像平面上へと投影して描画することで、撮像部11で撮像した実世界と、その位置姿勢が整合する空間となっている。こうして、提示部14では、実世界に対応する3次元仮想空間を扱う既存の拡張現実表示技術においてなされているのと同様にして、撮像部11で得た撮像画像に対して、描画部22で得た透過画像としての描画情報を重畳することで、撮像画像に対して拡張現実表示を加えた提示情報を得ることができる。 In one embodiment, the pixel position (u, v) of the drawing information obtained by the drawing unit 22 directly corresponds to each pixel position (u, v) of the captured image captured by the imaging unit 11 of the user. , the area where other user's disclosed information (content) is drawn is composed of the texture of the drawn content, and the area where other user's disclosed information is not drawn is transparent as a transparent area without texture. It can be given in the form of an image. The virtual space used for drawing by the drawing unit 22 uses external parameters of the user and other users and internal parameters of the user to project a three-dimensional virtual space onto a two-dimensional image plane. By drawing the real world imaged by the imaging unit 11, a space is created in which the position and orientation match those of the real world. In this way, in the presentation unit 14, in the same way as in the existing augmented reality display technology that handles a three-dimensional virtual space corresponding to the real world, the image captured by the imaging unit 11 is displayed by the drawing unit 22. By superimposing the drawing information as the obtained transparent image, it is possible to obtain the presentation information in which the augmented reality display is added to the captured image.
描画部22では、保存部21に保存されている全ての他ユーザの開示情報のうち、計測情報における位置の情報を参照し、この位置が仮想空間において自ユーザの所定のビューボリューム(視体積)の範囲内にある開示情報だけを描画の対象とすることができる。自ユーザの所定のビューボリュームは、自ユーザのカメラ位置から見た、当該カメラの画角範囲内の錐体領域(カメラ位置を頂点として無限に延びる錐体領域)としてもよいし、当該錐体領域のうち、カメラ位置からの距離や深度が一定値以下となる範囲内としてもよい。ここで、画角は前述の通りカメラの内部パラメータより取得可能である。 The drawing unit 22 refers to the position information in the measurement information among the disclosed information of all the other users stored in the storage unit 21, and this position corresponds to the user's predetermined view volume (visual volume) in the virtual space. Only disclosed information within the range of can be drawn. The user's predetermined view volume may be a cone area (a cone area extending infinitely with the camera position as the apex) within the angle of view range of the camera viewed from the camera position of the user, or the cone Within the area, the distance or depth from the camera position may be within a certain range or less. Here, the angle of view can be obtained from the internal parameters of the camera as described above.
描画部22による描画は、上記ビューボリューム範囲内に位置している他ユーザの開示情報を対象として行い、この際、以下に(1)~(4)の見出しでそれぞれ示すように、種々の計測情報を利用することによる種々の実施形態が可能である。これらの一部又は全部の任意の組み合わせの実施形態も可能である。 Rendering by the rendering unit 22 is performed on disclosure information of other users positioned within the view volume range. Various embodiments are possible by using the information. Any combination of some or all of these embodiments is also possible.
(1) 仮想空間において他ユーザの開示情報を配置する際に、他ユーザの計測情報(位置姿勢情報)に該当する位置に、対応する姿勢(他ユーザのカメラの向き)において配置したうえで、描画部22によって描画するようにしてもよい。例えば、他ユーザの開示情報が3Dモデルとして与えられ、その正面の向きが定義されている場合に、当該正面の向きが他ユーザのカメラの向きに一致するように、3Dモデルを配置して描画することができる。 (1) When arranging other user's disclosure information in the virtual space, after arranging it at the position corresponding to the other user's measurement information (position and orientation information) in the corresponding posture (other user's camera orientation), It may be drawn by the drawing unit 22 . For example, when another user's disclosure information is given as a 3D model and the front orientation is defined, the 3D model is arranged and drawn so that the front orientation matches the other user's camera orientation. can do.
上記とは異なり、他ユーザの姿勢の情報は利用せず、位置の情報のみを利用して他ユーザの開示情報を描画してもよく、この際、姿勢の情報は自ユーザのカメラにおける姿勢の情報を利用するようにしてもよい。(後述する図8,9の、他ユーザの開示情報BI,CIを自ユーザのカメラに正対させた状態で描画する例がこれに該当する。) Different from the above, it is also possible to render disclosure information of other users using only position information without using posture information of other users. Information may be used. (This corresponds to the example shown in FIGS. 8 and 9, which will be described later, in which disclosure information BI and CI of other users are drawn facing the user's own camera.)
(2) 計測情報に内部パラメータ取得部122で取得された内部パラメータが含まれる場合は、描画部22では当該内部パラメータを反映させて、(画像範囲を定めるビューポートの範囲などを設定したうえで、)描画することができる。
(2) If the measurement information includes internal parameters acquired by the internal
(3) 計測情報に深度取得部123で取得された深度情報(撮像画像の各画素位置(u,v)での深度を与えた深度マップ)が含まれる場合、描画部22では、他ユーザの開示情報を仮想空間に配置したうえで、当該深度マップが定める仮想空間内において深度値によって定まる表面位置(空間位置)と照合し、深度マップの定めるこの表面位置よりも手前側(表面上に一致する場合を含む)にあるか奥側にあるか(すなわち、カメラに近く深度が浅い側にあるか、カメラから遠く深度が深い側にあるか)を判定したうえで、手前側(浅い側)か奥側(深い側)かの区別に応じて、開示情報の描画の態様を変化させるようにしてもよい。 (3) When the measurement information includes the depth information acquired by the depth acquisition unit 123 (the depth map that gives the depth at each pixel position (u, v) of the captured image), the drawing unit 22 calculates the After arranging the disclosed information in the virtual space, it is compared with the surface position (spatial position) determined by the depth value in the virtual space defined by the depth map, and the front side of the surface position defined by the depth map (matches on the surface) ) or on the far side (that is, on the shallow side close to the camera or on the deep side far from the camera), and then on the near side (shallow side) The manner in which the disclosure information is drawn may be changed according to whether the disclosure information is on the far side (deep side) or on the deep side.
ここで、深度マップの定める表面位置よりも奥側に位置する開示情報は、仮想空間と対応している実世界においては、深度マップの定める表面位置に存在する何らかの遮蔽物(例えば、壁など)によって遮蔽された状態にあることとなる。従って、一実施形態では、深度マップの定める表面位置よりも手前側にある開示情報はそのまま、特段の加工処理を施すことなく描画し、一方で、奥側にある開示情報は遮蔽された状態にあるものとしての所定の加工処理を施して描画するようにしてよい。遮蔽された状態にあるものとしての加工された描画は、半透明の状態でテクスチャを描画するようにしてもよいし、完全透明の状態(遮蔽されて見えない状態)となるよう、テクスチャ描画を行わないようにしてもよい。(これらの模式例は、図9を参照して後述する。)半透明での描画及び提示部14におけるこれを重畳した提示は、透過度(アルファ値)による既存手法を用いればよい。半透明で描画する場合、開示情報がより奥側に位置するほど、より透過度が増すように描画してもよく、この際、一定距離よりもさらに奥側に位置する場合には完全透明となるようにしてもよい。 Here, the disclosed information located on the far side of the surface position defined by the depth map is some kind of obstructing object (for example, a wall, etc.) existing at the surface position defined by the depth map in the real world corresponding to the virtual space. is blocked by Therefore, in one embodiment, disclosure information on the front side of the surface position defined by the depth map is drawn as it is without special processing, while disclosure information on the back side is hidden. Rendering may be performed by performing predetermined processing as a certain object. Rendering that has been processed as being in the occluded state may render the texture in a semi-transparent state, or render the texture so that it is in a completely transparent state (a state that is hidden and cannot be seen). You can choose not to do it. (These schematic examples will be described later with reference to FIG. 9.) Translucent drawing and presentation in which this is superimposed on the presentation unit 14 may be performed using an existing method based on transparency (alpha value). When rendering semi-transparently, the further the disclosure information is located, the more transparent it may be rendered. You can make it
(4) 計測情報に光源情報取得部124で取得された自ユーザの光源情報が含まれる場合、描画部22では他ユーザの開示情報をテクスチャとして描画する際に、自ユーザの光源情報を反映させて描画することができる。光源情報を反映させた描画は、3DCG技術分野における既存手法を用いればよい。
(4) When the measurement information includes the light source information of the user acquired by the light source
以下、図8及び図9を参照して、描画部22及び提示部14に関して上記説明した各処理に関する模式例を示す。 8 and 9, schematic examples of the processes described above with respect to the drawing unit 22 and the presentation unit 14 will be shown.
図8は描画部22が描画する仮想空間の模式例を示す図である。図8では、前述の図1のように情報端末装置10-A,10-B,10-Cがあり、図4に示される街角のフィールドF1内にこれらが存在する場合における、自ユーザAの情報端末装置10-Aに向けて描画する仮想空間VS[A]が示される。従って、仮想空間VS[A]はそのまま、実世界としての街角のフィールドF1に対応しているものである。 FIG. 8 is a diagram showing a schematic example of a virtual space drawn by the drawing unit 22. As shown in FIG. In FIG. 8, there are information terminal devices 10-A, 10-B, and 10-C as in FIG. 1 described above, and when these exist in the street corner field F1 shown in FIG. A virtual space VS[A] drawn toward the information terminal device 10-A is shown. Therefore, the virtual space VS[A] directly corresponds to the street corner field F1 in the real world.
図8にて、所定のランドマーク位置等を基準点(原点)Prefとする世界座標系XYZ(実世界の位置を与える緯度、経度、高度などと対応する)に対して、情報端末装置10-Aの外部パラメータよりユーザAの原点PAのカメラ座標系XAYAZAが定まる。(ここで、前述したビューイングパイプラインの関係として既知のように、外部パラメータは、世界座標系XYZからカメラ座標系XAYAZAへの変換関係TAを表し、世界座標系XYZ内におけるカメラの位置姿勢に対応するものである。すなわち、世界座標系XYZでの位置pをカメラ座標系XAYAZAで表現した位置pAを、変換行列TAを左から積算することよって「pA=TA・p」として得ることができる。ここで3次元の位置p及びpAは斉次座標表現の4次元ベクトルで与えられる。)同様にして、世界座標系XYZに対して情報端末装置10-B,10-Cの外部パラメータよりそれぞれ、変換関係TBによって変換されるユーザBの原点PBのカメラ座標系XBYBZBと、変換関係TCによって変換されるユーザCの原点PCのカメラ座標系XCYCZCと、が定まる。
In FIG . 8, the
従って、他ユーザB及びCのカメラ座標系XBYBZB及びXCYCZCから自ユーザAのカメラ座標系XAYAZAへの変換関係はそれぞれ、積TATB
-1及び積TATC
-1で与えられることとなる。(ここで、TB
-1及びTC
-1はそれぞれTB及びTCの逆変換として、他ユーザB及びCのカメラ座標系XBYBZB及びXCYCZCから世界座標系XYZへの変換を表す。例えば世界座標系XYZでの位置pをカメラ座標系XAYAZAで表現した位置pA及びカメラ座標系XBYBZBで表現した位置pBに対して、関係「pA=TA・p」及び「pB=TB・p」が成立することから関係「pA=TATB
-1・pB」が成立し、上記の積で変換関係が与えられる。)こうして、各々の情報端末装置10の外部パラメータから求めることができる当該変換する関係(積TATB
-1及び積TATC
-1)を用いて図8の模式例に示されるように、自ユーザAの仮想空間VS[A]に他ユーザB,Cの開示情報BI及びCIをそれぞれ配置して描画することが可能となる。
Therefore, the transformation relationship from the camera coordinate systems X B Y B Z B and X C Y C Z C of other users B and C to the camera coordinate system X A Y A Z A of user A is the product T A T B -1 and the product T A T C -1 . (Here, T B -1 and T C -1 are the inverse transforms of T B and T C , respectively, from the camera coordinate systems X B Y B Z B and X C Y C Z C of other users B and C to the world coordinates represents the transformation to the system XYZ, for example, the position p in the world coordinate system XYZ to the position p A expressed in the camera coordinate system X A Y A Z A and the position p B expressed in the camera coordinate system X B Y B Z B On the other hand, since the relationships ``p A = T A・p'' and ``p B =T B・p'' hold, the relationship ``p A =T A T B -1・p B '' holds, and the above product .) Thus, using the transforming relationship (product T A T B -1 and product T A T C -1 ) that can be obtained from the external parameters of each
図8の例では、開示情報BI及びCIはそれぞれ、他ユーザB及びCの位置PB及びPCに、自ユーザAのカメラに正対する(カメラ正面方向である深さ方向ZAの逆方向を向いた)矩形状の看板にテキスト「Bの開示情報」及び「Cの開示情報」を描いたものとして設定されており、他ユーザB,Cの位置姿勢情報のうち、座標系原点としてのカメラ位置PB及びPCのみが反映され、姿勢(座標系の座標軸の向きに表現されるカメラ向き)は反映されていない。すなわち、図8の例は前述した描画部22の見出し(1)の実施形態のうちの後者の例となっている。図8の例とは異なり、前述した描画部22の見出し(1)の実施形態のうち前者を適用して、開示情報BI及びCIに関して、他ユーザB及びCの姿勢も反映した描画を行うことも、開示情報にそのように描画すべき旨を設定しておくことにより可能である。例えば図8において描画されるテキスト看板としての開示情報BI及びCIを、自ユーザAのカメラに正対する方向ではなく、他ユーザB,Cのカメラの向きであるZB軸方向及びZC軸方向を向いた状態で仮想空間VS[A]に描画させることも可能である。 In the example of FIG. 8, disclosure information BI and CI are located at positions P B and P C of other users B and C, respectively, facing the camera of user A (in the opposite direction of depth direction Z A which is the front direction of the camera). ) is set as a rectangular signboard with the texts "Disclosure information of B" and "Disclosure information of C" drawn on it, and among the position and orientation information of other users B and C, as the origin of the coordinate system Only the camera positions P B and P C are reflected, and the orientation (the orientation of the camera expressed in the orientation of the coordinate axes of the coordinate system) is not reflected. That is, the example of FIG. 8 is an example of the latter among the embodiments of heading (1) of the drawing unit 22 described above. Unlike the example of FIG. 8, the former of the embodiments of heading (1) of the rendering unit 22 described above is applied to render disclosure information BI and CI that also reflects the postures of other users B and C. Also, it is possible by setting the disclosure information to the effect that such drawing should be performed. For example , the disclosure information BI and CI as text signboards drawn in FIG . It is also possible to draw in the virtual space VS[A] while facing .
図9は、図8の仮想空間VS[A]における描画部22での描画と提示部14での重畳表示との模式例を種々の実施形態に関してそれぞれ、例EX1~EX3として示す図である。例EX1~EX3はいずれもそれぞれ、描画情報R1~R3と、この描画情報を撮像画像(図5の撮像画像PA)に重畳した提示情報D1~D3と、を示しており、これら描画情報及び提示情報は、図8の自ユーザのカメラ位置PAにおいて他ユーザB,Cの開示情報BI,CIの描画及び提示を種々の実施形態で行ったものである。 FIG. 9 is a diagram showing schematic examples of drawing by the drawing unit 22 and superimposed display by the presentation unit 14 in the virtual space VS[A] of FIG. Examples EX1 to EX3 each indicate drawing information R1 to R3 and presentation information D1 to D3 obtained by superimposing the drawing information on a captured image (captured image PA in FIG. 5). The information is obtained by drawing and presenting disclosure information BI and CI of other users B and C at the own user's camera position P A in FIG. 8 in various embodiments.
例EX1では、描画情報R1として、他ユーザB,Cの開示情報BI,CIがそのまま描画され、且つ、当該描画情報R1を撮像画像PA(図5)に重畳することで提示情報D1が得られている。 In the example EX1, the disclosure information BI and CI of the other users B and C are drawn as they are as the drawing information R1, and the presentation information D1 is obtained by superimposing the drawing information R1 on the captured image PA (FIG. 5). ing.
一方、例EX2及びEX3では、描画情報R2及びR3として、他ユーザB,Cの開示情報BI,CIを描画する際に、描画部22の見出し(3)の実施形態を適用して深度情報(図5の撮像画像PAに対応する図7の深度情報D(PA))との照合を行い、深度よりも奥に位置している開示情報の描画の態様を変える例である。例EX2及びEX3のいずれにおいても、開示情報BIはその全体が深度よりも手前側にあるものと判定され、例EX1の場合と同様に、そのままの形で特に加工処理を加えることなく、開示情報BIとして描画されている。一方、例EX2及びEX3のいずれにおいても、開示情報CIはその一部分(矩形の中央部分及び左側部分)が深度よりも奥側にあるものと判定され、例EX1の場合とは異なり、当該判定された奥側にある一部分に関して、異なる描画態様で描画された開示情報CI-2及びCI-3が得られている。 On the other hand, in examples EX2 and EX3, when rendering disclosure information BI and CI of other users B and C as rendering information R2 and R3, depth information ( In this example, the depth information D(PA) in FIG. 7 corresponding to the captured image PA in FIG. 5 is checked to change the rendering mode of the disclosure information positioned deeper than the depth. In both examples EX2 and EX3, the disclosed information BI is determined to be wholly on the nearer side than the depth. It is drawn as BI. On the other hand, in both examples EX2 and EX3, the disclosed information CI is determined to have a part (the central part and the left part of the rectangle) behind the depth. Disclosure information CI-2 and CI-3 drawn in different drawing modes are obtained for a portion on the far side.
例EX2の描画された開示情報CI-2は、深度よりも奥にある部分を一切描画しない(透過度100%の完全透明の状態で描画する)ようにして、描画情報R2及び提示情報D2が得られている。例EX3の描画された開示情報CI-3は、深度よりも奥にある部分を半透明にする(一定割合の透過度で半透明の状態で描画する)ようにして、描画情報R3及び提示情報D3が得られている。例EX2及びEX3のいずれも、例EX1とは異なり、ユーザCの位置に配置されている開示情報CIが開示情報CI-2及びCI-3として描画されることにより、実世界の壁W1(当該図9及び図4)よりも奥にあって遮蔽された状態にあることを、遮蔽されていない状態として描画されている開示情報BIとの相違によって感覚的に認識可能な状態となっている。図4に示すように、ユーザAが車両VAに乗っているユーザである場合、提示情報D2やD3により、現時刻では前方で壁W1の陰に隠れているが、そのすぐ後の時刻には壁W1の陰を抜けて現れようとしているユーザCの存在の注意喚起を、効果的に行うことが可能である。 Disclosure information CI-2 drawn in example EX2 does not draw any part deeper than the depth (renders completely transparent with 100% transparency) so that drawing information R2 and presentation information D2 are have been obtained. Disclosure information CI-3 rendered in example EX3 is made semi-transparent (rendered in a semi-transparent state with a certain percentage of transparency) behind the depth, and rendering information R3 and presentation information D3 is obtained. In both examples EX2 and EX3, different from example EX1, the disclosed information CI placed at the position of user C is drawn as disclosed information CI-2 and CI-3, thereby creating a wall W1 in the real world (such 9 and 4), the hidden state can be intuitively recognized due to the difference from the disclosed information BI drawn as an unshielded state. As shown in FIG. 4, when user A is a user riding in a vehicle VA, he is hidden behind a wall W1 in front of him at the present time due to the presentation information D2 and D3, but at a time immediately after that, It is possible to effectively draw attention to the presence of user C who is about to appear behind the wall W1.
以上、本発明の各実施形態によれば、複数の情報端末装置10-A,10-B,10-C等における能動的な情報共有により、すなわち、各々の情報端末装置10での計測部12による位置情報と開示部13による開示情報との、サーバ20を介した共有により、撮像画像から他端末を画像認識する処理を必要とすることなく、各端末の提示部14において提示情報として拡張現実表示を実現することができる。従って、画像認識が困難な対象(夜間の光量不足等を原因とする不可視の対象や、テクスチャレスであり画像局所特徴等の検出に不向きな対象や、相互に類似しており一意に識別することが困難な対象など)であっても、拡張現実表示を実現することが可能である。
As described above, according to each embodiment of the present invention, active information sharing among a plurality of information terminal devices 10-A, 10-B, 10-C, etc., that is, the measuring
以下、<1>~<7>として、本発明の実施形態の変形例や追加例などに関する補足説明を行う。 Below, as <1> to <7>, supplementary explanations regarding modified examples and additional examples of the embodiments of the present invention will be given.
<1> 開示部13における開示情報の設定の詳細に関して
図8や図9の模式例からも理解されるように、仮想空間に配置し描画対象となるコンテンツとしての開示情報は、各端末(情報端末装置10)のカメラ位置を基準(原点)とする3次元カメラ座標系において、拡張現実表示の用途に応じた任意内容のコンテンツを表現した3Dモデル(平面や線、点のみで構成される場合も含む)として定義しておけばよい。例えば図8のユーザCの情報端末装置10-Cの開示情報CIは、そのカメラ座標系XCYCZC(原点PC)において3Dモデルとして定義しておくことで、ユーザAの情報端末装置10-Aの仮想空間VS[A]としてのカメラ座標系XAYAZA(原点PA)における描画も可能となる。すなわち、前述の通り、カメラ座標系XCYCZC(原点PC)において3Dモデルを積TATC
-1によって変換してカメラ座標系XAYAZA(原点PA)に配置することが可能である。
<1> Details of Disclosure Information Setting in
また、図8と図9の例EX1とで示される模式例に、自ユーザAのカメラ位置PAに正対する看板としての開示情報BI及びCIとして示されるように、描画の際の向き等を、描画の基準となる自端末のカメラ位置(図8のPA)に応じて定まるものとして、この3D立体モデルに付随する描画のための付随情報として定義しておき、描画部22ではこの付随情報に従って描画を行うようにしてもよい。以上により描画部22の見出し(1)の実施形態で説明した前者及び後者の2通りの描画が可能である。
Also, in the schematic examples shown in examples EX1 in FIG . 8 and FIG . , is defined according to the camera position (P A in FIG. 8) of the own terminal as a reference for drawing, and is defined as accompanying information for drawing accompanying this 3D solid model. Drawing may be performed according to the information. As described above, the drawing unit 22 can perform two types of drawing, the former and the latter described in the embodiment of heading (1).
一実施形態では、3Dモデルとしての開示情報は、描画して拡張現実表示を行った際に、各端末のカメラ位置に当該開示情報が存在すると認識されるものとして設定してよい。例えば、3Dモデル内の所定点(重心など)が、対応する端末のカメラ位置に合致するように定義してもよい。また、3Dモデルの位置が、対応する端末のカメラ位置とは一定のベクトル量だけ乖離しているが、拡張現実表示とした際には対応する端末やそのユーザに紐づいた開示情報として認識されるように定義しておいてもよい。例えば、端末はスマートフォンでありそのユーザが衣類のポケットや鞄などの中に所定の姿勢で格納して保持する前提で、当該ユーザの近傍(頭上など)に拡張現実表示としての開示情報が描画されるように、カメラ位置の所定近傍に3D立体モデルとしての開示情報を定義することができる。また例えば、仮想空間内においてカメラ位置をその終点として示すベクトル矢印を定義し、その始点の位置に3Dコンテンツを配置して定義しておくことで、当該3Dコンテンツ及びベクトル矢印の組を開示情報として定義しておいてもよい。仮想空間に描画した際は、当該矢印によって示される注釈のように3Dコンテンツが表示されることとなる。 In one embodiment, the disclosure information as a 3D model may be set so that it is recognized as being present at the camera position of each terminal when it is drawn and displayed in augmented reality. For example, a given point (such as the center of gravity) in the 3D model may be defined to match the camera position of the corresponding terminal. In addition, although the position of the 3D model deviates from the camera position of the corresponding terminal by a certain vector amount, it is recognized as disclosed information linked to the corresponding terminal and its user when displayed in augmented reality. may be defined as For example, on the premise that the terminal is a smartphone and the user stores and holds it in a pocket of clothing or a bag in a predetermined posture, disclosure information as an augmented reality display is drawn near the user (over the head, etc.). As shown, disclosure information can be defined as a 3D solid model in a predetermined vicinity of the camera position. Also, for example, by defining a vector arrow indicating the camera position as its end point in the virtual space and arranging and defining the 3D content at the position of the starting point, the pair of the 3D content and the vector arrow can be used as disclosed information. may be defined. When drawn in the virtual space, the 3D content will be displayed like the annotation indicated by the arrow.
なお、前述の図9の例EX2,EX3における描画された開示情報CI-2,CI-3に示されるように、描画部22で見出し(3)の実施形態により深度情報を考慮して3Dモデルとしての開示情報の描画を行う際は、3Dモデルの表面(仮想空間を描画する基準となるカメラから見えている側の表面)上の各位置において深度情報の深度値との比較を行うことで、1つの3Dモデルであっても、その一部は遮蔽状態にあり、一部は遮蔽状態にはないものとして、区別した描画を行うことが可能である。 In addition, as shown in the disclosure information CI-2 and CI-3 drawn in the examples EX2 and EX3 of FIG. When drawing disclosure information as, by comparing the depth information with the depth value at each position on the surface of the 3D model (the surface that is visible from the camera that is the reference for drawing the virtual space) , even if it is one 3D model, it is possible to draw distinguishably assuming that part of it is in the occluded state and part of it is not in the occluded state.
<2> 計測部12(位置姿勢取得部121)で取得する自端末の位置姿勢とは異なる位置姿勢を基準として、描画部22において自端末の仮想空間の描画を行い、提示部14においてこれを提示する実施形態を説明する。なお、この実施形態を第二実施形態、以上説明してきた実施形態を第一実施形態として、区別して称する。 <2> Based on a position and orientation different from the position and orientation of the own terminal acquired by the measurement unit 12 (position and orientation acquisition unit 121), the rendering unit 22 renders the virtual space of the own terminal, and the presentation unit 14 renders the virtual space. Presented embodiments are described. This embodiment will be referred to as the second embodiment, and the embodiment described above will be referred to as the first embodiment.
第二実施形態を適用するのに好適な用途の一例として、仮想空間内にユーザの動作(骨格や表情の動作)をトレースするアバタを当該ユーザの開示情報として配置して、当該アバタを介して仮想空間内でコミュニケーション等を行う用途が挙げられる。図10は、第二実施形態の適用例として、当該アバタによるコミュニケーション等を行う際の仮想空間等の配置の模式例を示す図である。以下、図10を参照しながら第二実施形態を説明するが、好適な用途としてのアバタによるコミュニケーションは、第二実施形態の説明の理解を容易にするための一例に過ぎず、第二実施形態の用途は任意のものが可能である。 As an example of a suitable application for applying the second embodiment, an avatar that traces the user's motion (skeletal and facial motion) is placed in the virtual space as the user's disclosed information, and through the avatar Applications such as communication in a virtual space can be mentioned. FIG. 10 is a diagram showing a schematic example of arrangement of a virtual space or the like when performing communication or the like using the avatar, as an application example of the second embodiment. Hereinafter, the second embodiment will be described with reference to FIG. can be used arbitrarily.
図10に示すフィールドF2は劇場等のエンターテインメント空間を想定したものであり、ステージ側STのフロアに情報端末装置10-Bを有するユーザBが存在し、舞台裏側BCのフロアに情報端末装置10-Aを有するユーザAが存在する。これらステージ側ST及び舞台裏側BCの両フロアの間は壁W2(不透明で光を遮断する壁W2)によって隔離されていることにより、情報端末装置10-Bと情報端末装置10-Aとは、その撮像部11において互いを撮像対象として捉えて撮像を行うことが不可能な状態にある。従って、第一実施形態を、描画部22において見出し(3)の深度情報を利用する実施形態の下で適用したとすると、ユーザAの情報端末装置10-A(カメラ座標系XAYAZA、原点PA)においてユーザBの情報端末装置10-B(カメラ座標系XBYBZB、原点PB)を拡張現実表示する場合と、この逆にユーザBの情報端末装置10-BにおいてユーザAの情報端末装置10-Aを拡張現実表示する場合と、のいずれにおいても、壁W2に遮蔽された状態として、描画されないか半透明で描画されることとなる。 A field F2 shown in FIG. 10 is assumed to be an entertainment space such as a theater. User B having an information terminal device 10-B is present on the stage ST floor, and information terminal device 10-B is present on the backstage BC floor. There is a user A with A. A wall W2 (a wall W2 that is opaque and blocks light) separates the floors of the stage side ST and the backstage side BC of the information terminal device 10-B and the information terminal device 10-A. The imaging unit 11 is in a state in which it is impossible to capture each other as imaging targets. Therefore, if the first embodiment is applied under the embodiment in which the depth information of heading (3) is used in the drawing unit 22, user A's information terminal device 10-A (camera coordinate system X A Y A Z A , origin P A ) of user B's information terminal device 10-B (camera coordinate system X B Y B Z B , origin P B ) is displayed in augmented reality, and vice versa. When the information terminal device 10-A of the user A is displayed in augmented reality in B, and in both cases, the information terminal device 10-A is not drawn or drawn semi-transparently as a state shielded by the wall W2.
第一実施形態による上記描画されないあるいは半透明で描画される状態に対して、第二実施形態では図10に示されるように、ユーザAのアバタAIを情報端末装置10-Aの位置姿勢とは異なる位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)にあることにより、ユーザB及びその情報端末装置10-Bと同様にステージ側STに存在しているものとして、仮想空間内でのユーザAによる開示情報として登場させることが可能となる。なお、アバタAIはステージST上の実物としての台CL上に乗る形で、フィールドF2に対応する仮想空間内に描画されている。 In the second embodiment, as shown in FIG. 10, user A's avatar AI is defined as the position and orientation of the information terminal device 10-A, in contrast to the non-rendering or translucent drawing state according to the first embodiment. By being in different positions and orientations (camera coordinate system X AI Y AIZ AI , origin P AI ), assuming that user B and his information terminal device 10-B exist on the stage side ST in the same way as user B and his information terminal device 10-B, in the virtual space It is possible to make it appear as disclosed information by user A in . Note that the avatar AI is drawn in the virtual space corresponding to the field F2 in the form of riding on the platform CL as a real object on the stage ST.
ここで、ユーザAのアバタAIの位置姿勢に、実際のユーザA及び情報端末装置10-Aが存在したと仮定する場合には、第一実施形態を適用して、壁W2によって遮蔽されることなく、ユーザA,B間で相互の表示を仮想空間内において実現することができる。(カメラの撮像向きはアバタAIが軸ZAIであり、ユーザBが軸ZBの方向であり、相互に対面して撮像しているものとする。) Here, if it is assumed that the actual user A and the information terminal device 10-A are present in the position and orientation of the avatar AI of the user A, the first embodiment is applied so that the avatar AI is shielded by the wall W2. Instead, mutual display can be realized between users A and B in the virtual space. (It is assumed that the direction of camera imaging is such that avatar AI is on axis Z AI , user B is on axis Z B , and they are facing each other.)
図11にこの表示の模式例を例EX4,EX5として示す。(図11は第二実施形態を説明するための、図10に対応する模式例を示す図であるが、以下ではまず、上記仮定のものでの第一実施形態を前提として説明しながら、第二実施形態に関して説明するものとする。) Schematic examples of this display are shown in FIG. 11 as examples EX4 and EX5. (FIG. 11 is a diagram showing a schematic example corresponding to FIG. 10 for explaining the second embodiment, but in the following, first, while explaining the first embodiment based on the above assumption, shall be described with respect to two embodiments.)
例EX4ではアバタAIからユーザBの側を撮像した画像P4'(実際にカメラがあって撮像できたと仮定する画像P4')と、これに対して重畳する描画情報R4としてのユーザBの開示情報BIの例が、ユーザBのアバタ及びその頭部上方に示されるテキストメッセージ「Bの開示情報」として示されている。(なお、アバタAIの位置に実際には情報端末装置10-Aとそのカメラは存在せず、画像P4'は当該カメラが存在したとする仮定の下のものであって実際には撮像不可能なものであるため、画像P4'のユーザBは実線ではなく破線で描いている。)例EX5では、ユーザBからアバタAIの側を撮像した撮像画像P5が、当該仮定する第一実施形態ではなく第二実施形態の場合に関して示されており、ステージ側STの台CL上には、仮想空間ではアバタAIが存在するが、実世界においては何も存在していない状態にある。そして、この撮像画像P5に対してアバタAIを描画情報として重畳して得られる提示情報D5が示されている。(当該仮定する第一実施形態では、この提示情報D5のアバタAIが実世界における実物として存在して、撮像画像P5にも実際に撮像されることとなる。) In the example EX4, an image P4' (an image P4' that is assumed to have been captured by an actual camera) captured from the avatar AI of the user B side, and user B's disclosure information as drawing information R4 superimposed on this An example of a BI is shown as User B's avatar and the text message "Disclosure information for B" shown above his head. (It should be noted that the information terminal device 10-A and its camera do not actually exist at the position of the avatar AI, and the image P4' is based on the assumption that the camera exists and cannot actually be captured. Therefore, the user B in the image P4' is drawn with a dashed line instead of a solid line.) In the example EX5, the captured image P5 obtained by capturing the side of the avatar AI from the user B is, in the assumed first embodiment, In the case of the second embodiment, the avatar AI exists in the virtual space on the table CL of the stage side ST, but nothing exists in the real world. Then, presentation information D5 obtained by superimposing the avatar AI as drawing information on the captured image P5 is shown. (In the assumed first embodiment, the avatar AI of this presentation information D5 exists as a real object in the real world, and is actually captured in the captured image P5 as well.)
第二実施形態は、この図11に示される表示(例EX4の描画情報R4や例EX5の提示情報D5)を、実際のユーザA及び情報端末装置10-AがアバタAIの位置姿勢(ステージ側ST)ではなく、図10に示される通りの位置姿勢(舞台裏側BC)にある場合において実現するものである。具体的には、開示部13、描画部22及び提示部14において、第一実施形態での処理から変更された以下のような処理を行うようにすることで、第二実施形態を実現することができる。
In the second embodiment, the display shown in FIG. 11 (drawing information R4 in example EX4 and presentation information D5 in example EX5) is displayed by the actual user A and the information terminal device 10-A as the position and orientation of the avatar AI (on the stage side). ST), but in the position and orientation shown in FIG. 10 (behind the stage BC). Specifically, the
現実の位置姿勢とは異なる位置姿勢にあるアバタAIを登場させる自ユーザAに関して、開示部13での開示情報の設定(この設定はサーバ20の保存部21に送信され保存される)を以下の2点の情報とする。
(1)計測部12で計測された位置姿勢(外部パラメータとしてのカメラ座標系XAYAZA、原点PAの情報)をアバタAIの位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)へと変換する、図10に矢印で模式的に示される所定変換TAIの情報
(2)当該変換された位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)で表示する3DモデルとしてのアバタAIの情報(すなわち、変換TAIで変換された位置姿勢における開示情報)
Regarding user A who makes an avatar AI with a position and orientation different from the actual position and orientation, the disclosure information setting in the disclosure unit 13 (this setting is transmitted and saved in the storage unit 21 of the server 20) is set as follows. 2 points of information.
(1) The position and orientation of the avatar AI (camera coordinate system X AI Y AI Z AI , (2) the transformed position and orientation (camera coordinate system X AI Y AI Z AI , origin P AI ), which is schematically indicated by an arrow in FIG. Avatar AI information as a 3D model to be displayed (i.e. disclosure information in the position and orientation transformed by the transformation T AI )
ここで、上記(2)の情報は、第一実施形態で自ユーザAの位置姿勢(カメラ座標系XAYAZA、原点PA)を基準として3Dモデルの開示情報を設定するのと同様の設定を、変換TAIで変換された位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)を基準として行うようにすればよい。 Here, the above information (2) is similar to setting disclosure information of the 3D model based on the position and orientation of user A (camera coordinate system X A Y A Z A , origin P A ) in the first embodiment. A similar setting may be performed using the position and orientation (camera coordinate system X AI Y AI Z AI , origin P AI ) converted by the conversion T AI as a reference.
なお、アバタによるコミュニケーションを実現する場合、この変換された位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)は、当該アバタAI(人物などを模している)の視点の位置姿勢に合致するよう、開示情報である3DモデルとしてのアバタAIを用意しておいてもよい。 It should be noted that, when realizing communication by an avatar, this converted position/orientation (camera coordinate system X AI Y AI Z AI , origin P AI ) is the viewpoint position/orientation of the avatar AI (simulating a person or the like). You may prepare an avatar AI as a 3D model, which is disclosed information, so as to match the above.
なお、現実の位置姿勢に合致した位置姿勢に開示情報BIを設定する他ユーザBに関して、開示部13での開示情報の設定は第一実施形態と同様でよい。
Regarding the other user B who sets the disclosure information BI to a position and orientation matching the actual position and orientation, the setting of the disclosure information in the
描画部22では、他ユーザBに対して当該変換TAIの下でアバタAIを設定している自ユーザAの開示情報(アバタAI)の描画を行う際は、上記設定され保存部21に保存されている(1)及び(2)の情報を参照することにより、他ユーザBの位置姿勢(カメラ座標系XBYBZB、原点PB)を基準とした仮想空間に、自ユーザAの位置姿勢(カメラ座標系XAYAZA、原点PA)を変換TAIで変換した位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)にアバタAIを配置し、描画する。 In the drawing unit 22, when drawing the disclosure information (avatar AI) of the user A who has set the avatar AI for the other user B under the conversion T AI , the information set as described above is stored in the storage unit 21. By referring to the information of (1 ) and (2 ) , the user A position and orientation (camera coordinate system X A Y A Z A , origin P A ) converted by transformation T AI , avatar AI is placed in the position and orientation (camera coordinate system X AI Y AI Z AI , origin P AI ) and drawn do.
こうして、情報端末装置10-Bを利用する他ユーザBは、図11の例EX5及び図10の配置に示されるように、実世界では撮像画像P5に示されるように自ユーザAを見ることが不可能な位置姿勢にあったとしても、仮想空間としての提示情報D5において、そのアバタAIを登場させた状態を見ることができる。 In this way, another user B using the information terminal device 10-B can see his/her own user A as shown in the captured image P5 in the real world, as shown in the example EX5 of FIG. 11 and the arrangement of FIG. Even if it is in an impossible position and posture, it is possible to see the state in which the avatar AI appears in the presentation information D5 as a virtual space.
また、描画部22では、アバタAIを設定している自ユーザAに対して他ユーザBの開示情報の描画を行う際は、自ユーザAの位置姿勢(カメラ座標系XAYAZA、原点PA)を変換TAIで変換した位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)を基準とした仮想空間に、他ユーザBの(カメラ座標系XBYBZB、原点PB)の開示情報を配置し、描画する。 In the drawing unit 22, when drawing the disclosed information of the other user B for the user A who has set the avatar AI, the position and orientation of the user A (camera coordinate system X A Y A Z A , ( camera coordinate system X B Y B Z B , origin P B ) to place and draw disclosure information.
こうして、情報端末装置10-Aを利用する自ユーザAは、図11の例EX4及び図10の配置に示されるように、実世界では他ユーザBを見ることが不可能な位置姿勢にあっても、仮想空間としての描画情報R5において、ユーザA自身がアバタAIの位置姿勢にあるものとして、他ユーザBの開示情報BIを見ることが可能となる。 In this way, the user A using the information terminal device 10-A is in a position and posture in which it is impossible to see the other user B in the real world, as shown in the example EX4 of FIG. 11 and the arrangement of FIG. Also, in the drawing information R5 as a virtual space, it is possible for the user A to see the disclosure information BI of the other user B assuming that the user A is in the position and orientation of the avatar AI.
以上のようにして、第二実施形態ではユーザA,B間において、ユーザAが位置姿勢の異なるアバタAIに実質的に変身した状態において、ユーザAの動作を当該アバタAIの動作に反映させて、仮想空間内においてコミュニケーション等を行うことが可能である。 As described above, in the second embodiment, between users A and B, in a state in which user A has substantially transformed into an avatar AI with a different position and orientation, the motion of user A is reflected in the motion of avatar AI. , communication and the like can be performed in the virtual space.
提示部14では、他ユーザB(他ユーザBが自ユーザの立場である場合)に対する提示情報は、他ユーザBの情報端末装置10-Bの撮像部11で得た撮像画像に対して、描画部22で描画された描画情報(すなわち、他ユーザBから見た他ユーザであるユーザAのアバタAI)を重畳して提示すればよい。この際、前述したように、ユーザAでは開示部13において利用者であるユーザAの動き(骨格及び/又は表情などの動き)をトレースした情報を開示情報に含めることで、ユーザBに対して提示されるアバタAIを、ユーザAの動きを模したものとなるようにすることができる。一方、提示部14では、自ユーザAに対する提示情報に関しては、自ユーザAの情報端末装置10-Aの撮像部11で得た撮像画像は自ユーザAの位置姿勢におけるものであってアバタAIの位置姿勢におけるものではないため、この撮像画像は利用せず、描画部22で描画された描画情報(ユーザBの開示情報BI)のみを提示すればよい。あるいは、仮想空間における背景に関しても予め3Dモデルを定義して保存部21に記憶させておき、(例えば、実世界のフィールドF2における背景としてのステージ側STのフロア、壁W2及び舞台裏側BCのフロアなどを3Dモデルとして定義して記憶部21に記憶させておき、)当該モデル化された背景を描画したうえで、当該背景に対して、描画部22で描画された描画情報(ユーザBの開示情報BI)を重畳したものを提示してもよい。
In the presentation unit 14, the presentation information for the other user B (when the other user B is in the position of the own user) is drawn on the captured image obtained by the imaging unit 11 of the information terminal device 10-B of the other user B. The drawing information drawn by the unit 22 (that is, the avatar AI of the user A who is the other user as seen from the other user B) may be superimposed and presented. At this time, as described above, the
第二実施形態でアバタAIを利用する自ユーザAにおいては、この3Dモデル化された背景をアバタAIの位置姿勢(カメラ座標系XAIYAIZAI、原点PAI)から見た深度情報を算出することで、第一実施形態の描画部22による見出し(3)の深度情報を利用する実施形態と同様の描画を、第二実施形態において行うようにしてもよい。 User A, who uses avatar AI in the second embodiment, obtains depth information of the 3D modeled background from the position and orientation of avatar AI (camera coordinate system X AI Y AI Z AI , origin P AI ). With this calculation, the drawing unit 22 of the first embodiment may perform drawing similar to the embodiment using the depth information of the headline (3) in the second embodiment.
以上、第二実施形態の説明例では自ユーザAが現実の位置姿勢と異なるアバタAIを利用するものとしたが、自ユーザAと同時に他ユーザBも、現実の位置姿勢と異なるアバタBIを利用することも可能である。すなわち、提示システム100内においては、任意の一部又は全部のユーザが、実際の位置姿勢と異なるアバタ(開示情報)を利用するようにしてもよい。
As described above, in the explanation example of the second embodiment, user A uses an avatar AI that differs from the actual position and orientation, but user B also uses an avatar BI that differs from the actual position and orientation. It is also possible to That is, within the
また、第二実施形態の図10の説明例では壁W2を隔てるのみでユーザA,B間の距離は比較的近い(例えば十メートル程度)ことが想定される説明例としているが、この距離は任意の大きさに設定することが可能であり、ユーザA,Bが互いに遠隔にある場合(例えば数百キロメートル程度離れた別のオフィスにそれぞれ存在する場合)であっても、第二実施形態は適用可能である。この際、遠隔でのアバタAIの位置姿勢合わせの情報として、変換TAIを所定値として設定しておけばよい。例えば、ユーザAが存在する第1オフィス内に設置しておく第1マーカの位置姿勢から、ユーザBが存在する遠隔の第2オフィス内に設置しておく第二マーカ(例えば台CL)の位置姿勢への変換として変換TAIを設定しておけば、ユーザAが第1マーカに位置している際に、遠隔のユーザBに対して、ユーザAのアバタAIが第2マーカに位置するような拡張現実表示を提示することが可能となる。同様に、ユーザAに対しても、ユーザBの開示情報BIを、自身が位置する第1マーカの近くにおいて拡張現実表示として提示することが可能となる。 Further, in the explanation example of FIG. 10 of the second embodiment, the explanation example assumes that the distance between users A and B is relatively short (for example, about ten meters) only by separating the wall W2. It can be set to any size, and even if users A and B are remote from each other (for example, if they are in different offices several hundred kilometers apart), the second embodiment Applicable. At this time, the conversion T AI may be set as a predetermined value as information for adjusting the position and orientation of the avatar AI remotely. For example, from the position and orientation of the first marker placed in the first office where user A exists, the position of the second marker (for example, table CL) placed in the remote second office where user B exists If a transformation T AI is set as a transformation to a posture, when user A is positioned at the first marker, user A's avatar AI will be positioned at the second marker for remote user B. It is possible to present a wide variety of augmented reality displays. Similarly, for user A, it is possible to present user B's disclosure information BI as an augmented reality display near the first marker where the user is located.
第1マーカ及び第2マーカとしては、画像認識等を介して世界座標系での位置姿勢を計算可能なものとして、拡張現実表示における正方マーカなどを利用すればよい。こうして、第1マーカの位置姿勢と第2マーカの位置姿勢とを計算したうえで、これらの間の変換TAIを予め算出しておけばよい。(ただし、当該算出され設定された変換TAIを利用して本発明による拡張現実表示を行う際には、これらマーカを撮像して認識することは不要である。) As the first marker and the second marker, a square marker or the like in augmented reality display may be used as a marker capable of calculating the position and orientation in the world coordinate system through image recognition or the like. After calculating the position and orientation of the first marker and the position and orientation of the second marker in this way, the transformation T AI between them may be calculated in advance. (However, when the augmented reality display according to the present invention is performed using the calculated and set conversion T AI , it is not necessary to image and recognize these markers.)
以上の第二実施形態は、ユーザAに対して提示される拡張現実表示が、ユーザAとは異なる位置姿勢にあるアバタAIの視点から見たもの(アバタAIでの一人称視点)となる例であった。この変形例として、ユーザAに対して提示される拡張現実表示が第一実施形態と同様にユーザA自身の視点であり、且つ、第一実施形態では実現されなかった処理として、自身のアバタAIを三人称視点(アバタAIの立場では三人称視点であり、ユーザA自身の立場では一人称視点に相当)で見ているものとなるように、描画情報に追加することも可能である。図12は、この第二実施形態の変形例の模式例を示す図であり、図10に示されるのと同じユーザA,B間での撮像状況における例EX6(図11の例EX4の変形例に相当)として、アバタAIを利用するユーザAの情報端末装置10-Aにおける撮像画像P4''と描画情報R40との模式例が示されている。 The second embodiment described above is an example in which the augmented reality display presented to user A is viewed from the viewpoint of avatar AI in a position and orientation different from that of user A (first-person viewpoint of avatar AI). there were. As a modified example of this, the augmented reality display presented to user A is the user A's own viewpoint as in the first embodiment, and the processing that was not realized in the first embodiment is performed by the user's own avatar AI. can be added to the drawing information so that it is viewed from a third-person point of view (a third-person point of view from the point of view of avatar AI, which corresponds to a first-person point of view from the point of view of user A himself). FIG. 12 is a diagram showing a schematic example of a modification of the second embodiment, showing an example EX6 (a modification of example EX4 in FIG. 11) in the same imaging situation between users A and B as shown in FIG. ), a schematic example of a captured image P4'' and drawing information R40 in the information terminal device 10-A of the user A using the avatar AI is shown.
撮像画像P4''は、ユーザAがユーザBの側を向いて撮像されるものであるが、図10に示されるように壁W2に遮蔽されているので、ステージST及び当該ステージST上の台CL並びにユーザB等は撮像不可能な状態にある。(図12では、壁W2が存在しない場合に撮像可能となる台CLとユーザBを、画像P4''上に破線を用いてその位置のみを示している。)描画情報R40は、撮像画像P4''における台CL上の位置にユーザA自身のアバタAIが描画されたものと、他ユーザBの描画された開示情報BIと、で構成されることにより、ユーザAはユーザAの実在する位置PAから見た三人称視点において自身のアバタAI(位置PAI)と他ユーザBの開示情報BI(位置PB)と、を提示部14での提示情報として確認することができる。 The captured image P4'' is captured with the user A facing the user B, but is blocked by the wall W2 as shown in FIG. CL, user B, etc. are in a state where imaging is not possible. (In FIG. 12, only the positions of the table CL and the user B, which can be imaged when the wall W2 does not exist, are indicated by broken lines on the image P4''.) User A's own avatar AI is drawn at a position on the platform CL in '' and disclosure information BI drawn by another user B. From the third-person viewpoint seen from PA , the user's own avatar AI (position P AI ) and other user B's disclosure information BI (position P B ) can be confirmed as information presented by the presentation unit 14 .
この第二実施形態の変形例は、ユーザAに対する他ユーザBの開示情報を第一実施形態と同様にしてカメラ座標系XAYAZA(原点PA)の仮想空間において描画し、且つ、同仮想空間内において追加処理として、ユーザAが開示部13において開示情報として自身のアバタAI(ユーザAの動きをトレースした情報を含んでよい)と変換情報TAIとを設定しておいたうえで、ユーザAの開示情報であるアバタAIを変換TAIを用いて位置PAI(及び座標系XAIYAIZAIで表現される姿勢)に配置して描画し、ユーザAの描画情報に追加することで実現することができる。図10の状況のように、遮蔽が発生することが既知である場合、描画部22における見出し(3)の深度情報の利用は行わずに、自ユーザA及び他ユーザBの描画情報を描画してもよい。ユーザB(自ユーザの場合)の描画情報に関しては既に説明した第二実施形態と同様でよく、ユーザBに対しては図11の例EX5で示される通りの拡張現実表示が提示される。
In this modification of the second embodiment, disclosure information of another user B to the user A is drawn in the virtual space of the camera coordinate system X A Y A Z A (origin P A ) in the same manner as in the first embodiment, and As an additional process in the same virtual space, the user A sets his own avatar AI (which may include information tracing the movement of the user A) and conversion information T AI as disclosure information in the
<3> 図3に示す提示システム100での情報端末装置10及びサーバ20での機能ブロックの構成(役割の分担)は、一例に過ぎず、種々の変形が可能である。例えば、保存部21のみをサーバ20に設け、描画部22を情報端末装置10に設けるようにしてもよい。保存部21及び描画部22の両方を情報端末装置10に設け、サーバ20が存在しない実施形態も可能であり、この場合、複数の情報端末装置10の間でアドホック通信などにより、保存部21に保存すべき情報を共有するようにしてもよい。複数の情報端末装置10で互いに構成が違っていてもよく、例えば、描画部22を情報端末装置10自身において備えるものと、描画部22を備えず、サーバ20に当該機能を委ねるものとがあってもよい。
<3> The functional block configuration (role sharing) of the
<4> 提示システム100内の複数の情報端末装置10のうち、一部分のものは、開示部13を備えない構成であってもよい。この場合、開示部13を備えない情報端末装置10自身においては、開示部13を備える1つ以上の他端末としての情報端末装置10の開示情報を拡張現実表示として提示することが可能であるが、他端末から見た場合、当該自端末は開示情報を公開しないので、拡張現実表示として提示される対象には含まれないこととなる。
<4> Some of the plurality of
<5> 上記と同様に、提示システム100内の複数の情報端末装置10のうち、一部分のものは、計測部12及び開示部13は備えるが、提示部14は備えない構成であってもよい。このような情報端末装置10は、他端末に対して自端末の開示情報を公開して描画させて他端末において拡張現実表示として提示させる役割のみを担い、自端末における拡張現実表示は行わない。
<5> As described above, some of the
<6> 提示部14では、撮像部11で得た撮像画像に描画部22で得た描画情報を重畳して提示情報を提示するが、これは、ハードウェアとしてビデオシースルー型HMD(ヘッドマウントディスプレイ)を用いて実現してもよいし、スマートフォン等の画面としての通常のディスプレイを用いて実現してもよい。また、別の実施形態として、提示部14では、撮像部11で得た撮像画像は利用せず、描画部22で得た描画情報のみをフィールドを背景として提示するようにしてもよく、この場合、ハードウェアとして光学シースルー型HMDを用いて実現してもよい。光学シースルー型HMDに関しては、予めキャリブレーションを行い、撮像部11で撮像して得られる撮像画像でのフィールドの風景と同じ風景が、当該HMDを装着するユーザにおいて実世界の風景(背景)として見えるようにすることで、描画情報が拡張現実表示としてHMD上の適切な位置に描画されるようにしておけばよい。 <6> The presentation unit 14 presents presentation information by superimposing the drawing information obtained by the drawing unit 22 on the captured image obtained by the imaging unit 11. This is based on a video see-through HMD (head-mounted display) as hardware. ), or may be realized using a normal display as a screen of a smartphone or the like. Further, as another embodiment, the presentation unit 14 may present only the drawing information obtained by the drawing unit 22 as the background of the field without using the captured image obtained by the imaging unit 11. In this case, , may be realized using an optical see-through HMD as hardware. As for the optical see-through HMD, calibration is performed in advance, and the same scenery as the scenery of the field in the imaged image obtained by the imaging unit 11 can be seen as the scenery (background) of the real world by the user wearing the HMD. By doing so, the drawing information can be drawn at an appropriate position on the HMD as an augmented reality display.
<7> 図13は、一般的なコンピュータ装置70におけるハードウェア構成の例を示す図である。提示システム100における情報端末装置10及びサーバ20はそれぞれ、このような構成を有する1台以上のコンピュータ装置70として実現可能である。コンピュータ装置70は、所定命令を実行するCPU(中央演算装置)71、CPU71の実行命令の一部又は全部をCPU71に代わって又はCPU71と連携して実行する1つ以上の専用プロセッサ72(GPU(グラフィックス処理装置)や深層学習専用プロセッサ等)、CPU71にワークエリアを提供する主記憶装置としてのRAM73、補助記憶装置としてのROM74、通信インタフェース75、ディスプレイ76、マウス、キーボード、タッチパネル等によりユーザ入力を受け付ける入力インタフェース77、1つ以上のセンサ装置78、カメラ79と、これらの間でデータを授受するためのバスBSと、を備える。
<7> FIG. 13 is a diagram showing an example of a hardware configuration in a general computer device 70. As shown in FIG. Each of the
情報端末装置10及びサーバ20の各部は、各部の機能に対応する所定のプログラムをROM74から読み込んで実行するCPU71及び/又は専用プロセッサ72によって実現することができる。ここで、表示関連の処理が行われる場合にはさらに、ディスプレイ76が連動して動作し、ネットワーク上でのデータ送受信に関する通信関連の処理が行われる場合にはさらに通信インタフェース75が連動して動作する。撮像部11及び提示部14をハードウェアとして構成するのがそれぞれ、カメラ79及びディスプレイ76である。センサ装置78は、計測部12において撮像画像を解析する手法以外で種々の計測情報を取得する際に用いる、1つ以上の専用センサをハードウェアとして構成するものであり、位置姿勢取得部121での測位センサとしてのGPS、コンパス、ジャイロ、屋内GPSや、深度取得部123での光センサ(深度センサ)としてのLiDAR装置や、光源情報取得部124での照度センサなどが含まれる。
Each part of the
なお、情報端末装置10においてはその筐体に、図13に示されるような各ハードウェアが固定して設置されることにより、カメラ79やセンサ装置78の位置姿勢は当該固定されている筐体の位置姿勢に一致することとなる。従って、各種の実施形態によりカメラ79やセンサ装置78の出力を元に求めた位置姿勢や周辺環境に関する情報は、情報端末装置10の位置姿勢や周辺環境に関する情報を表すものとなる。
In addition, in the
100…提示システム、10…情報端末装置、20…サーバ、11…撮像部、12…計測部、13…開示部、14…提示部、21…保存部、22…描画部
DESCRIPTION OF
Claims (6)
1つ以上の他端末においてそれぞれ各時刻において計測された位置の情報と公開設定された開示情報でありアバタとして構成される3Dモデルとを参照することで、前記各時刻において計測した自身の位置姿勢を基準とした3次元仮想空間内において、前記1つ以上の他端末の3Dモデルを当該他端末の位置及び所定の姿勢に各時刻において配置して描画することで描画情報を得る描画部と、
前記描画情報を各時刻において提示する提示部と、を備え、
前記3Dモデルには基準となる向きが定義されており、
前記3Dモデルの所定の姿勢は、前記3次元仮想空間内において前記各時刻における自身の位置姿勢に対して、当該3Dモデルが前記基準となる向きにおいて正対する姿勢であることを特徴とする情報端末装置。 a measurement unit that measures the position and orientation of itself at each time ;
By referring to position information measured at each time by one or more other terminals and a 3D model configured as an avatar that is disclosure information that is set to be public, the position of itself measured at each time a drawing unit that obtains drawing information by arranging and drawing the one or more 3D models of the other terminal at each time in a three-dimensional virtual space based on the position of the other terminal at the position and predetermined position of the other terminal; ,
a presentation unit that presents the drawing information at each time ,
A reference orientation is defined in the 3D model,
The information terminal, wherein the predetermined posture of the 3D model is a posture in which the 3D model faces the reference direction with respect to the position and posture of the 3D model at each time in the three-dimensional virtual space. Device.
前記描画部では、前記計測した自身の位置姿勢を基準とした3次元仮想空間内において描画を行うことに代えて、前記計測した自身の位置姿勢に対して、前記設定されている所定変換を適用した位置姿勢を基準とした3次元仮想空間内において描画を行うことを特徴とする請求項1に記載の情報端末装置。 In the information terminal device, a predetermined transformation is set for the measured position and orientation of itself,
The rendering unit applies the set predetermined transformation to the measured position and orientation of the user, instead of performing rendering in a three-dimensional virtual space based on the measured position and orientation of the user. 2. The information terminal device according to claim 1 , wherein drawing is performed in a three-dimensional virtual space with reference to the position and orientation of the information terminal device.
前記描画部ではさらに、前記自身に関して公開設定された開示情報を、前記計測した自身の位置姿勢に対して前記所定変換を適用した位置姿勢に配置して描画することを特徴と
する請求項1または2に記載の情報端末装置。 In the information terminal device, a predetermined transformation of the measured position and orientation of the device itself and disclosure information set to the public regarding the device are set, and
2. The drawing unit further arranges and draws the disclosure information that is set to be open to the public in the position and orientation obtained by applying the predetermined transformation to the measured position and orientation of the user. 2. The information terminal device according to 2 above.
前記描画部では、当該少なくとも一部の他端末の開示情報を、当該他端末の位置に配置して描画することに代えて、当該他端末の位置に対して、設定されている所定変換を適用した位置に配置して描画することを特徴とする請求項1ないし3のいずれかに記載の情報端末装置。 At least some of the one or more other terminals are respectively set with a predetermined transformation for the measured position,
In the drawing unit, instead of arranging and drawing the disclosed information of the at least part of the other terminal at the position of the other terminal, a predetermined conversion that is set is applied to the position of the other terminal. 4. The information terminal device according to any one of claims 1 to 3 , wherein drawing is performed by arranging the information terminal device at a position where the image is drawn.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019149154A JP7261121B2 (en) | 2019-08-15 | 2019-08-15 | Information terminal device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019149154A JP7261121B2 (en) | 2019-08-15 | 2019-08-15 | Information terminal device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021033377A JP2021033377A (en) | 2021-03-01 |
JP7261121B2 true JP7261121B2 (en) | 2023-04-19 |
Family
ID=74676579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019149154A Active JP7261121B2 (en) | 2019-08-15 | 2019-08-15 | Information terminal device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7261121B2 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005100109A (en) | 2003-09-25 | 2005-04-14 | Namco Ltd | Image generation information, information storage medium and image generation apparatus |
JP2013196616A (en) | 2012-03-22 | 2013-09-30 | Sharp Corp | Information terminal device and information processing method |
JP2013254305A (en) | 2012-06-06 | 2013-12-19 | Sony Corp | Information processing device, computer program, and terminal device |
JP2015068831A (en) | 2013-09-30 | 2015-04-13 | 本田技研工業株式会社 | Function-extended three-dimensional (3d) navigation |
JP2014517373A5 (en) | 2012-04-10 | 2015-05-07 | ||
JP2016071900A (en) | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | Information processing system and control method of the same, and program |
JP2016081225A (en) | 2014-10-15 | 2016-05-16 | Kddi株式会社 | Information presenting system |
JP2017143409A (en) | 2016-02-10 | 2017-08-17 | 株式会社Jvcケンウッド | Mobile terminal device and program |
JP2019020832A (en) | 2017-07-12 | 2019-02-07 | 株式会社コロプラ | Information processing method, device, and program for causing computer to execute the method |
JP6730537B1 (en) | 2017-06-01 | 2020-07-29 | シグニファイ ホールディング ビー ヴィSignify Holding B.V. | System and method for rendering virtual objects |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3234802B2 (en) * | 1997-10-15 | 2001-12-04 | 日本電信電話株式会社 | Information search method and storage medium storing information search program |
US9360991B2 (en) | 2011-04-11 | 2016-06-07 | Microsoft Technology Licensing, Llc | Three-dimensional icons for organizing, invoking, and using applications |
-
2019
- 2019-08-15 JP JP2019149154A patent/JP7261121B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005100109A (en) | 2003-09-25 | 2005-04-14 | Namco Ltd | Image generation information, information storage medium and image generation apparatus |
JP2013196616A (en) | 2012-03-22 | 2013-09-30 | Sharp Corp | Information terminal device and information processing method |
JP2014517373A5 (en) | 2012-04-10 | 2015-05-07 | ||
JP2013254305A (en) | 2012-06-06 | 2013-12-19 | Sony Corp | Information processing device, computer program, and terminal device |
JP2015068831A (en) | 2013-09-30 | 2015-04-13 | 本田技研工業株式会社 | Function-extended three-dimensional (3d) navigation |
JP2016071900A (en) | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | Information processing system and control method of the same, and program |
JP2016081225A (en) | 2014-10-15 | 2016-05-16 | Kddi株式会社 | Information presenting system |
JP2017143409A (en) | 2016-02-10 | 2017-08-17 | 株式会社Jvcケンウッド | Mobile terminal device and program |
JP6730537B1 (en) | 2017-06-01 | 2020-07-29 | シグニファイ ホールディング ビー ヴィSignify Holding B.V. | System and method for rendering virtual objects |
JP2019020832A (en) | 2017-07-12 | 2019-02-07 | 株式会社コロプラ | Information processing method, device, and program for causing computer to execute the method |
Also Published As
Publication number | Publication date |
---|---|
JP2021033377A (en) | 2021-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106157359B (en) | Design method of virtual scene experience system | |
WO2018116790A1 (en) | Inconsistency detection system, mixed reality system, program, and inconsistency detection method | |
KR102125293B1 (en) | Generation device, generation method, and storage medium | |
US20160307374A1 (en) | Method and system for providing information associated with a view of a real environment superimposed with a virtual object | |
US20110084983A1 (en) | Systems and Methods for Interaction With a Virtual Environment | |
US20160140761A1 (en) | Using depth information for drawing in augmented reality scenes | |
US11790610B2 (en) | Systems and methods for selective image compositing | |
JP2006053694A (en) | Space simulator, space simulation method, space simulation program and recording medium | |
CA2550512A1 (en) | 3d videogame system | |
US11682138B2 (en) | Localization and mapping using images from multiple devices | |
JP2015114905A (en) | Information processor, information processing method, and program | |
EP3057316B1 (en) | Generation of three-dimensional imagery to supplement existing content | |
KR20180120456A (en) | Apparatus for providing virtual reality contents based on panoramic image and method for the same | |
US11043019B2 (en) | Method of displaying a wide-format augmented reality object | |
US11297296B2 (en) | Display control apparatus, program, and display control method | |
JP7261121B2 (en) | Information terminal device and program | |
Kim et al. | 3-d virtual studio for natural inter-“acting” | |
US20200410734A1 (en) | Spatial reproduction method and spatial reproduction system | |
CN113256773A (en) | Surface grid scanning and displaying method, system and device | |
Saito | Computer vision for 3DTV and augmented reality | |
Alfakhori et al. | Occlusion screening using 3d city models as a reference database for mobile ar-applications | |
WO2023166794A1 (en) | Information processing device, information processing method, image generation device, image generation method, and program | |
WO2022224964A1 (en) | Information processing device and information processing method | |
US11310472B2 (en) | Information processing device and image generation method for projecting a subject image onto a virtual screen | |
CN113449027A (en) | Three-dimensional visual display method and device for dynamic information of urban intersection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220729 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230209 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230209 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230222 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230407 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7261121 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |