JP2019008513A - バーチャルリアリティシステムおよびプログラム - Google Patents
バーチャルリアリティシステムおよびプログラム Download PDFInfo
- Publication number
- JP2019008513A JP2019008513A JP2017122921A JP2017122921A JP2019008513A JP 2019008513 A JP2019008513 A JP 2019008513A JP 2017122921 A JP2017122921 A JP 2017122921A JP 2017122921 A JP2017122921 A JP 2017122921A JP 2019008513 A JP2019008513 A JP 2019008513A
- Authority
- JP
- Japan
- Prior art keywords
- user
- line
- virtual reality
- sight
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】本発明は、高品質のバーチャルリアリティ体験を提供するバーチャルリアリティシステムを提供することを目的とする。【解決手段】本発明によれば、顔を持つモックアップを使用するバーチャルリアリティシステムであって、バーチャルリアリティ画像の構成要素として、現実空間に存在する実体物に対して3次元的に位置合わせされた3Dオブジェクトを生成する3Dオブジェクト生成手段と、前記バーチャルリアリティ画像を見るユーザの視線ベクトルを取得する視線ベクトル取得手段と、前記ユーザの視線ベクトルと前記3Dオブジェクトの衝突判定を行う視線ベクトル衝突判定手段とを含み、前記3Dオブジェクト生成手段は、前記衝突判定の結果に応じて前記モックアップに3次元的に位置合わせされた3Dオブジェクトの視線の方向を動的に変化させる、バーチャルリアリティシステムが提供される。【選択図】図1
Description
本発明は、バーチャルリアリティシステムに関する。
近年、3Dコンピュータグラフィックスを利用したバーチャルリアリティがエンターテイメントの分野で注目を集めており、バーチャルリアリティ体験の品質を向上させるための手法が種々検討されている(例えば、特許文献1)。
本発明は、高品質のバーチャルリアリティ体験を提供するバーチャルリアリティシステムを提供することを目的とする。
本発明者は、高品質のバーチャルリアリティ体験を提供するバーチャルリアリティシステムにつき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。
すなわち、本発明によれば、顔を持つモックアップを使用するバーチャルリアリティシステムであって、バーチャルリアリティ画像の構成要素として、現実空間に存在する実体物に対して3次元的に位置合わせされた3Dオブジェクトを生成する3Dオブジェクト生成手段と、前記バーチャルリアリティ画像を見るユーザの視線ベクトルを取得する視線ベクトル取得手段と、前記ユーザの視線ベクトルと前記3Dオブジェクトの衝突判定を行う視線ベクトル衝突判定手段とを含み、前記3Dオブジェクト生成手段は、前記衝突判定の結果に応じて前記モックアップに3次元的に位置合わせされた3Dオブジェクトの視線の方向を動的に変化させる、バーチャルリアリティシステムが提供される。
上述したように、本発明によれば、高品質のバーチャルリアリティ体験を提供するバーチャルリアリティシステムが提供される。
以下、本発明を図面に示した実施の形態をもって説明するが、本発明は、図面に示した実施の形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。
図1は、本発明の実施形態であるバーチャルリアリティシステム1000のシステム構成を示す。なお、以下においては、用語“バーチャルリアリティ(Virtual Reality)”を“VR”と省略する場合がある。図1に示すように、本実施形態のVRシステム1000は、VR体験ブースに設置されるPC100と、Webサーバ200とを含んで構成されている。
本実施形態のVR体験ブースには、ユーザが装着するヘッドマウントディスプレイ(以下、HMDという)12およびヘッドフォン14と、ユーザの顔写真を撮影するためのデジタルカメラ18が用意される。
また、本実施形態のVR体験ブースには、顔を持つ対象物(人間、動物、ロボットなど)のモックアップを含む1以上のモックアップが用意される。そして、これらのモックアップの少なくとも1つに振動子16が内蔵される。
また、本実施形態のVR体験ブースには、3次元位置姿勢取得手段10が設置される。3次元位置姿勢取得手段10は、現実空間と3次元仮想空間の幾何学的位置合わせを行うのに必要な現実空間に存在する実体物の3次元位置・姿勢を取得するための手段であり、その方式は、ビジョンベース(マーカーベース、モデルベース、自然特徴ベース)またはセンサベースのいずれであってもよい。
本実施形態のPC100は、バーチャルリアリティを提示するために必要な各種の情報処理を実行するコンピュータであり、3次元位置姿勢取得手段10、HMD12、ヘッドフォン14および振動子16のそれぞれと有線または無線を介して通信可能に接続されている。なお、図1では、PC100をノートPCとして図示しているが、PC100は、デスクトップPCやタブレットPCであってもよい。
本実施形態のWebサーバ200は、VR体験ブースを訪れるユーザに関連する各種の情報(以下、ユーザ情報という)を収集・管理するコンピュータであり、VR体験に設置されるPC100ならびにVR体験ブースを訪れるユーザのユーザ端末300のそれぞれと、インターネット、LAN(Local Area Network)、携帯電話網、またはこれらの組み合わせによって構成される有線または無線の情報通信ネットワークとして参照するネットワーク40を介して通信可能に接続されている。なお、図1では、Webサーバ200を1台のサーバとして図示しているが、Webサーバ200は、ネットワーク上に2以上のサーバが分散配置されてなるクラウドシステムであってもよい。また、図1では、ユーザ端末300をスマートフォンとして図示しているが、ユーザ端末300は、タブレットPCやノートPCであってもよい。
以上、本実施形態のVRシステム1000のシステム構成を説明してきたが、続いて、図2に示す機能ブロック図に基づいて、VRシステム1000を構成する各装置の機能構成を説明する。
PC100は、3Dオブジェクト生成部101と、VR画像生成部102と、視線ベクトル取得部103と、視線ベクトル衝突判定部104と、予想画像生成部105と、画像出力部106と、音声出力部107と、振動子制御部108と、記憶領域109とを含んで構成されている。
3Dオブジェクト生成部101は、HMD12に出力するVR画像の構成要素として、現実空間に存在する実体物に対して3次元的に位置合わせされた3Dオブジェクトを生成する手段である。
VR画像生成部102は、3Dオブジェクトを含む3次元仮想空間を仮想スクリーンに透視投影することによりVR画像(2次元画像)を生成する手段である。
視線ベクトル取得部103は、HMD12を装着するユーザの視線ベクトルを取得する手段である。
視線ベクトル衝突判定部104は、HMD12を装着するユーザの視線ベクトルとVR画像内の3Dオブジェクトの衝突判定を行う手段である。
予想画像生成部105は、標準的な赤ちゃんの顔画像とユーザの顔画像のモーフィング画像をユーザの赤ちゃんの顔の予想画像として生成する手段である。
画像出力部106は、VR画像生成部102が生成したVR画像をHMD12に出力する手段である。
音声出力部107は、ヘッドフォン14に音声信号を出力する手段である。
振動子制御部108は、モックアップ(顔を持つモックアップに限らない)に内蔵される振動子16の振動を制御するための駆動信号を出力する手段である。
記憶領域109は、3Dオブジェクトに関連する音声を収めた音声ファイルなどの各種データを保持する手段である。
なお、本実施形態では、PC100が、所定のプログラムを実行することにより、上述した各手段として機能する。
一方、Webサーバ200は、ユーザ情報保存部202と、データベース204とを含んで構成されている。
一方、ユーザ端末300は、Webブラウザ302と、2次元コードデコード手段304とを含んで構成されている。
以上、本実施形態のVRシステム1000を構成する各装置の機能構成を説明してきたが、続いて、VRシステム1000が実行する処理の内容を具体的ンな適用例に基づいて説明する。なお、以下の説明においては、適宜、図1および図2を参照するものとする。
図3は、本実施形態のVRシステム1000を適用した「育児疑似体験ブース」を示す。この「育児疑似体験ブース」は、赤ちゃんの世話を疑似体験させることを目的としたVR体験ブースであり、図3に示すように、ブース内に用意された部屋500の中央には、ベビーベッド32が設置されており、ベビーベッド32の中には、赤ちゃんのモックアップ30が置かれている。また、部屋500の隅には、チェスト36が設置されており、チェスト36の上には、哺乳瓶のモックアップ34が置かれている。そして、赤ちゃんのモックアップ30の内部には、振動子16aが内蔵されており、哺乳瓶のモックアップ34の内部には、振動子16bが内蔵されている。
<HMD用衛生マスクの配布>
本実施形態では、「育児疑似体験ブース」では、受付を訪れたユーザの一人ひとりに対して、図4に示すHMD用衛生マスク50(以下、衛生マスク50という)を配布する。衛生マスク50は、多くの人が使いまわすHMDの内側部分が直に顔に触れるのを防ぐものであり、一般に、不織布や紙などで作製され、目の部分に横長の穴が空いたアイマスク様の形状を有している。
本実施形態では、「育児疑似体験ブース」では、受付を訪れたユーザの一人ひとりに対して、図4に示すHMD用衛生マスク50(以下、衛生マスク50という)を配布する。衛生マスク50は、多くの人が使いまわすHMDの内側部分が直に顔に触れるのを防ぐものであり、一般に、不織布や紙などで作製され、目の部分に横長の穴が空いたアイマスク様の形状を有している。
ここで、本実施形態では、衛生マスク50に2次元コードの一種であるQRコード52(「QRコード」は登録商標。以下同様。)が付されている。本実施形態では、Webサーバ200のURIがQRコード52にエンコードされており、このURIは、VRシステム1000のシステム内で一意のユーザIDを暗号化してなる暗号化文字列をGETパラメータとして含む文字列として記述されている。なお、本実施形態は、QRコード52の付し方を限定するものではなく、QRコード52は、シール貼付、タグ付け、直接印刷といった任意の方法で衛生マスク50に付される。
<ユーザ情報の保存>
本実施形態では、スタッフが衛生マスク50を配る際に、ユーザに対して「衛生マスクに付されているQRコードをお手持ちの携帯端末で読み取ってください。」とお願いする。これを受けて、ユーザが、配布された衛生マスク50に付されたQRコード52を自身のユーザ端末300の搭載カメラで撮影する。これを受けて、ユーザ端末300とWebサーバ200との間で、図5のシーケンス図に示す処理が実行される。
本実施形態では、スタッフが衛生マスク50を配る際に、ユーザに対して「衛生マスクに付されているQRコードをお手持ちの携帯端末で読み取ってください。」とお願いする。これを受けて、ユーザが、配布された衛生マスク50に付されたQRコード52を自身のユーザ端末300の搭載カメラで撮影する。これを受けて、ユーザ端末300とWebサーバ200との間で、図5のシーケンス図に示す処理が実行される。
まず、ユーザ端末300の2次元コードデコード手段304が衛生マスク50に付されたQRコード52をデコードして、暗号化文字列をGETパラメータとして含むURIを取得する(S1)。
次に、ユーザ端末300のWebブラウザ302は、暗号化文字列をGETパラメータとするGETリクエストを取得したURI(Webサーバ200のURI)に宛てて送信する(S2)。
これを受けて、Webサーバ200のユーザ情報保存部202は、受信したGETリクエストに含まれる暗号化文字列を復号してユーザIDを取得した後、当該ユーザIDをタイムスタンプに紐付けてデータベース204に保存する(S3)。
その後、ユーザ情報保存部202は、レスポンスとして、ユーザ端末300に対してユーザ情報入力画面を送信する(S4)。これを受けて、ユーザ端末300のWebブラウザ302は、受信したユーザ情報入力画面をディスプレイに表示する(S5)。
図6(a)は、S6で表示されるユーザ情報入力画面の一例である「事前アンケート」入力画面を示す。図6(a)に示すように、「事前アンケート」入力画面は、ユーザの属性(性別、年齢、職業、結婚、興味のある分野)に関する質問への回答や、「赤ちゃんを世話したことがありますか?」、「赤ちゃんを欲しいと思ったことがありますか?」といった質問への回答を受け付けるように構成されている。
これを受けて、ユーザが「事前アンケート」入力画面に回答を入力して、送信ボタンを選択すると、ユーザ端末300のWebブラウザ302は、入力された内容をユーザ情報としてWebサーバ200に送信する(S6)。
これを受けて、Webサーバ200のユーザ情報保存部202は、受信したユーザ情報をS3で取得したユーザIDに紐付けてデータベース204に保存する(S7)。
<予想画像の生成>
本実施形態では、ユーザを部屋500に案内する前に、スタッフがユーザの顔をデジタルカメラ18で撮影し、撮影したユーザの顔画像をPC100に送信する。これを受けて、PC100は、受信したユーザの顔画像を一時記憶に保存する。
本実施形態では、ユーザを部屋500に案内する前に、スタッフがユーザの顔をデジタルカメラ18で撮影し、撮影したユーザの顔画像をPC100に送信する。これを受けて、PC100は、受信したユーザの顔画像を一時記憶に保存する。
続いて、スタッフは、PC100を操作して、図7(a)に示す予想画像生成画面60を開く。予想画像生成画面60は、ユーザの赤ちゃんの顔の予想画像を生成するためのUIであり、フィールド62と、フィールド63と、フィールド64と、形状スライダー65と、色相スライダー67を含んで構成されている。
スタッフが予想画像生成画面60を開いた時点で、PC100の予想画像生成部105は、予め用意された標準的な赤ちゃんの顔画像(以下、標準画像という)を所定の記録領域から読み出してフィールド62に表示し、先に撮影したユーザの顔画像(以下、ユーザ画像という)を一時記憶から読み出してフィールド63に表示する。そして、このとき、予想画像生成部105は、標準画像とユーザ画像の対応する特徴点に基づいて、いずれか一方をソース画像とし、他方をターゲット画像とするモーフィングを実行して中間画像(以下、モーフィング画像という)を生成し、生成したモーフィング画像を予想画像としてフィールド64に表示する。
ここで、通常、モーフィングでは、形状のモーフィング(以下、形状モーフィングという)と色相のモーフィング(以下、色相モーフィングという)が同じパラメータに基づいて行うことが一般的であるが、本実施形態の予想画像生成画面60は、形状モーフィングと色相モーフィングを、それぞれ、個別のパラメータに基づいて行う。なお、ここでいうパラメータとは、ソース画像とターゲット画像の混合比率を意味する。
この点に関して、予想画像生成画面60は、形状モーフィングのパラメータの設定値および色相モーフィングのパラメータの設定値を、それぞれ、形状スライダー65および色相スライダー67を介して、それぞれ個別に受け付けることができるように構成されている。
具体的には、予想画像生成画面60において、形状スライダー65のハンドルを紙面右方向に移動させるほど、形状モーフィングにおけるユーザ画像の混合比率が大きくなり、ハンドルを紙面左方向に移動させるほど、形状モーフィングにおける標準画像の混合比率が大きくなる。同様に、色相スライダー67のハンドルを紙面右方向に移動させるほど、色相モーフィングにおけるユーザ画像の混合比率が大きくなり、ハンドルを紙面左方向に移動させるほど、色相モーフィングにおける標準画像の混合比率が大きくなる。なお、本実施形態では、形状モーフィングおよび色相モーフィングのパラメータのデフォルト値としてユーザ画像の混合比率0%が設定されているので、図7(a)に示すように、当初のフィールド64には標準画像が表示される。
ここで、スタッフは、予想画像生成画面60の操作方法をユーザに説明した後、ユーザに対して「ご自分の赤ちゃんの顔の予想画像を作って下さい。」とお願いする。これを受けて、ユーザは、2つのスライダー65、67を試行錯誤的に操作し、その結果、図7(b)に示すような納得できる予想画像がフィールド64には表示されたときに「保存」ボタンを選択する。これを受けて、予想画像生成画面60は、その時点で生成された予想画像を一時記憶に保存する。このように、本実施形態では、形状と色相のモーフィングを個別のパラメータに基づいて行うことにより、赤ちゃんの予想画像のリアリティを向上させることが可能になる。
<視覚と触覚が融合したインタラクション>
自分の赤ちゃんの顔の予想画像を作成したユーザは、配付された衛生マスク50の上からHMD12とヘッドフォン14を装着した状態で図3に示す部屋500に入る。このとき、部屋500に設置された3次元位置姿勢取得手段10は、現実空間である部屋500の中に存在する実体物(ユーザ、HMD12、ベビーベッド32、モックアップ30、チェスト36、モックアップ34など)の3次元位置姿勢情報をリアルタイムにトラッキングして、PC100に送信する。
自分の赤ちゃんの顔の予想画像を作成したユーザは、配付された衛生マスク50の上からHMD12とヘッドフォン14を装着した状態で図3に示す部屋500に入る。このとき、部屋500に設置された3次元位置姿勢取得手段10は、現実空間である部屋500の中に存在する実体物(ユーザ、HMD12、ベビーベッド32、モックアップ30、チェスト36、モックアップ34など)の3次元位置姿勢情報をリアルタイムにトラッキングして、PC100に送信する。
一方、PC100の3Dオブジェクト生成部101は、3次元位置姿勢取得手段10から送信される3次元位置姿勢情報に基づいて、部屋500の中に存在する実体物(ベビーベッド32、モックアップ30、チェスト36、モックアップ34)に対して3次元的に位置合わせされた3Dオブジェクトをリアルタイムで生成する。
このとき、3Dオブジェクト生成部101は、赤ちゃんのモックアップ30に対応する3Dオブジェクト(以下、赤ちゃんオブジェクトという)を生成する際に、ユーザが生成した予想画像に基づいて顔テクスチャを生成して、赤ちゃんオブジェクトの顔領域に貼り付ける。
一方、VR画像生成部102は、生成された3Dオブジェクトを構成要素として含むVR画像を所定のフレームレートで生成し、画像出力部106は、生成されたVR画像をHMD12に出力する。
このとき、本実施形態では、VR画像に含まれる3Dオブジェクトが、現実空間の実体物に対して3次元的に位置合わせされているので、VR画像によってもたらされる視覚と、実体物によってもたらされる触覚(圧覚)が一致する。
例えば、HMD12を装着したユーザが図8(a)に示すアングルでベビーベッド32に置かれているモックアップ30を覗き込んだとき、ユーザの視界には、図8(b)に示すような赤ちゃんオブジェクトが映る。このとき、赤ちゃんオブジェクトの顔が自分によく似ているので、ユーザは、VR画像内の赤ちゃんに親近感を抱きやすくなり、育児体験のリアリティが向上する。
さらに、本実施形態では、ユーザが視界に映る赤ちゃんオブジェクトを触ろうとして手を伸ばすと、その手にモックアップ30が触知され、ユーザが視界に映る赤ちゃんオブジェクトを腕で抱きかえようとすると、その腕にモックアップ30の重量感がもたらされる。本実施形態では、このような視覚と触覚が融合したインタラクションがVR体験の品質を向上させる。
<聴覚と触覚が融合したインタラクション>
本実施形態では、PC100の記憶領域109に、赤ちゃんオブジェクトに関連付けられた音声(赤ちゃんの泣き声、笑い声、ゲップの音、ミルクを飲む音、など)を収めた音声ファイルが保持されており、音声出力部107は、所定の規則に従って、記憶領域109から適切な音声ファイルを読み出し、それをデコードした音声信号をヘッドフォン14に出力する。
本実施形態では、PC100の記憶領域109に、赤ちゃんオブジェクトに関連付けられた音声(赤ちゃんの泣き声、笑い声、ゲップの音、ミルクを飲む音、など)を収めた音声ファイルが保持されており、音声出力部107は、所定の規則に従って、記憶領域109から適切な音声ファイルを読み出し、それをデコードした音声信号をヘッドフォン14に出力する。
一方、振動子制御部108は、音声出力部107が出力する音声信号の波形データを取得し、高速フーリエ変換(FFT)で取得した波形データのスペクトラム解析を行ってスペクトル強度を取得する。次に、バンドパスフィルタによって取得したスペクトル強度から特定の波長域(例えば、14700〜29400Hz)のスペクトル強度を抽出した後、抽出したスペクトル強度に対して適切な係数をかけてduration(駆動信号を送る時間)に変換して振動子16に出力する。
これにより、音声出力部107が出力する音声信号に同期して駆動信号が振動子16に出力され、ヘッドフォン14に出力される音声の強度に応じた強度で振動子16が振動する。具体的には、赤ちゃんの泣き声の音声がヘッドフォン14に出力される間に、ユーザが抱きかかえる赤ちゃんのモックアップ30に内蔵された振動子16aが出力音声の強度に応じた強度で振動し、赤ちゃんがミルクを飲む音の音声がヘッドフォン14に出力される間に、ユーザが手に持つ哺乳瓶のモックアップ34に内蔵された振動子16bが適切な駆動周波数で制御され適切な強度で振動する。本実施形態では、このような聴覚と触覚が融合したインタラクションがVR体験の品質を向上させる。
<3Dオブジェクトの視線を利用したリアリティの創出>
本実施形態では、赤ちゃんオブジェクトの視線方向を動的に変化させることによって高いリアリティを創出する。以下、赤ちゃんオブジェクトの視線方向を動的に変化させるための処理を図9〜図11に示すフローチャートに基づいて説明する。
本実施形態では、赤ちゃんオブジェクトの視線方向を動的に変化させることによって高いリアリティを創出する。以下、赤ちゃんオブジェクトの視線方向を動的に変化させるための処理を図9〜図11に示すフローチャートに基づいて説明する。
本実施形態では、赤ちゃんオブジェクトの視線に係るモードとして、下記に挙げる5つのモードを用意する。
(1)ユーザに見られたら見返す
(2)ユーザが見ているものを見る
(3)ユーザを設定された頻度で見る
(4)ユーザを常に見る
(5)ランダムな方向を見る
(1)ユーザに見られたら見返す
(2)ユーザが見ているものを見る
(3)ユーザを設定された頻度で見る
(4)ユーザを常に見る
(5)ランダムな方向を見る
以下、各モードにおいて実行される処理の内容を順を追って説明する。
(モード1:ユーザに見られたら見返す)
図9(a)は、全モードで実行されるメインルーチンのフローチャートを示し、図9(b)は、モード1で実行されるコルーチンのフローチャートを示す。
図9(a)は、全モードで実行されるメインルーチンのフローチャートを示し、図9(b)は、モード1で実行されるコルーチンのフローチャートを示す。
まず、メインルーチンのステップ101では、決められた座標0〜3を取得する。
続くステップ102では、視線ベクトル取得部103が、3次元位置姿勢取得手段10が取得したHMD12の3次元位置姿勢に基づいて最新のユーザの頭部座標と視線ベクトルを取得する。
続くステップ103では、停止しているコルーチンがあるか否かを判断する。この時点では、停止しているコルーチンがないので(ステップ103、No)、処理は、ステップ106に進み、コルーチンを開始する。
モード1のコルーチンが開始されると、まずステップ201では、視線ベクトル衝突判定部104が、既知の方法によって、先のステップ102で取得したユーザの視線ベクトルと赤ちゃんオブジェクト(の顔の部分)の衝突判定を行う。
その結果、ユーザの視線ベクトルと赤ちゃんオブジェクトが衝突している場合は(ステップ202、Yes)、処理はステップ203に進み、変数Targetにユーザの頭部座標を代入する。
続くステップ204では、3Dオブジェクト生成部101は、赤ちゃんオブジェクトの顔の方向をTargetの座標に向ける。この場合、変数Targetにはユーザの頭部座標が代入されているので、3Dオブジェクト生成部101は、顔の方向をユーザの頭部に向けた赤ちゃんオブジェクトを生成する。
その後、処理は、ステップ205に進んで、コルーチンを停止した後、メインルーチンに戻る。
一方、ユーザの視線ベクトルと赤ちゃんオブジェクトが衝突していない場合は(ステップ202、No)、処理はステップ206に進む。ステップ206では、乱数を用いてint型変数aに、メインルーチンのステップ101(図9(a))で取得した0〜3までの値を代入し、続くステップ207で、変数Targetに座標[a]を代入する。
続くステップ204では、3Dオブジェクト生成部101は、赤ちゃんオブジェクトの顔の方向をTargetの座標に向ける。この場合、変数Targetにはランダムに決定された座標[a]が代入されているので、3Dオブジェクト生成部101は、顔の方向を座標[a]に向けた赤ちゃんオブジェクトを生成する。
その後、処理は、ステップ205に進んで、コルーチンを停止した後、メインルーチンに戻る。
再び、図9(a)に戻って説明を続ける。
コルーチンを停止した後、処理はメインルーチンのステップ105に進む。ステップ105では、3Dオブジェクト生成部101は、現在の赤ちゃんオブジェクトの顔の方向を考慮に入れた上で、赤ちゃんオブジェクトの視線の方向をTargetの座標に向ける。
ここで、変数Targetに座標[a]が代入されている場合(すなわち、ユーザの視線ベクトルが赤ちゃんオブジェクトに衝突していない場合)は、3Dオブジェクト生成部101は、視線の方向を座標[a]に向けた顔テクスチャを生成して、赤ちゃんオブジェクトの顔領域に貼り付ける。その結果、VR画像中の赤ちゃんオブジェクトは、図12(a)に示すように、ユーザと目を合わさない。
一方、変数Targetにユーザの頭部座標が代入されている場合(すなわち、ユーザの視線ベクトルが赤ちゃんオブジェクトに衝突している場合)は、3Dオブジェクト生成部101は、視線の方向をユーザの頭部に向けた顔テクスチャを生成して、赤ちゃんオブジェクトの顔領域に貼り付ける。その結果、VR画像中の赤ちゃんオブジェクトは、図12(b)に示すように、ユーザと目を合わせる。
その後、処理はステップ102に戻り、ユーザの頭部座標と視線ベクトルを取得した後、続くステップ103で、停止しているコルーチンがあるか否かを判断する。この時点では、停止しているコルーチンがあるので(ステップ103、Yes)、処理は、ステップ104に進む。
続くステップ104では、コルーチンの停止時間が所定時間Tを経過しているか否かを判断し、停止時間が所定時間Tを経過しない限り(ステップ104、No)、上述したステップ102〜105の一連の処理を繰り返す。
一方、コルーチンの停止時間が所定時間Tを経過した時点で(ステップ104、Yes)、ステップ107に進んで、停止していたコルーチンを終了させた後、処理は、ステップ105に進む。
以降、PC100は、上述した一連の処理を繰り返す。
(モード2:ユーザが見ているものを見る)
モード2のコルーチンで実行される処理の内容を図10(a)に示すフローチャートに基づいて説明する。なお、以降の説明においては、メインルーチンの説明を適宜省略するものとする。
モード2のコルーチンで実行される処理の内容を図10(a)に示すフローチャートに基づいて説明する。なお、以降の説明においては、メインルーチンの説明を適宜省略するものとする。
モード2のコルーチンが開始されると、まずステップ301では、ユーザの視線ベクトルと他のオブジェクトの衝突判定を行う。ここでいう“他のオブジェクト”とは、赤ちゃんオブジェクト以外の他の3Dオブジェクトを意味し、例えば、哺乳瓶のモックアップ34に対応する3Dオブジェクトがこれに相当する。
その結果、ユーザの視線ベクトルと他のオブジェクトが衝突している場合は(ステップ302、Yes)、処理はステップ303に進み、変数Targetに衝突している他のオブジェクトの座標(代表座標)を代入する。
続くステップ304では、3Dオブジェクト生成部101は、赤ちゃんオブジェクトの顔の方向をTargetの座標に向ける。この場合、変数Targetには衝突している他のオブジェクトの座標が代入されているので、3Dオブジェクト生成部101は、顔の方向を他のオブジェクトに向けた赤ちゃんオブジェクトを生成する。
その後、処理は、ステップ305に進んで、コルーチンを停止した後、メインルーチンに戻る。
一方、ユーザの視線ベクトルと他のオブジェクトが衝突していない場合は(ステップ302、No)、処理はステップ306に進む。ステップ306では、乱数を用いてint型変数aに、メインルーチンのステップ101(図9(a))で取得した0〜3までの値を代入し、続くステップ307で、変数Targetに座標[a]を代入する。
続くステップ304では、3Dオブジェクト生成部101は、赤ちゃんオブジェクトの顔の方向をTargetの座標に向ける。この場合、変数Targetにはランダムに決定された座標[a]が代入されているので、3Dオブジェクト生成部101は、顔の方向を座標[a]に向けた赤ちゃんオブジェクトを生成する。
その後、処理は、ステップ305に進んで、コルーチンを停止した後、メインルーチンに戻る。
上述したように、モード1およびモード2では、赤ちゃんオブジェクトがユーザの視線に反応しているように振る舞うので、ユーザは、これに強いリアリティを感じるようになる。
(モード3:ユーザを設定された頻度で見る)
モード3のコルーチンで実行される処理の内容を図10(b)に示すフローチャートに基づいて説明する。
モード3のコルーチンで実行される処理の内容を図10(b)に示すフローチャートに基づいて説明する。
まずステップ401では、乱数を用いてfloat型変数numに0〜1の範囲の実数を代入する。
続くステップ402では、変数numの値が閾値αに達しているか否かが判断される。ここで、閾値αは、ユーザを見る頻度を設定するためのパラメータであり、0以上1以下の値を取り得る。判断の結果、変数numの値が閾値αに達していない場合は(ステップ402、No)、処理はステップ403に進み、変数Targetにユーザの頭部座標を代入する。
続くステップ404では、3Dオブジェクト生成部101は、赤ちゃんオブジェクトの顔の方向をTargetの座標に向ける。この場合、変数Targetにはユーザの頭部座標が代入されているので、3Dオブジェクト生成部101は、顔の方向をユーザの頭部に向けた赤ちゃんオブジェクトを生成する。
その後、処理は、ステップ405に進んで、コルーチンを停止した後、メインルーチンに戻る。
一方、変数numの値が閾値αに達していた場合は(ステップ402、Yes)、処理はステップ406に進む。ステップ406では、乱数を用いてint型変数aに0〜3までの値を代入し、続くステップ407で、変数Targetに座標[a]を代入する。
続くステップ404では、3Dオブジェクト生成部101は、赤ちゃんオブジェクトの顔の方向をTargetの座標に向ける。この場合、変数Targetにはランダムに決定された座標[a]が代入されているので、3Dオブジェクト生成部101は、顔の方向を座標[a]に向けた赤ちゃんオブジェクトを生成する。
その後、処理は、ステップ405に進んで、コルーチンを停止した後、メインルーチンに戻る。
上述したモード3では、パラメータαの大きさを所定の規則に従って動的に変化させることによって、赤ちゃんオブジェクトの振る舞いにリアリティを持たせることができる。例えば、時間の経過に伴ってαが少しずつ大きくしていけば、赤ちゃんオブジェクトは、時間の経過に伴って少しずつユーザに関心を寄せていくように振る舞う。
(モード4:ユーザを常に見る)
モード4のコルーチンで実行される処理の内容を図11(a)に示すフローチャートに基づいて説明する。
モード4のコルーチンで実行される処理の内容を図11(a)に示すフローチャートに基づいて説明する。
まずステップ501では、変数Targetにユーザの頭部座標を代入する。
続くステップ502では、3Dオブジェクト生成部101は、赤ちゃんオブジェクトの顔の方向をTargetの座標に向ける。この場合、変数Targetにはユーザの頭部座標が代入されているので、3Dオブジェクト生成部101は、顔の方向をユーザの頭部に向けた赤ちゃんオブジェクトを生成する。
その後、処理は、ステップ503に進んで、コルーチンを停止した後、メインルーチンに戻る。
(モード5:ランダムな方向を見る)
モード5のコルーチンで実行される処理の内容を図11(b)に示すフローチャートに基づいて説明する。
モード5のコルーチンで実行される処理の内容を図11(b)に示すフローチャートに基づいて説明する。
まずステップ601では、乱数を用いてint型変数aに0〜3までの値を代入し、続くステップ602で、変数Targetに座標[a]を代入する。
続くステップ603では、3Dオブジェクト生成部101は、赤ちゃんオブジェクトの顔の方向をTargetの座標に向ける。この場合、変数Targetにはランダムに決定された座標[a]が代入されているので、3Dオブジェクト生成部101は、顔の方向を座標[a]に向けた赤ちゃんオブジェクトを生成する。
その後、処理は、ステップ604に進んで、コルーチンを停止した後、メインルーチンに戻る。
本実施形態では、上述した5つのモードを所定の規則に従って切り替えることにより、赤ちゃんオブジェクトの振る舞いをより自然に見せることができる。
<ユーザ情報の関連付けと共有>
「育児疑似体験ブース」でのVR体験を終えたユーザは、自身のユーザ端末300を操作して、体験前に受信したユーザ情報入力画面を開き、そこに張られたリンクから、図6(b)に示す「事後アンケート」入力画面を開く。
「育児疑似体験ブース」でのVR体験を終えたユーザは、自身のユーザ端末300を操作して、体験前に受信したユーザ情報入力画面を開き、そこに張られたリンクから、図6(b)に示す「事後アンケート」入力画面を開く。
図6(b)に示すように、「事後アンケート」入力画面は、「育児疑似体験ブース」でのVR体験を終えたユーザに対するアンケートとして、「結婚したいと思いますか?」、「赤ちゃんを欲しいと思いますか?」といった質問への回答を受け付けるように構成されている。ここで、ユーザが「事後アンケート」入力画面に回答を入力して、送信ボタンを選択すると、ユーザ端末300のWebブラウザ302は、入力された内容をWebサーバ200に送信し、Webサーバ200のユーザ情報保存部202がこれをユーザ情報としてデータベース204に保存する。この間、ユーザのセッションが維持されているため、データベース204において、「事後アンケート」の結果と「事前アンケート」の結果はユーザIDを介して関連付けられたユーザ情報となり、後に、「育児疑似体験ブース」の主催者の利用に供される。
なお、本実施形態のVRシステム1000を、複数のVR体験ブースを出展するVR体験イベントに適用する場合には、ユーザ端末300が衛生マスク50のQRコードを最初に読み取ったときに、Webサーバ200が、複数のVR体験ブースに関連するユーザ情報入力画面のリンクを張ったランディングページをユーザ端末300に送信するようにしてもよい。その場合、ユーザは、ランディングページに張られたリンクから、それぞれのVR体験ブースが提供するユーザ情報入力画面にアクセスして、そのブースに関連するユーザ情報(事前・事後アンケートの回答、過去のVR体験、過去の実経験の有無、各ゲーム内で共通の名前やアバターのデザイン、課金状況、ゲームスコア、ポイント、など)をWebサーバ200のデータベース204に保存することができる。その場合、各VR体験ブースに設置されるPC100からデータベース204に保存される全てのユーザ情報を参照できるようにすれば、各VR体験ブースの主催者は、他のVR体験ブースに関連するユーザ情報を利用することができるようになる。
以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、種々の設計変更が可能である。
第1に、上述した実施形態では、ユーザIDを暗号化してなる暗号化文字列を含むURIをエンコードした2次元コードを、ユーザへ配布する衛生マスク50に付する態様を説明したが、別の実施形態では、ユーザIDを暗号化してなる暗号化文字列を含むURIをエンコードしたコード(ユーザ端末300がデコード可能なコード)を、任意の配布物に対して、任意の態様で付与するようにしてもよい。具体的には、当該コードを記憶したICタグ(RFIDタグ、NFCタグなど)をユーザへの配布物に任意の方法で付することで当該コードを付与するようにしてもよいし、当該コードをリングストラップや腕輪といった任意の配布物に付与するようにしてもよい。
第2に、上述した実施形態では、現実空間内に存在する顔を持つモックアップに対応する3Dオブジェクトの視線の方向を動的に変化させる態様を説明したが、別の実施形態では、上述したのと同様の手順で、モックアップとの対応関係を持たない顔を持つ3Dオブジェクトの視線の方向を動的に変化させるようにしてもよい。
第3に、上述した実施形態では、予想画像生成部105が、標準的な赤ちゃんの顔画像とユーザの顔画像のモーフィング画像をユーザの赤ちゃんの予想画像として生成する態様を説明したが、別の実施形態では、予想画像生成部105に、任意の顔画像(異性の顔、動物の顔、キャラクターの顔など)とユーザの顔画像のモーフィング画像を予想画像として生成させるようにしてもよい。
第4に、上述した実施形態では、ユーザの予想画像を生成する役割(予想画像生成部105)をPC100側に持たせる態様を説明したが、別の実施形態では、その役割をWebサーバ200側に持たせてもよい。その場合、ユーザは、ユーザ端末300の搭載カメラで撮影した自身の顔写真をWebサーバ200に送信し、これを受けたWebサーバ200が、図7に示したのと同様のUI画面をユーザ情報入力画面としてユーザ端末300に送信する。このUI画面を介してユーザが設定したモーフィングのパラメータは、ユーザ情報としてデータベース204に保存され、必要に応じて利用に供される。具体的には、Webサーバ200は、ユーザやオペレータからの要求に応答して、外部端末にユーザ情報を送信する他、PC100などに搭載される外部のアプリケーション(API等)からの要求に応答して、当該アプリケーションにユーザ情報を送信する。なお、ユーザ情報の第三者への提供については、ユーザがオプトアウトによってこれを制限できるようにし、情報提供に係る認証方法や設定方法をWebサーバ200が管理する。
第5に、本発明の上述した構成は、現実世界にバーチャルな3Dオブジェクトを重畳する拡張現実(Augmented Reality)や複合現実(Mixed Reality)の枠組みに適用することができることはいうまでもない。ここで、本発明を拡張現実(AR)または複合現実(MR)に適用した場合の機能構成については、上述した説明における「バーチャルリアリティ(VR)」の文言を「拡張現実」または「複合現実」に読み替えて理解されたい。なお、本発明をARまたはMRに適用する場合、ユーザに装着させるヘッドマウントディスプレイは、ユーザが現実世界を視認できるように、透過型ディスプレイ方式(ビデオ透過、光学透過)や投影方式(網膜投影、虚像投影)を採用するものとする。
その他、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
なお、上述した実施形態の各機能は、C、C++、C#、Java(登録商標)、JavaScript(登録商標)、MySQL、PHP、Pythonといった任意のプログラミング言語で記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。
10…3次元位置姿勢取得手段、12…HMD、14…ヘッドフォン、16…振動子、18…デジタルカメラ、30…モックアップ(赤ちゃん)、32…ベビーベッド、34…モックアップ(哺乳瓶)、36…チェスト、40…ネットワーク、50…HMD用衛生マスク、52…QRコード、60…予想画像生成画面、62,63,64…フィールド、65…形状スライダー、67…色相スライダー、101…3Dオブジェクト生成部、102…VR画像生成部、103…視線ベクトル取得部、104…視線ベクトル衝突判定部、105…予想画像生成部、106…画像出力部、107…音声出力部、108…振動子制御部、109…記憶領域、200…Webサーバ、202…ユーザ情報保存部、204…データベース、300…ユーザ端末、302…Webブラウザ、304…2次元コードデコード手段、500…部屋、1000…バーチャルリアリティシステム
Claims (17)
- 顔を持つモックアップを使用するバーチャルリアリティシステムであって、
バーチャルリアリティ画像の構成要素として、現実空間に存在する実体物に対して3次元的に位置合わせされた3Dオブジェクトを生成する3Dオブジェクト生成手段と、
前記バーチャルリアリティ画像を見るユーザの視線ベクトルを取得する視線ベクトル取得手段と、
前記ユーザの視線ベクトルと前記3Dオブジェクトの衝突判定を行う視線ベクトル衝突判定手段とを含み、
前記3Dオブジェクト生成手段は、
前記衝突判定の結果に応じて前記モックアップに3次元的に位置合わせされた3Dオブジェクトの視線の方向を動的に変化させる、
バーチャルリアリティシステム。 - 前記3Dオブジェクト生成手段は、
前記ユーザの視線ベクトルが前記モックアップに対応する3Dオブジェクトに衝突している場合に、該3Dオブジェクトの視線の方向を該ユーザの頭部に向ける、
請求項1に記載のバーチャルリアリティシステム。 - 前記3Dオブジェクト生成手段は、
前記ユーザの視線ベクトルが前記モックアップ以外の他の実体物に対応する3Dオブジェクトに衝突している場合に、該モックアップに対応する3Dオブジェクトの視線の方向を該他の実体物に対応する3Dオブジェクトに向ける、
請求項1に記載のバーチャルリアリティシステム。 - 前記バーチャルリアリティシステムは、
任意の顔画像とユーザの顔画像のモーフィング画像を予想画像として生成する予想画像生成手段を含み、
前記3Dオブジェクト生成手段は、
前記予想画像に基づいて前記モックアップに対応する3Dオブジェクトの顔のテクスチャを生成する、
請求項1〜3のいずれか一項に記載のバーチャルリアリティシステム。 - 前記予想画像生成手段は、
形状モーフィングにおける混合比率に係る第1の設定値と、色相モーフィングにおける混合比率に係る第2の設定値を個別に受け付け、該第1の設定値に基づいて形状モーフィングを実行し、該第2の設定値に基づいて色相モーフィングを実行する、
請求項4に記載のバーチャルリアリティシステム。 - 前記バーチャルリアリティシステムは、
前記実体物に対応する3Dオブジェクトに関連付けられた音声信号を出力する音声出力手段と、
前記実体物に内蔵される振動子の振動を制御するための駆動信号を出力する振動子制御手段と
を含み、
前記振動子制御手段は、
前記音声信号に同期した前記駆動信号を出力する、
請求項1〜5のいずれか一項に記載のバーチャルリアリティシステム。 - 前記バーチャルリアリティシステムは、
ユーザ情報を保存するためのWebサーバを含み、
前記Webサーバは、
ユーザへの配付物に付与されたコードであって、暗号化文字列を含む該WebサーバのURIをエンコードしたコードをデコードした端末から該暗号化文字列を受信したことに応答して、ユーザ情報の入力を受け付けるための入力用Webページを該端末に送信し、該入力用Webページを介して入力されたユーザ情報を、該暗号化文字列を復号して得られるユーザIDに紐付けて保存する、
請求項1〜6のいずれか一項に記載のバーチャルリアリティシステム。 - 前記Webサーバは、
外部のアプリケーションからの要求に応答して前記ユーザ情報を送信する、
請求項7に記載のバーチャルリアリティシステム。 - コンピュータを、
バーチャルリアリティ画像の構成要素として、現実空間に存在する実体物に対して3次元的に位置合わせされた3Dオブジェクトを生成する3Dオブジェクト生成手段、
前記バーチャルリアリティ画像を見るユーザの視線ベクトルを取得する視線ベクトル取得手段、
前記ユーザの視線ベクトルと前記3Dオブジェクトの衝突判定を行う視線ベクトル衝突判定手段、
として機能させるためのプログラムであって、
前記3Dオブジェクト生成手段は、
顔を持つモックアップに3次元的に位置合わせされた3Dオブジェクトの視線の方向を前記衝突判定の結果に応じて動的に変化させる、
プログラム。 - バーチャルリアリティ画像の構成要素として、顔を持つ3Dオブジェクトを生成する3Dオブジェクト生成手段と、
前記バーチャルリアリティ画像を見るユーザの視線ベクトルを取得する視線ベクトル取得手段と、
前記ユーザの視線ベクトルと前記3Dオブジェクトの衝突判定を行う視線ベクトル衝突判定手段と
を含み、
前記3Dオブジェクト生成手段は、
前記衝突判定の結果に応じて前記顔を持つ3Dオブジェクトの視線の方向を動的に変化させる、
バーチャルリアリティシステム。 - 顔を持つモックアップを使用するバーチャルリアリティシステムであって、
バーチャルリアリティ画像の構成要素として、現実空間に存在する実体物に対して3次元的に位置合わせされた3Dオブジェクトを生成する3Dオブジェクト生成手段と、
前記バーチャルリアリティ画像を見るユーザの頭部の座標を取得する手段と
を含み、
前記3Dオブジェクト生成手段は、
前記モックアップに3次元的に位置合わせされた3Dオブジェクトの視線の方向を設定された頻度で前記ユーザの頭部に向ける、
バーチャルリアリティシステム。 - バーチャルリアリティ画像の構成要素として、顔を持つ3Dオブジェクトを生成する3Dオブジェクト生成手段と、
前記バーチャルリアリティ画像を見るユーザの頭部の座標を取得する手段と
を含み、
前記3Dオブジェクト生成手段は、
前記顔を持つ3Dオブジェクトの視線の方向を設定された頻度で前記ユーザの頭部に向ける、
バーチャルリアリティシステム。 - バーチャルリアリティ体験イベントに参加したユーザのユーザ情報を保存するためのWebサーバであって、
ユーザへの配付物に付与されたコードであって、暗号化文字列を含む該WebサーバのURIをエンコードしたコードをデコードした端末から、該暗号化文字列を受信したことに応答して、ユーザ情報の入力を受け付けるための入力用Webページを該端末に送信し、該入力用Webページを介して入力されたユーザ情報を、該暗号化文字列を復号して得られるユーザIDに紐付けて保存することを特徴とする、
Webサーバ。 - 拡張現実画像の構成要素として、顔を持つ3Dオブジェクトを生成する3Dオブジェクト生成手段と、
前記拡張現実画像を見るユーザの視線ベクトルを取得する視線ベクトル取得手段と、
前記ユーザの視線ベクトルと前記3Dオブジェクトの衝突判定を行う視線ベクトル衝突判定手段と
を含み、
前記3Dオブジェクト生成手段は、
前記衝突判定の結果に応じて前記顔を持つ3Dオブジェクトの視線の方向を動的に変化させる、
拡張現実システム。 - 拡張現実画像の構成要素として、顔を持つ3Dオブジェクトを生成する3Dオブジェクト生成手段と、
前記拡張現実画像を見るユーザの頭部の座標を取得する手段と
を含み、
前記3Dオブジェクト生成手段は、
前記顔を持つ3Dオブジェクトの視線の方向を設定された頻度で前記ユーザの頭部に向ける、
拡張現実システム。 - 複合現実画像の構成要素として、顔を持つ3Dオブジェクトを生成する3Dオブジェクト生成手段と、
前記複合現実画像を見るユーザの視線ベクトルを取得する視線ベクトル取得手段と、
前記ユーザの視線ベクトルと前記3Dオブジェクトの衝突判定を行う視線ベクトル衝突判定手段と
を含み、
前記3Dオブジェクト生成手段は、
前記衝突判定の結果に応じて前記顔を持つ3Dオブジェクトの視線の方向を動的に変化させる、
複合現実システム。 - 複合現実画像の構成要素として、顔を持つ3Dオブジェクトを生成する3Dオブジェクト生成手段と、
前記複合現実画像を見るユーザの頭部の座標を取得する手段と
を含み、
前記3Dオブジェクト生成手段は、
前記顔を持つ3Dオブジェクトの視線の方向を設定された頻度で前記ユーザの頭部に向ける、
複合現実システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017122921A JP2019008513A (ja) | 2017-06-23 | 2017-06-23 | バーチャルリアリティシステムおよびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017122921A JP2019008513A (ja) | 2017-06-23 | 2017-06-23 | バーチャルリアリティシステムおよびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019008513A true JP2019008513A (ja) | 2019-01-17 |
Family
ID=65026839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017122921A Pending JP2019008513A (ja) | 2017-06-23 | 2017-06-23 | バーチャルリアリティシステムおよびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019008513A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020116057A (ja) * | 2019-01-22 | 2020-08-06 | 株式会社バンダイ | 情報処理システム |
WO2020161853A1 (ja) * | 2019-02-07 | 2020-08-13 | ヤマハ発動機株式会社 | 映像刺激提示制御装置 |
JP2021047557A (ja) * | 2019-09-18 | 2021-03-25 | 株式会社ソリトンシステムズ | ユーザ認証装置及びプログラム |
WO2022064685A1 (ja) * | 2020-09-28 | 2022-03-31 | 日本電気株式会社 | 認証装置、制御方法、及びコンピュータ可読媒体 |
-
2017
- 2017-06-23 JP JP2017122921A patent/JP2019008513A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020116057A (ja) * | 2019-01-22 | 2020-08-06 | 株式会社バンダイ | 情報処理システム |
WO2020161853A1 (ja) * | 2019-02-07 | 2020-08-13 | ヤマハ発動機株式会社 | 映像刺激提示制御装置 |
JP2021047557A (ja) * | 2019-09-18 | 2021-03-25 | 株式会社ソリトンシステムズ | ユーザ認証装置及びプログラム |
US11182466B2 (en) | 2019-09-18 | 2021-11-23 | Soliton Systems K.K. | User authentication apparatus and recording media |
WO2022064685A1 (ja) * | 2020-09-28 | 2022-03-31 | 日本電気株式会社 | 認証装置、制御方法、及びコンピュータ可読媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11909878B2 (en) | Systems and methods for authenticating a user on an augmented, mixed and/or virtual reality platform to deploy experiences | |
US20240104959A1 (en) | Menu hierarchy navigation on electronic mirroring devices | |
WO2020203999A1 (ja) | コミュニケーション支援システム、コミュニケーション支援方法、および画像制御プログラム | |
CN110300909B (zh) | 用于显示交互式增强现实展示的系统、方法和介质 | |
JP2022140779A (ja) | 広範囲同時遠隔ディジタル提示世界 | |
US20180324229A1 (en) | Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device | |
US20220301231A1 (en) | Mirroring device with whole-body outfits | |
US20220383577A1 (en) | Personalized avatar real-time motion capture | |
CN109479010A (zh) | 通过注视化身的私有通信 | |
JP2013156986A (ja) | 有無線ウェブを介したアバターサービスシステム及びその方法 | |
JP2019008513A (ja) | バーチャルリアリティシステムおよびプログラム | |
JP2013156985A (ja) | モバイル環境で提供されるサービスにおいてアバターを提供するアバターサービスシステム及びその方法 | |
Venugopal et al. | The realm of metaverse: A survey | |
US20160320833A1 (en) | Location-based system for sharing augmented reality content | |
US11831814B2 (en) | Parallel video call and artificial reality spaces | |
US20230130535A1 (en) | User Representations in Artificial Reality | |
JP6737942B1 (ja) | コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム | |
CN114222942A (zh) | 用于虚拟和增强现实的系统和方法 | |
Nijholt | Capturing obstructed nonverbal cues in augmented reality interactions: a short survey | |
JP2021027420A (ja) | キャラクタを使ったライブ通信システム | |
US20230353616A1 (en) | Communication Sessions Between Devices Using Customizable Interaction Environments And Physical Location Determination | |
JP2023095862A (ja) | プログラム及び情報処理方法 | |
US20230086248A1 (en) | Visual navigation elements for artificial reality environments | |
KR20140136288A (ko) | 사용자 참여형 테마파크 영상 제작 서비스 제공 시스템 및 방법 | |
JP7379427B2 (ja) | 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20170720 |