JP6807455B2 - 情報処理装置および画像生成方法 - Google Patents

情報処理装置および画像生成方法 Download PDF

Info

Publication number
JP6807455B2
JP6807455B2 JP2019523295A JP2019523295A JP6807455B2 JP 6807455 B2 JP6807455 B2 JP 6807455B2 JP 2019523295 A JP2019523295 A JP 2019523295A JP 2019523295 A JP2019523295 A JP 2019523295A JP 6807455 B2 JP6807455 B2 JP 6807455B2
Authority
JP
Japan
Prior art keywords
user
users
data
history data
behavior history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019523295A
Other languages
English (en)
Other versions
JPWO2018225218A1 (ja
Inventor
尚亨 椚田
尚亨 椚田
林 正和
正和 林
康太郎 田島
康太郎 田島
ロバート クリストファー スターキー
ロバート クリストファー スターキー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2018225218A1 publication Critical patent/JPWO2018225218A1/ja
Application granted granted Critical
Publication of JP6807455B2 publication Critical patent/JP6807455B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Description

本発明は、ヘッドマウントディスプレイを装着したユーザの挙動履歴データを処理する技術に関する。
特許文献1は、自分と他のユーザとが3次元仮想現実空間を共有するシステムを開示する。このシステムにおいて自分のクライアント端末は、仮想現実空間を構成する基本オブジェクトに関するデータを情報サーバ端末から提供され、また他人のアバタに関するデータを共有サーバ端末から提供されることで、自分のアバタの視点から見える仮想現実空間を表示装置に表示する。
米国特許第6057856号明細書
複数のユーザが仮想現実空間に参加可能なシステムを構築することで、サービス提供主体は、複数のユーザに様々な体験を提供できる。たとえば仮想コンテンツ空間として複数のユーザが参加するクラスルームを構築すれば、ユーザは自宅にいながらにして他のユーザと一緒に授業を受けられるようになる。また仮想コンテンツ空間として海外の名所や町並みを構築すると、複数のユーザが一緒に海外旅行を楽しむことができる。仮想コンテンツ空間で、各ユーザはそれぞれのキャラクタを自由に動かせる。
サービス提供主体は、ユーザに楽しんでもらうために、仮想コンテンツ空間に様々な仕掛けを施す。たとえば注目するべき対象物を登場させたり、演出効果を高める効果音を発生したり、ユーザが持っている入力装置を物理的に振動させたりするなど、仕掛けの種類は様々である。このような仕掛けを施したサービス提供主体は、仕掛けが有効に作用したか、つまり設定した演出等によってユーザの関心を引くことができたかを確認したい。このような情報は、提供するサービスの改善に役立ち、コンテンツの魅力を高めることにつながる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ユーザの挙動履歴データを処理する技術を提供することにある。
上記課題を解決するために、本発明のある態様の情報処理装置は、ヘッドマウントディスプレイを頭部に装着した複数のユーザであって、同じ3次元コンテンツ空間を体験した複数のユーザの挙動履歴データを取得する挙動履歴データ取得部と、複数のユーザの挙動履歴データから、3次元コンテンツ空間における複数のユーザの視線方向を取得する視線方向取得部と、取得された複数のユーザの視線方向にもとづいて、3次元仮想空間における複数のユーザの視線に関する画像を生成する画面生成部と、を備える。
本発明の別の態様は、画像生成方法である。この方法は、ヘッドマウントディスプレイを頭部に装着した複数のユーザであって、同じ3次元コンテンツ空間を体験した複数のユーザの挙動履歴データを取得するステップと、複数のユーザの挙動履歴データから、3次元コンテンツ空間における複数のユーザの視線方向を取得するステップと、取得された複数のユーザの視線方向にもとづいて、3次元仮想空間における複数のユーザの視線に関する画像を生成するステップとを備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ユーザの挙動履歴データを処理する技術を提供できる。
実施例における情報処理システムを示す図である。 仮想空間の画像の一例を示す図である。 実施例におけるユーザシステムの構成例を示す図である。 HMDの外観形状の例を示す図である。 HMDの機能ブロックを示す図である。 ユーザ装置の機能ブロックを示す図である。 仮想空間の画像の一例を示す図である。 情報処理装置の構成を示す図である。 行動解析画面の一例を示す図である。 行動解析画面の別の例を示す図である。
図1は、実施例における情報処理システム1を示す。情報処理システム1は、複数のユーザが3次元仮想空間を共有するサービスを提供する。情報処理システム1は複数のユーザシステム3a、3b・・・3m、3n(以下、総称する場合には「ユーザシステム3」と呼ぶ)と、サーバシステム4と、情報処理装置300とを備える。サーバシステム4はサービスの提供主体により運営・管理され、各ユーザシステム3は、それぞれのユーザにより使用される。情報処理装置300は、サービスの提供主体より委託を受けて、サービスにおけるユーザの挙動履歴データをもとに、解析など様々な処理を実施する。
サーバシステム4および複数のユーザシステム3はインターネットなどのネットワーク2に接続し、サーバシステム4と各ユーザシステム3とは、互いにデータを送受信できる。なお複数のユーザシステム3が、互いにデータを送受信できてもよい。
サーバシステム4は管理サーバ5および記憶装置6を備える。記憶装置6は、3次元仮想空間を生成するための3次元画像データを保持するコンテンツDB7と、3次元仮想空間におけるユーザの挙動情報を蓄積するためのユーザ挙動DB8と、3次元仮想空間において発生したイベント情報を蓄積するためのイベントDB9とを有する。以下、コンテンツDB7が保持する3次元画像データを「コンテンツデータ」と呼ぶ。実施例でサーバシステム4は、都市や観光地の3次元仮想空間をユーザシステム3に提供し、オペレータがツアーガイドとなり、複数のユーザが旅行参加者となることで、複数のユーザがガイド付きで旅行を楽しむサービスを提供する。
情報処理装置300は、サーバシステム4から、ユーザ挙動DB8に蓄積されたユーザ挙動履歴データ、およびイベントDB9に蓄積されたイベント情報を取得する。情報処理装置300はサーバシステム4と接続して、ユーザ挙動DB8およびイベントDB9の蓄積データをオンラインで取得してよいが、サーバシステム4と接続していなければ、ユーザ挙動DB8およびイベントDB9の蓄積データをオフラインで取得する。
サーバシステム4は、3次元コンテンツ空間を複数のユーザで共有するサービスを提供する。コンテンツDB7に記憶されるコンテンツデータは、基本的に位置情報や姿勢情報などが更新されない静的なオブジェクトデータにより構成される。たとえば観光地の仮想空間を表現するコンテンツデータは、相対的な位置関係を定義された建物オブジェクト、道路オブジェクト、街灯オブジェクト、看板オブジェクトなどを含んで構成される。なお仮想空間内でユーザが動かすことのできるオブジェクトが存在してもよい。
ユーザシステム3は、サービスの提供を受ける前に、コンテンツデータを再生するためのビューワアプリケーションをインストールする。ユーザシステム3がネットワーク2を介してサーバシステム4からコンテンツデータをダウンロードすると、ビューワアプリケーションは、コンテンツデータをもとに仮想空間を構築し、仮想空間内でユーザによる操作情報をもとにキャラクタを動かし、ユーザキャラクタの位置および姿勢(視線方向)に応じて仮想空間をレンダリングする。これによりユーザはユーザキャラクタを通じて、仮想空間内を自由に移動し、自由視点からの画像を見ることができる。
図2は、あるユーザキャラクタの視点から見た仮想空間の画像の一例を示す。ビューワアプリケーションは、ユーザキャラクタの位置および視線方向に応じて、ユーザキャラクタの視点からの画像を生成する。
それぞれのユーザシステム3がコンテンツデータをダウンロードすることで、複数のユーザによる仮想空間の共有が実現される。以下、10人のユーザA、B、C、D、E、F、G、H、I、Jが仮想空間を共有する例について説明する。管理サーバ5は、複数ユーザによる仮想空間の共有処理を担当する。各ユーザは、仮想空間内でそれぞれのユーザキャラクタを操作するが、その操作情報は、当該ユーザのユーザシステム3においてビューワアプリケーションによる処理に使用されるとともに、管理サーバ5に送信され、管理サーバ5は、他のユーザのユーザシステム3に転送する。つまりユーザAが自身のキャラクタを操作した操作情報は、他の9人のユーザB〜Jのユーザシステム3にも提供されて、それぞれのユーザシステム3のビューワアプリケーションによる処理に使用される。このように各ユーザによるキャラクタの操作情報が全てのユーザに共有されることで、各ユーザシステム3において全ユーザA〜Jのユーザキャラクタは、通信遅延の影響を除けば基本的に同じ挙動を示すようになる。
図3は、実施例におけるユーザシステム3の構成例を示す。ユーザシステム3は、ユーザ装置10と、ヘッドマウントディスプレイ装置(HMD)100と、ユーザが手指で操作する入力装置16と、ユーザを撮影する撮像装置14と、画像を表示する出力装置15とを備える。ユーザ装置10は、アクセスポイント(AP)17を介してネットワーク2に接続される。AP17は無線アクセスポイントおよびルータの機能を有し、ユーザ装置10はAP17とケーブルで接続してもよく、既知の無線通信プロトコルで接続してもよい。
HMD100はユーザの頭部に装着されて仮想現実(VR)の世界をユーザに提供する。HMD100にヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動して表示画面を更新することで、映像世界への没入感を高められる。なお実施例では、レンダリングした画像をHMD100の表示パネルに表示するが、レンダリングした画像は出力装置15に表示されてもよい。
ユーザ装置10は、処理装置11、出力制御装置12および記憶装置13を備える。処理装置11は、ユーザにより入力装置16に入力された操作情報を受け付けて、ビューワアプリケーションを実行する端末装置である。処理装置11と入力装置16とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。なお実施例の処理装置11は、HMD100の姿勢情報をビューワアプリケーションに対するユーザの操作情報として受け付けて、ビューワアプリケーションを実行する機能ももつ。出力制御装置12は、処理装置11で生成された画像データをHMD100に出力する処理ユニットである。出力制御装置12とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。
撮像装置14はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を処理装置11に供給する。後述するがHMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、処理装置11は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、処理装置11はHMD100の動きを検出できるのであれば、どのようなトラッキング手法を採用してもよい。
実施例のユーザシステム3では、HMD100にユーザキャラクタの視点から見た画像を提供するビューワアプリケーションを実行する。実施例ではユーザがHMD100で画像を見るため、ユーザシステム3において出力装置15は必ずしも必要ではないが、変形例ではユーザがHMD100を装着せず、出力制御装置12または処理装置11が、画像を出力装置15から出力させてもよい。
HMD100は、ユーザが頭に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、ユーザ装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。この光学歪みの補正処理は、処理装置11、出力制御装置12のいずれが行ってもよい。
処理装置11、記憶装置13、出力装置15、入力装置16および撮像装置14は、従来型のゲームシステムを構築してよい。この場合、処理装置11はゲームを実行するゲーム装置であり、入力装置16はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置11にユーザによる操作情報を供給する機器である。このゲームシステムの構成要素に、出力制御装置12およびHMD100を追加することで、VRのビューワアプリケーションを実施するユーザシステム3が構築される。
なお出力制御装置12による機能は、ビューワアプリケーションの一部の機能として処理装置11に組み込まれてもよい。つまりユーザ装置10の処理ユニットは、1台の処理装置11から構成されても、また処理装置11および出力制御装置12から構成されてもよい。以下においては、ビューワアプリケーションの実施に必要な処理装置11および出力制御装置12の機能を、まとめてユーザ装置10の機能として説明する。
ビューワアプリケーションを実施する前段階として、処理装置11は、サーバシステム4の記憶装置6に記憶されているコンテンツデータを記憶装置13にダウンロードする。またユーザは、ビューワアプリケーションを開始する際に自身のキャラクタを設定する。設定したユーザキャラクタデータは、記憶装置13に記憶されるとともに、サーバシステム4に送信されて、サーバシステム4から他のユーザのユーザシステム3に送信される。
ビューワアプリケーションは、入力装置16から入力された操作情報にもとづいて仮想空間内でユーザキャラクタを動かし、ユーザの頭部に装着されたHMD100の姿勢情報にもとづいてユーザキャラクタの視線方向を定める。実施例ではビューワアプリケーションが、HMD100の姿勢情報を、ユーザキャラクタの視線方向を操作するための操作情報として利用するが、入力装置16における入力情報を、視線方向を操作するための操作情報として利用してもよい。またユーザキャラクタを移動させるための操作情報は、入力装置16の入力情報を用いずに、HMD100の位置情報を利用してもよい。実施例において、ユーザキャラクタの操作情報は、入力装置16およびHMD100のいずれから取得されてもよく、また他のユーザインタフェースから取得されてもよい。
ユーザ装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標とは、基準位置を原点とした3次元空間における位置座標(x、y、z)であり、基準位置はHMD100の電源がオンされたときの位置座標(x0、y0、z0)であってよい。またHMD100の姿勢とは、3次元空間における基準姿勢に対する3軸方向の傾き(ヨー、ロール、ピッチ)である。なお基準姿勢は、ユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたときに基準姿勢が設定されてよい。
ユーザ装置10は、HMD100の姿勢センサが検出したセンサデータのみから、HMD100の位置座標(x、y、z)および姿勢(ヨー、ロール、ピッチ)を検出でき、さらに撮像装置14で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。上記したようにユーザ装置10は、HMD100の位置情報をもとにユーザキャラクタの仮想空間内の位置を算出し、HMD100の姿勢情報をもとにユーザキャラクタの視線方向を算出してもよいが、実施例では仮想空間内におけるユーザキャラクタの位置は、入力装置16の操作情報をもとに算出する。
図4は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置14により撮影されて、ユーザ装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
HMD100は、ユーザ装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサデータをユーザ装置10に送信し、またユーザ装置10で生成された画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。
図5は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部のユーザ装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、ユーザ装置10からデータを受信し、制御部120に出力する。
制御部120は、画像データや音声データをユーザ装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データを、通信制御部128からユーザ装置10に送信させる。
図6は、ユーザ装置10の機能ブロックを示す。ユーザ装置10は、外部との入出力インタフェースとして、センサデータ受信部20、撮影画像受信部22、入力データ受信部24、サーバデータ受信部26、音声データ受信部28、操作情報送信部30、画像提供部32、音声提供部34および音声データ送信部36を備える。サーバデータ受信部26は、管理サーバ5から送信されるデータを受信する通信インタフェースである。
ユーザ装置10は、さらに取得部40、処理部50および記憶装置13を備える。取得部40は、入出力インタフェースで受信したデータからビューワアプリケーションで使用する情報を取得する機能をもち、第1操作情報取得部42および第2操作情報取得部44を有する。処理部50は、取得部40で取得した情報から画像データを生成する機能をもち、キャラクタ制御部52および画像生成部54を有する。記憶装置13は、3次元仮想空間を構築するためのコンテンツデータや、ユーザ装置10の利用ユーザのキャラクタデータおよび他のユーザのキャラクタデータなどを記憶する。
図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
以下、「ユーザA」が使用するユーザ装置10の動作について説明する。第1操作情報取得部42は、仮想空間においてユーザAのキャラクタを動かすための操作情報を取得する。一方で、第2操作情報取得部44は、仮想空間においてユーザAとは別のユーザ、つまりユーザB、C、D、E、F、G、H、I、Jのキャラクタを動かすための操作情報を取得する。
なお「ユーザB」が使用するユーザ装置10においては、第1操作情報取得部42が、ユーザBのキャラクタを動かすための操作情報を取得し、第2操作情報取得部44が、ユーザBとは別のユーザのキャラクタを動かすための操作情報を取得する。
以下、ユーザAによる操作情報について説明する。
センサデータ受信部20は、ユーザAが装着したHMD100の姿勢センサ124から所定の周期でセンサデータを受信して、第1操作情報取得部42に供給する。撮影画像受信部22は、撮像装置14から所定の周期でHMD100を撮影した画像を受信して、第1操作情報取得部42に供給する。たとえば撮像装置14は(1/60)秒ごとに前方の空間を撮影し、撮影画像受信部22は、(1/60)秒ごとに撮影画像を受信する。入力データ受信部24は入力装置16から、ユーザAが入力したキーデータを受信して、第1操作情報取得部42に供給する。
第1操作情報取得部42は、ユーザの頭部に装着されたHMD100の動きにもとづいてHMD100の姿勢の変化を検出し、仮想空間におけるユーザAのキャラクタの視線方向の変化を示す操作情報を取得する。具体的に第1操作情報取得部42は、姿勢センサ124のセンサデータからHMD100の姿勢の変化を検出する。第1操作情報取得部42は3軸ジャイロセンサのセンサデータから、HMD100の姿勢変化を特定してよい。なお第1操作情報取得部42は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、姿勢変化の検出精度を高めることが好ましい。第1操作情報取得部42は、検出したHMD100の姿勢の変化から、ユーザAの視線方向の変化を示す操作情報を取得する。
また第1操作情報取得部42は、入力データ受信部24で受信した入力装置16のキーデータにもとづいて、仮想空間におけるユーザAのキャラクタの移動量および移動方向を示す操作情報を取得する。入力装置16の操作により仮想空間内のキャラクタを動作させる処理は、既知の技術を利用してよい。実施例ではユーザAがHMD100を装着するため、キャラクタの視線方向を、HMD100を装着したユーザAの視線方向に合わせているが、変形例ではユーザAがHMD100を装着しない実施態様も想定され、この場合はユーザAが、入力装置16から、キャラクタの位置および視線方向を制御するためのキーデータを入力してもよい。
このようにして第1操作情報取得部42は、仮想空間においてユーザAのキャラクタを動かすための操作情報を取得する。この操作情報は、位置および視線方向の変化量を指定する情報であってよいが、位置および視線方向を直接指定する情報であってもよい。第1操作情報取得部42は、ユーザAのキャラクタを動かすための操作情報をキャラクタ制御部52に供給する。第1操作情報取得部42がどのような操作情報を取得するかは、ビューワアプリケーションに依存し、いずれにしてもキャラクタ制御部52が処理できる操作情報であればよい。第1操作情報取得部42は、所定の周期で操作情報を生成してキャラクタ制御部52に供給してよいが、状態変化が生じたとき、つまりHMD100の姿勢が変化したとき又は入力装置16でキー入力が生じたときに操作情報を生成してキャラクタ制御部52に供給してもよい。
キャラクタ制御部52は、第1操作情報取得部42から供給される操作情報にもとづいて、仮想空間内のユーザAのキャラクタの動作、具体的にはキャラクタの位置および視線方向を制御する。
画像生成部54は、仮想空間におけるユーザキャラクタの位置(3次元仮想空間座標値)にもとづいて、仮想空間の3次元レンダリングを行う。具体的に画像生成部54は、ユーザキャラクタの位置に、ユーザキャラクタの視線方向を光軸とする仮想カメラを配置して、画像データを生成する。画像提供部32は、生成された画像データをHMD100に出力する。
実施例のビューワアプリケーションでは、ユーザAが入力装置16のキー入力によりキャラクタを移動させ、また首を傾けてHMD100の向きを変更することで、キャラクタの視線方向を変えることができる。HMD100の表示パネル130には、キャラクタの位置および視線方向に応じた画像が表示される(図2参照)。
以上はユーザAのキャラクタの動作制御であるが、実施例の情報処理システム1は、3次元仮想空間を複数のユーザで共有するサービスを提供する。そのため第1操作情報取得部42で取得されたユーザAのキャラクタの操作情報は、操作情報送信部30から管理サーバ5に送信され、管理サーバ5から別のユーザB〜Jのユーザ装置10に転送される。
別のユーザB〜Jのユーザ装置10においても、それぞれのユーザのキャラクタを動かすための操作情報が取得され、管理サーバ5に送信される。管理サーバ5は、ユーザAのユーザ装置10に、ユーザB〜Jのユーザ装置10で取得されたキャラクタの操作情報を送信する。サーバデータ受信部26は、管理サーバ5から送信される別のユーザのキャラクタ操作情報を受信する。
管理サーバ5は、仮想コンテンツ空間共有サービスに参加するユーザの情報を管理する。ユーザ情報は、ユーザを識別するためのユーザアカウント、ユーザのキャラクタデータを少なくとも含み、管理サーバ5はサービス開始前に、各参加ユーザのユーザ情報を、すべての参加ユーザのユーザ装置10に送信しておく。サービス開始後、管理サーバ5は、ユーザのキャラクタの操作情報をユーザアカウントに紐付けて各ユーザ装置10に送信し、したがってユーザ装置10は、サーバデータ受信部26で受信した操作情報がどのユーザのキャラクタの動作に反映させる情報であるかを特定できる。
第2操作情報取得部44は、サーバデータ受信部26から、別のユーザB〜Jのキャラクタを動かすための操作情報を取得し、キャラクタ制御部52に供給する。キャラクタ制御部52は、第2操作情報取得部44から供給される操作情報にもとづいて、仮想空間内の別のユーザのキャラクタの動作、具体的にはキャラクタの位置および視線方向を制御する。なおキャラクタの視線方向の制御は、キャラクタの首の向きを制御することで実施される。
上記したように画像生成部54は、ユーザAのキャラクタの位置から、キャラクタの視線方向に見える仮想空間の画像を生成する。そのためユーザAのキャラクタの視野に、別のユーザのキャラクタが含まれていれば、画像生成部54は、ユーザAとは別のユーザのキャラクタを含む画像データを生成する。画像提供部32は、生成された画像データを、表示装置であるHMD100に出力する。音声データ受信部28は、HMD100のマイク126に入力されたユーザAの音声データを受信し、音声データ送信部36が、ユーザAの音声データを管理サーバ5に送信する。
図7は、ユーザAのキャラクタの視点から見た仮想空間の画像の一例を示す。ここでは、ユーザAのキャラクタの視野に、5人のユーザのキャラクタが含まれている様子が示される。それぞれのユーザキャラクタは、左から順に、ユーザB、ユーザD、ユーザF、ユーザG、ユーザHのキャラクタであるとする。なお、それ以外のユーザC、ユーザE、ユーザI、ユーザJのキャラクタについては、ユーザAのキャラクタの後ろにいたり、また建物の中に入っているなどの理由により、ユーザAのキャラクタの視野角内に存在せず、画像データには含まれていない。HMD100において、通信制御部128がユーザ装置10から画像データを受信し、制御部120が仮想空間画像を表示パネル130に表示する。
実施例ではサーバシステム4が観光地の仮想空間を複数のユーザシステム3に提供し、サーバシステム4のオペレータがツアーガイドとなり、また複数のユーザが旅行参加者となることで、複数のユーザがガイド付きで一緒に旅行するサービスを提供する。オペレータは管理サーバ5を操作して、音声ガイドを各ユーザシステム3に配信し、ユーザが移動する方向や注目する対象(オブジェクト)を音声で指定する。各ユーザシステム3において、サーバデータ受信部26が音声案内用の音声データを受信すると、音声提供部34が音声データをHMD100に送信する。HMD100において通信制御部128が音声データを受信し、制御部120が音声案内を音声出力部132からイヤホン(不図示)に出力する。
このような仮想空間において、注目するべきオブジェクトが存在する場合、ツアーガイドであるオペレータは、そのオブジェクトに注目させるように音声案内を行う。それは「通路脇にある看板に注目してください」というものであってよい。この音声案内により「説明イベント」が開始される。図7に示す画面例において、オブジェクト200が注目するべきオブジェクトとして設定されている。続けてオペレータは、オブジェクト200の注目ポイント(たとえば看板の店の歴史など)を説明する。注目ポイントの説明が終了すると、説明イベントは終了となり、次の注目オブジェクトへの移動案内が行われる。なお説明イベントの開始および終了は、オペレータにより任意のタイミングで行われてよい。イベントの開始および終了のタイミングは、イベントDB9に記憶される。
なお実施例では、サーバシステム4のオペレータが、旅行参加者の様子を見ながら音声ガイドを配信するイベントを管理しているが、たとえば音声ガイドは、定められた時刻に配信されるように管理されてもよい。つまりオペレータがイベント管理するのではなく、ツアーは、見学する場所および時間等が予めプログラムされたものであって、そのプログラムにしたがって音声ガイドなどの様々なイベントおよび演出が実施されてよい。この場合、イベントDB9は、ツアー共通の予め定められたイベント内容およびイベントの発生時間を記憶する。
「通路脇にある看板に注目してください」とする音声案内が行われたときに、ユーザは仮想空間における通路脇にある看板(オブジェクト200)を見つけ出そうと、視線を動かす。サービス提供主体側からすれば、すべての参加者を効率よく(短時間で)オブジェクト200に注目させることで、サービス価値の高いツアーを実現できる。そのためサービス提供主体は、どのような案内をすれば、言い換えると、どのような演出をすることで、ツアー参加者がオブジェクト200に注目してくれるのか把握したいという要求がある。
そこで情報処理装置300は、ユーザ挙動DB8に記憶されたユーザの挙動履歴データをもとに、ツアー参加者の挙動を解析する。サービス提供主体は、あるオブジェクト200に参加者の注目を向けさせようする場合に、音声案内のメッセージ内容、話し方や声の大きさ、話し手の性別など、様々なパラメータを調整して、ツアー参加者の関心をオブジェクト200に向けさせる最も効果的な音声案内のタイプを知りたい。情報処理装置300は、このようなサービス提供主体の要求に応じて、ユーザ挙動DB8に記憶されたユーザ挙動履歴データをもとに、様々な解析を実施する機能をもつ。
図8は、情報処理装置300の構成を示す。情報処理装置300は、サーバシステム4からデータを取得するデータ取得部302と、取得したデータを処理する処理部310とを備える。データ取得部302は、ユーザ挙動DB8に蓄積された複数のユーザの挙動履歴データを取得する挙動履歴データ取得部304と、イベントDB9に蓄積されたイベントデータを取得するイベントデータ取得部306とを有する。なおイベントDB9には、3次元仮想コンテンツ空間において実施された演出データも時間情報とともに記録され、イベントデータ取得部306は、イベントDB9に蓄積された演出データも取得する。データ取得部302は、サーバシステム4とオンラインで接続して、管理サーバ5から各種の蓄積データを取得してもよいが、各種の蓄積データを記録した記録媒体から取得してもよい。
処理部310は、3次元コンテンツ空間における複数のユーザの視線方向を導出する視線方向取得部312、演出データを解析する演出データ解析部314、3次元仮想空間における状況を示す画面を生成する画面生成部316、および画面生成部316が生成した画面をディスプレイに表示する表示処理部322を備える。画面生成部316は、3次元仮想空間におけるユーザの視線に関する画像を生成する空間画像生成部318、および演出データなどの解析結果を示すタイムライン画像を生成するタイムライン生成部320とを備える。
挙動履歴データ取得部304は、ユーザ挙動DB8から以下のデータを取得する。
(A1)ユーザプロファイルデータ
ユーザプロファイルデータは、コンテンツ分析および/またはユーザ行動解析に用いる性別や年齢のデータであり、個人を特定するようなデータは必要ない。ユーザプロファイルデータは、管理サーバ5に登録されており、管理サーバ5は、各ユーザの挙動履歴データに、プロファイルデータを含ませてユーザ挙動DB8に記憶させる。
なおユーザのプロファイルデータは、ユーザシステム3において自動生成されて、サーバシステム4に送信されるようにしてもよい。ユーザがユーザ装置10を起動すると、撮像装置14が、HMD100を装着する前のユーザを撮影する。HMD100を未装着時のユーザを撮影した撮影画像は処理装置11に供給され、処理装置11は、画像解析処理によって、ユーザの性別や年齢を推定する。推定された性別や年齢は、ユーザのプロファイルデータとして管理サーバ5に送信され、管理サーバ5は、プロファイルデータをユーザ挙動DB8に記憶させてもよい。
(A2)キャラクタの操作情報
上記したように、各ユーザのユーザ装置10は、それぞれのキャラクタの操作情報をサーバシステム4に送信し、管理サーバ5は、3次元コンテンツ空間におけるユーザキャラクタの操作情報を、ユーザの挙動履歴データとしてユーザ挙動DB8に記憶する。
(A3)ユーザの状態検知情報
ユーザシステム3は、仮想ツアーを楽しんでいるユーザの状態を検知し、サーバシステム4に送信する。ユーザシステム3は、ユーザの体温、脳波、脈拍などの状態情報を検知して、これらの状態検知情報をサーバシステム4に送信する。状態情報は周期的に検知されてよい。管理サーバ5は、これらの状態検知情報を、ユーザの挙動履歴データとしてユーザ挙動DB8に記憶する。
(A4)ユーザの音声データ
ユーザシステム3において、音声データ送信部36は、HMD100のマイク126に入力された音声データを、サーバシステム4に送信し、管理サーバ5は、ユーザの音声データを、ユーザの挙動履歴データとしてユーザ挙動DB8に記憶する。
イベントデータ取得部306は、イベントDB9から以下のデータを取得する。
(B1)イベントデータ
イベントデータは、イベントの内容、イベント開始および終了のタイミングを特定するデータを含む。
(B2)演出データ
演出データは、演出の内容、演出の開始および終了のタイミングを特定するデータを含む。たとえば演出データは、3次元コンテンツ空間に流す背景音楽(BGM)や、ユーザの入力装置16に含まれる振動子を駆動するための駆動データなどを含む。
処理部310は、同じ3次元コンテンツ空間を体験した複数のユーザの行動解析を行う。たとえばツアーの内容が予めプログラムされており、つまりイベントが毎回同じ時間に発生するツアーに関しては、毎回のツアーで共通の3次元コンテンツ空間が提供されることになる。そのため処理部310は、ツアーに参加した全てのユーザの挙動履歴データから、ユーザの行動解析を行うことができる。
一方で実施例で説明したように、オペレータがツアーをガイドする場合、ツアーごとにイベントの発生時間が異なるため、処理部310は、時間軸に沿った行動解析をツアーごとに実施する。なおイベントに対するユーザの反応など、時間軸に沿って解析する必要のないユーザ行動については、処理部310は、ツアーに参加した全てのユーザの挙動履歴データから解析してよい。
挙動履歴データ取得部304は、HMD100を頭部に装着した複数のユーザであって、同じ3次元コンテンツ空間を体験した複数のユーザの挙動履歴データを取得する。視線方向取得部312は、複数のユーザの挙動履歴データから、3次元コンテンツ空間における複数のユーザの位置および視線方向を取得する。空間画像生成部318は、取得された複数のユーザの位置および視線方向にもとづいて、3次元仮想空間における複数のユーザの視線に関する画像を生成する。
図9は、画面生成部316が生成する行動解析画面330の一例を示す。空間画像生成部318は、3次元コンテンツ空間に対応する3次元仮想空間340に、各ユーザの視線方向を示す視線インジケータ342a〜342dを配置して、レンダリングした空間画像を生成する。この空間画像は、ユーザインタフェースを操作することで、視点を切り替えることができる。
なお実施例では、10人のユーザがツアーに参加する例を説明したが、図9に示す例では便宜上、4人のユーザの視線インジケータ342a〜342dを示している。ここで視線インジケータ342は、球体に円錐体が差し込まれたような3次元形状を有している。球体はユーザ(ユーザキャラクタ)の頭を表現し、円錐体が延びる方向は、ユーザの視線方向を表現し、円錐体の広がりは、ユーザの視野を表現している。
空間画像生成部318は、3次元コンテンツ空間における複数のユーザの位置および視線方向にもとづいて、3次元仮想空間340に視線インジケータ342を配置する。再生ボタンが操作されると、空間画像生成部318は、視線インジケータ342の位置および向きを時間の経過とともに動かし、したがって行動解析画面330には、各ユーザが視ている方向が視線インジケータ342により表現される。そのためサービス提供主体は、3次元仮想空間340に配置された視線インジケータ342の動きを見ることで、音声案内を行ったタイミングで各ユーザの視線にどのような変化が生じるかを確認できる。
タイムライン生成部320は、3次元コンテンツ空間において発生したイベントに関する情報を、時間軸に関連づけて示すタイムライン画像350を生成する。タイムライン画像350は、左端をコンテンツの開始時刻、右端をコンテンツの終了時刻とする矩形状の時間帯に、イベントの発生時刻および終了時刻を示すように表示される。スライダ352は、3次元仮想空間340における再生位置を示し、この例では、イベント1中のユーザの視線インジケータ342が3次元仮想空間340に表示されている。
図10は、行動解析画面330の別の例を示す。この例ではタイムライン生成部320が、タイムライン画像350に加えて、演出(BGM)、ユーザ音声、演出(振動)の解析結果を表示している。演出データ解析部314はBGMの出力データから、BGMの強弱の時間変化を解析し、タイムライン生成部320が、BGMの解析結果として表示する。また演出データ解析部314は、同じ3次元コンテンツ空間を体験した複数のユーザ音声をまとめて、音声の強弱の時間変化を解析し、タイムライン生成部320が、ユーザ音声の解析結果として表示する。また演出データ解析部314は、入力装置16の振動子を駆動する駆動データの波形を取得し、タイムライン生成部320が、入力装置16の振動波形として表示する。
このようにタイムライン生成部320は、3次元コンテンツ空間において発生したイベント、実施された演出、ユーザが発した音声の少なくとも1つに関する情報を、時間軸に関連づけて示す画像を生成してよい。サービス提供主体は、行動解析画面330をみて、3次元コンテンツ空間においてユーザがどのような反応を示し、また演出がユーザに対してどのように作用しているかを確認することができる。サービス提供主体は、このような情報をもとに、サービス内容を改善したり、また新たな演出をサービスに組み込んだりしてよい。
また空間画像生成部318は、ユーザの状態検知情報から、ユーザの感情を推定してもよい。たとえばユーザの状態検知情報から、興奮しているか、冷静であるかを推定できる場合、空間画像生成部318は、興奮しているユーザの視線インジケータ342を赤色に、冷静なユーザの視線インジケータ342を青色に色分けしてもよい。これにより3次元コンテンツ空間において、演出を行ったことでユーザが興奮したことなどを確認できるようになる。つまり空間画像生成部318は、推定したユーザの感情に応じて視線インジケータ342の表示態様を異ならせることで、サービス提供主体は、感情によってユーザのとる行動が変化する様子を確認することができる。
3次元仮想空間340において、音声発信位置354は、サービス音声が発信された位置を示す。3次元仮想空間340に音声発信位置354を示すことで、サービス提供主体は、音声発信位置354をユーザが見るように動作するか、確認できる。なお各視線インジケータ342には、ユーザのプロファイルデータが紐づけられていてもよい。たとえばサービス提供主体は、マウスのカーソルを視線インジケータ342に当てることで、当該ユーザのプロファイルが表示されてもよい。
なおユーザシステム3では、撮像装置14によりHMD100を装着したユーザの動きを撮影して、ユーザの動きを解析してもよい。たとえば処理装置11は、ユーザの姿勢推定処理を実施して、推定した姿勢データを、管理サーバ5に送信する。管理サーバ5は、推定した姿勢データを、ユーザ挙動DB8に記憶する。情報処理装置300において挙動履歴データ取得部304は、ユーザの挙動履歴データとともに、推定した姿勢データを取得してもよい。
以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
1・・・情報処理システム、300・・・情報処理装置、302・・・データ取得部、304・・・挙動履歴データ取得部、306・・・イベントデータ取得部、310・・・処理部、312・・・視線方向取得部、314・・・演出データ解析部、316・・・画面生成部、318・・・空間画像生成部、320・・・タイムライン生成部、322・・・表示処理部、330・・・行動解析画面、340・・・3次元仮想空間、342・・・視線インジケータ、350・・・タイムライン画像、352・・・スライダ、354・・・音声発信位置。
本発明は、ユーザの挙動履歴データを処理する分野に利用できる。

Claims (7)

  1. ヘッドマウントディスプレイを頭部に装着した複数のユーザであって、同じ3次元コンテンツ空間を体験した複数のユーザの挙動履歴データを取得する挙動履歴データ取得部と、
    複数のユーザの挙動履歴データから、3次元コンテンツ空間における複数のユーザの視線方向を取得する視線方向取得部と、
    取得された複数のユーザの視線方向にもとづいて、3次元仮想空間における複数のユーザの視線に関する画像を生成する画面生成部と、を備え
    前記挙動履歴データ取得部は、ユーザの挙動履歴データとして、3次元コンテンツ空間におけるユーザキャラクタの操作情報を取得する、ことを特徴とする情報処理装置。
  2. 前記挙動履歴データ取得部は、3次元コンテンツ空間を体験していたユーザの状態検知情報を取得する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記挙動履歴データ取得部は、ヘッドマウントディスプレイ未装着時のユーザを撮影した撮影画像にもとづいて推定されたプロファイルデータを取得する、
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記画面生成部は、3次元コンテンツ空間に対応する3次元仮想空間に、各ユーザの視線方向を示す視線インジケータを配置した画像を生成する、
    ことを特徴とする請求項1からのいずれかに記載の情報処理装置。
  5. 前記画面生成部は、3次元コンテンツ空間において発生したイベント、実施された演出、ユーザが発した音声の少なくとも1つに関する情報を、時間軸に関連づけて示す画像を生成する、
    ことを特徴とする請求項に記載の情報処理装置。
  6. ヘッドマウントディスプレイを頭部に装着した複数のユーザであって、同じ3次元コンテンツ空間を体験した複数のユーザの挙動履歴データとして、3次元コンテンツ空間におけるユーザキャラクタの操作情報を取得するステップと、
    複数のユーザの挙動履歴データから、3次元コンテンツ空間における複数のユーザの視線方向を取得するステップと、
    取得された複数のユーザの視線方向にもとづいて、3次元仮想空間における複数のユーザの視線に関する画像を生成するステップと、
    を備えることを特徴とする画像生成方法。
  7. コンピュータに、
    ヘッドマウントディスプレイを頭部に装着した複数のユーザであって、同じ3次元コンテンツ空間を体験した複数のユーザの挙動履歴データとして、3次元コンテンツ空間におけるユーザキャラクタの操作情報を取得する機能と、
    複数のユーザの挙動履歴データから、3次元コンテンツ空間における複数のユーザの視線方向を取得する機能と、
    取得された複数のユーザの視線方向にもとづいて、3次元仮想空間における複数のユーザの視線に関する画像を生成する機能と、
    を実現させるためのプログラム。
JP2019523295A 2017-06-08 2017-06-08 情報処理装置および画像生成方法 Active JP6807455B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/021329 WO2018225218A1 (ja) 2017-06-08 2017-06-08 情報処理装置および画像生成方法

Publications (2)

Publication Number Publication Date
JPWO2018225218A1 JPWO2018225218A1 (ja) 2019-11-07
JP6807455B2 true JP6807455B2 (ja) 2021-01-06

Family

ID=64566206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019523295A Active JP6807455B2 (ja) 2017-06-08 2017-06-08 情報処理装置および画像生成方法

Country Status (3)

Country Link
US (1) US11094107B2 (ja)
JP (1) JP6807455B2 (ja)
WO (1) WO2018225218A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7395172B2 (ja) * 2019-06-07 2023-12-11 株式会社アルファコード 仮想現実空間におけるインセンティブ付与システム、インセンティブ付与装置、インセンティブ付与方法およびインセンティブ管理用プログラム
JP7263475B1 (ja) 2021-10-13 2023-04-24 株式会社電通 授業支援システム、授業支援方法、授業支援プログラム
CN114119839B (zh) * 2022-01-24 2022-07-01 阿里巴巴(中国)有限公司 三维模型重建与图像生成方法、设备以及存储介质
WO2023175699A1 (ja) * 2022-03-15 2023-09-21 日本電気株式会社 情報処理システム、情報処理方法、およびプログラム
US20230401782A1 (en) * 2022-06-13 2023-12-14 Canon Kabushiki Kaisha Electronic apparatus and control method of the same
JP7197231B1 (ja) 2022-07-25 2022-12-27 Jp Games株式会社 情報処理装置、情報処理方法およびプログラム
JP7409468B1 (ja) 2022-11-18 2024-01-09 Toppanホールディングス株式会社 仮想空間生成装置、仮想空間生成プログラム、および、仮想空間生成方法
JP7409467B1 (ja) 2022-11-18 2024-01-09 Toppanホールディングス株式会社 仮想空間生成装置、仮想空間生成プログラム、および、仮想空間生成方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057856A (en) 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
JP2002117415A (ja) * 2000-10-06 2002-04-19 Kgt Inc 仮想共同作業環境発生装置
JP2005174021A (ja) * 2003-12-11 2005-06-30 Canon Inc 情報提示方法及び装置
US9141191B2 (en) * 2012-12-20 2015-09-22 Google Inc. Capturing photos without a camera
US8994834B2 (en) * 2012-12-20 2015-03-31 Google Inc. Capturing photos
US9224036B2 (en) * 2012-12-20 2015-12-29 Google Inc. Generating static scenes
JP6004051B2 (ja) * 2014-07-31 2016-10-05 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
US10154810B2 (en) * 2015-06-14 2018-12-18 Facense Ltd. Security system that detects atypical behavior
US10713670B1 (en) * 2015-12-31 2020-07-14 Videomining Corporation Method and system for finding correspondence between point-of-sale data and customer behavior data

Also Published As

Publication number Publication date
WO2018225218A1 (ja) 2018-12-13
US11094107B2 (en) 2021-08-17
JPWO2018225218A1 (ja) 2019-11-07
US20200175748A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP6807455B2 (ja) 情報処理装置および画像生成方法
JP6759451B2 (ja) 人による追跡装置のオクルージョンの影響を低減するシステム及び方法
JP6298561B1 (ja) ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
JP6845111B2 (ja) 情報処理装置および画像表示方法
JP6462059B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP6615732B2 (ja) 情報処理装置および画像生成方法
WO2019234879A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6298563B1 (ja) ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
US20190005731A1 (en) Program executed on computer for providing virtual space, information processing apparatus, and method of providing virtual space
US10515481B2 (en) Method for assisting movement in virtual space and system executing the method
JP2019087226A (ja) 情報処理装置、情報処理システムおよび表情画像出力方法
JP6470859B1 (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
US20180348531A1 (en) Method executed on computer for controlling a display of a head mount device, program for executing the method on the computer, and information processing apparatus therefor
JP2018200678A (ja) ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
JP2019128721A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
WO2020095368A1 (ja) 情報処理システム、表示方法およびコンピュータプログラム
JP2019067222A (ja) 仮想現実を提供するためにコンピュータで実行されるプログラムおよび情報処理装置
US11206452B2 (en) Video display system, information processing apparatus, and video display method
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP2021512402A (ja) マルチビューイング仮想現実ユーザインターフェース
JP2019192203A (ja) プログラム、情報処理装置、および方法
JP2019012509A (ja) ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
WO2022014170A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
WO2017163649A1 (ja) 画像処理装置
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R150 Certificate of patent or registration of utility model

Ref document number: 6807455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150