JP2018206391A - イマーシブコンテンツ項目を消費するときに見る者をリファレンス方向の方へ回転させる方法及び装置 - Google Patents

イマーシブコンテンツ項目を消費するときに見る者をリファレンス方向の方へ回転させる方法及び装置 Download PDF

Info

Publication number
JP2018206391A
JP2018206391A JP2018106601A JP2018106601A JP2018206391A JP 2018206391 A JP2018206391 A JP 2018206391A JP 2018106601 A JP2018106601 A JP 2018106601A JP 2018106601 A JP2018106601 A JP 2018106601A JP 2018206391 A JP2018206391 A JP 2018206391A
Authority
JP
Japan
Prior art keywords
immersive content
character
reference direction
user
immersive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018106601A
Other languages
English (en)
Other versions
JP2018206391A5 (ja
JP7177606B2 (ja
Inventor
カーン ンゴ ドン,クァン
Quang Khanh Ngoc Duong
カーン ンゴ ドン,クァン
シロト,ジョエル
Sirot Joel
マルキント,グウェナエル
Marquant Gwenaelle
デマーティ,クレール—エレーヌ
Demarty Claire-Helene
デマーティ,クレール―エレーヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018206391A publication Critical patent/JP2018206391A/ja
Publication of JP2018206391A5 publication Critical patent/JP2018206391A5/ja
Application granted granted Critical
Publication of JP7177606B2 publication Critical patent/JP7177606B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】本開示は、イマーシブコンテンツを消費するユーザに、イマーシブレンダリング装置を関心領域の方向において回転させるよう促す方法、装置又はシステムに関する。【解決手段】本原理に従って、キャラクタを表すオブジェクトは、ユーザの視野において挿入される。キャラクタは、それがイマーシブコンテンツにおけるその位置から関心領域の方向を見るように、計算される。加えて、キャラクタの顔及び本体姿勢は、関心領域に関連する感情、例えば、恐怖、幸福又は興味を反映し得る。ユーザは、自然に、挿入されたキャラクタによって示された方向を見るよう促される。【選択図】図2b

Description

本開示は、イマーシブコンテンツを消費するユーザに、例えば、ヘッドマウント型ディスプレイ(HMD;head mounted display(s))又はテレビ受像機又はモバイル装置(例えば、タブレット若しくはスマートフォン)を用いて関心のある方向を見るよう促すことの分野に関する。
イマーシブコンテンツ項目は、ユーザがコンテンツの真ん中にいるように感じられるようにユーザの周りに表示されるよう作られるコンテンツ項目である。イマーシブコンテンツは、3次元コンピュータグラフィック画像コンテンツ(3D CGI;three-dimensional computer graphic imagery content)、ボリュメトリックビデオ(volumetric video)、又は3次元の凸面(例えば、球体、立方体若しくは円筒)にマッピングされたビデオであってよい。その上、ユーザが、例えば、トリミングによって、一部しか見ることができなかった大きな2次元画像も、イマーシブコンテンツである。ユーザは、コンテンツの実際には表示されていない部分を見るために、レンダリング装置を制御しなければならない。
イマーシブコンテンツ項目は、イマーシブレンダリング装置によってレンダリングされる。例えば、ヘッドマウント型ディスプレイ(HMD)は、頭部に又はヘルメットの部分として装着されるディスプレイ装置であって、一方の目(単眼HMD)又は夫々の目(双眼HMD)の前に小さな表示オプティックを備える。それらは、イマーシブコンテンツ項目を消費するよう有利に適応される。斯様な装置では、ビデオの一部分しか表示されない。ビデオコンテンツの表示される部分は、例えば、組み込み型のモーションユニット測定(Motion Unit Measurement)(ジャイロスコープを含む。)及び/又は例えば、カメラを使用する姿勢推定システムを用いて、ユーザ頭部の姿勢に応じて更新される。スマートフォン又はタブレットもイマーシブコンテンツをレンダリングし得る。表示される部分は、装置の向きに応じて、そして同様にその位置に応じて、更新される。
斯様な装置の出現は、4πステラジアンを動き、例えば、頭部の回転によって見ることをユーザに可能にする。斯様な特徴がコンテンツのイマージョンに関して実際の改善として現れ得る場合に、ユーザがコンテンツの一部分しか見ていないということで、ユーザは、ユーザが所与の時点で見るべきである方向を見ないかもしれない。実際に、ユーザが自身の辺り一帯を見回すことができるときに、ユーザは、物語のイベントが起きる時点でコンテンツの他の部分を見ていることで、物語のいくつかの重要なハイライトを見逃すことがある。
背景技術に従って、ユーザが見るべきである方向をユーザに見させるために仮想カメラをパンすることを強いることは、大変有効な解決法であることが知られている。しかし、この解決法は、ユーザに吐き気を催させ、結果として、ユーザの経験の品質を悪化させるという欠点を持つことがよく知られている。回避すべき方向においてコンテンツを劣化させる擬似触覚(pseudo-haptics)法が知られている。それらは、レンダリングされる画像を劣化させるので、作者の作品を改変し、ユーザの経験を変えるという欠点を持っている。ユーザの動作によって制御される装置の照準方向と、レンダリングすべき場面の部分を捕捉する仮想カメラの照準方向との間の不一致を制御する方法も、既存の解決法である。それらは、ユーザが見ることができる可能な方向を制限するという欠点を持っている。
誘導に従わないというユーザの自由を制限せずに、且つ、ユーザの視聴経験を劣化させずに、関心のある方向(又は領域)の方を見るようユーザを友好的に誘導する解決法はない。
本開示は、誘導に従わないというユーザの自由を制限せずに、且つ、ユーザの視聴経験を劣化させずに、リファレンス方向の方を見るようユーザを誘導する方法に関する。本原理に従って、有効なキャラクタが、イマーシブレンダリング装置で、ユーザの視野に挿入される。ユーザがリファレンス方向(例えば、関心のある方向)を見ている場合に、キャラクタはユーザの方を見るか、あるいは、例えば、ユーザに背を向け、表情がない。変形例では、キャラクタは、ユーザがリファレンス方向の方を見るときには表示されない。他の変形例では、キャラクタのサイズは変更され、例えば、小さくされ、そして、それは、スクリーンの角にレンダリングされ得る。キャラクタはまた、その目を閉じてもよい。何かが起きて、リファレンス方向がユーザの視野の外にある場合には、キャラクタは、リファレンス方向をユーザに示す方向を見る。キャラクタは、例えば、コンテンツにおいて起きているイベントのタイプに応じて怖がって又は驚いて見えるよう、表情を変えてよい。故に、ユーザは、キャラクタがじっと見ている所を見るよう促される。変形例では、キャラクタは、誘導効果を強化する身体表現を有する。
本開示は、レンダリング装置によってイマーシブコンテンツをレンダリングする方法に関する。方法は、
前記イマーシブコンテンツ内の関心のあるリファレンス方向及び該リファレンス方向に関連する感情データを取得することと、
前記イマーシブコンテンツ内の位置で、少なくとも1つの目を持つキャラクタを表すオブジェクトを挿入することと
を有し、
前記位置は、当該レンダリング装置によってレンダリングされる前記イマーシブコンテンツの部分において含まれ、
前記オブジェクトの前記少なくとも1つの目の注視方向は、前記位置及び前記リファレンス方向に従って決定され、
前記オブジェクトは、前記感情データを反映するよう決定される。
本原理の態様に従って、前記注視方向は、前記イマーシブコンテンツ内の前記位置から前記リファレンス方向の方向において前記キャラクタに見させるよう計算される。
実施形態において、感情データは、リファレンス方向に関連し、キャラクタの顔は、この感情を表すようアニメーション化される。
本原理の他の態様に従って、前記キャラクタは、その頭部に加えて、ボディ部分を有し、該ボディ部分は、前記注視方向の表れを補強するようアニメーション化される。
実施形態において、前記オブジェクトの前記位置は、表示される前記イマーシブコンテンツの第1部分における前記オブジェクトの投影のスクリーン空間ポジション及びサイズに従って、計算される。
本原理の他の態様に従って、前記リファレンス方向は、前記イマーシブコンテンツを符号化するデータストリームから取得される。
実施形態において、前記リファレンス方向は、関心領域を検出するよう前記イマーシブコンテンツを解析することによって取得され、前記リファレンス方向は、関心領域を指し示しながらイマーシブコンテンツにおける見る者の位置から始まるベクトルである。
本開示はまた、少なくとも1つのプロセッサに関連するメモリを有するレンダリング装置であって、
前記少なくとも1つのプロセッサが、
イマーシブコンテンツ内の関心のあるリファレンス方向及び該リファレンス方向に関連する感情データを取得し、
前記イマーシブコンテンツ内の位置で、少なくとも1つの目を持つキャラクタを表すオブジェクトを挿入する
よう構成され、
前記位置が、当該レンダリング装置によってレンダリングされる前記イマーシブコンテンツの部分において含まれ、
前記オブジェクトの前記少なくとも1つの目の注視方向が、前記位置及び前記リファレンス方向に従って決定され、
前記オブジェクトが、前記感情データを反映するよう決定される、
レンダリング装置に関する。
添付の図面を参照しながら以下の説明を読むことで、本開示はより良く理解され、他の具体的な特徴及び利点は明らかになる。
本原理の具体的な実施形態に従って、イマーシブレンダリング装置、例えば、頭部に装着されたHMDによってレンダリングされるイマーシブコンテンツ項目を消費するユーザの例を表す。 本原理の具体的な実施形態に従って、リファレンス方向が取得される前に、レンダリングされるイマーシブコンテンツ項目を消費する図1のユーザを示す。 本原理の具体的な実施形態に従って、リファレンス方向が取得される時点で、レンダリングされるイマーシブコンテンツ項目を消費する図1のユーザを示す。 本原理の具体的な実施形態に従って、図2bのキャラクタによって促されるようにユーザが自身の頭を回転させる場合に、イマーシブレンダリング装置によってレンダリングされるイマーシブコンテンツ項目を消費する図1のユーザを示す。 本原理の具体的な実施形態に従って、本体及び腕を有するキャラクタを含む図2bの画像として表示画像を表す。 本原理の具体的な実施形態に従って、1つの目しか有さないキャラクタを含む図2cの画像として表示画像を表す。 非制限的な有利な実施形態に従って、図6の装置のようなプロセッシング装置において実装される方法の実施形態を図式的に示す。 本原理の具体的な実施形態に従って、図5に関連して記載される方法を実装するよう構成され得る装置のアーキテクチャを例示する。
主題は、これより、図面を参照して説明される。同じ参照符号は、全体を通して、同じ要素を参照するために用いられる。以下の記載では、説明の目的で、多数の具体的な詳細が、主題の完全な理解を提供するために示される。主題の実施形態は、そのような具体的な詳細によらずとも実施され得ることが理解される。
明りょうさのために、図1、2a、2b及び2cは、2次元における例を表し、“ヨー(yaw)”角(すなわち、Z軸周りの回転)のみに言及する。本原理は、3次元に並びに“ピッチ(pitch)”角(すなわち、Y軸周りの回転)に及び“ロール(roll)”角(すなわち、X軸周りの回転)に拡張可能であることが理解される。
図1は、イマーシブレンダリング装置、例えば、頭部に装着されたHMDによってレンダリングされるイマーシブコンテンツ項目を消費するユーザ11の例を表す。例えば、仮想カメラ12は、HMDの少なくとも1つのスクリーンに表示されているイマーシブコンテンツ10の部分14の画像を捕捉している。HMDの場合に、1つの画像がユーザの夫々の目の前にレンダリングされる。これは、同じ画像(すなわち、モノレンダリング)又は2つの異なる画像(すなわち、ステレオレンダリング)であってよい。イマーシブコンテンツは、オブジェクトの3Dモデルが参照系において位置付けられる3次元コンピュータグラフィック画像シーン(3D CGIシーン)であってよい。他の実施形態では、イマーシブコンテンツは、3次元の凸面(例えば、球体、円筒、立方体、ピラミッド、又はそれらの3D形状の部分)にマッピングされたビデオであってよい。ユーザは、イマーシブレンダリング装置を動かすことによって、例えば、HMDの例では自身の頭を回転させることによって、イマーシブコンテンツ10の表示部分14を制御する。ユーザは、方向13において見ている。例えば、図1の水車小屋を見ている。表示部分14は、方向13と、視野を画定する装置のハードウェア構成(例えば、HMDのレンズ及び/又はスクリーンの幅)とに応じて、イマーシブレンダリング装置によって決定される。
本原理に従って、リファレンス方向15が取得される。リファレンス方向15は、コンテンツ内の関心のある点、オブジェクト又は領域を検出するようイマーシブコンテンツを解析することによって、取得され得る。リファレンス方向15は、仮想カメラと関心領域との相対位置に応じて計算される(点は単位領域であり、コンテンツの部分としてのオブジェクトは、コンテンツ内の領域を画定すると見なされ得る。)。既存の領域検出アルゴリズムが、イマーシブコンテンツのタイプに応じて使用されてよい。例えば、イマーシブコンテンツがイマーシブビデオである場合には、サリエンシー又は内部の興趣(intra-interestingness)に基づく関心領域検出アルゴリズムが使用されてよい。他の実施形態では、リファレンス方向は、イマーシブコンテンツ項目を符号化するデータストリームから、例えば、イマーシブコンテンツのレンダリングと同期したメタデータとして、取得される。第3の実施形態では、リファレンス方向15は、イマーシブコンテンツ項目を符号化するデータストリーム以外のソースから取得される。例えば、リファレンス方向15は、遠隔の装置(例えば、HTTPサーバ又はブロードキャストサーバ)から受信されるか、あるいは、イマーシブレンダリング装置と又はイマーシブレンダリング装置に関連する装置と関連するメモリにおいて読み出される。
例えば、リファレンス方向15は、関心のある方向である。これは、例えば、物語のイベントがこの方向において起きるからである。イベントに従って、感情を表すデータがリファレンス方向15と関連付けられてよい。例えば、“恐ろしい”又は“楽しい”又は“つまらない”が挙げられる。この感情は、イマーシブコンテンツにおける感情、特に、関心領域に関連した感情を解析するアルゴリズムを使用することによって、決定されてよい。他の例では、感情データは、イマーシブコンテンツ項目を符号化するデータストリームから取り出される。方向15は、イベントが起きる時点で取得されてよい。変形例では、方向15は、イベントが起きる少し前に、例えば、1秒又は3秒前に、取得される。
本原理に従って、キャラクタを表すオブジェクト16は、少なくとも、方向15が取得される場合に、イマーシブコンテンツ内に挿入される。オブジェクト16は、イマーシブコンテンツの参照系における位置で挿入される。故に、それは、方向13に従って定められたユーザの視野に含まれる。すなわち、オブジェクト16は、イマーシブコンテンツの部分14の表示画像に含まれる。オブジェクト16は、方向13、方向15、及びイマーシブコンテンツの部分14におけるオブジェクト16の位置に従って計算される。キャラクタは少なくとも1つの目を備え、その注視方向17は、キャラクタが、イマーシブコンテンツ10におけるその位置でレンダリングされるときに、関心のある方向を見ているように、計算される。変形例では、キャラクタが注視方向へ向かっているように、キャラクタの頭の方向が計算される。実際に、キャラクタの注視方向は、たとえ目が頭の参照系においてアニメーション化されないとしても、頭がシーンの参照系において回転している場合に変更される。他の変形例では、キャラクタは、リファレンス方向に関連した感情データに関係がある表情を有するよう計算される。例えば、感情データ“驚き”について、キャラクタの目は大きく開かれる。変形例では、キャラクタは、その注視の誘導効果を強める身体姿勢を有する。例えば、キャラクタは、ユーザに方向15を見させるよう、自身の腕又は指で注視方向17を指し示してよい。注視方向17がユーザの後ろを指す場合には、キャラクタは、ユーザの肩越しを見るよう、背伸びするか、あるいは、自身の頭を傾けてよい。本原理のこの態様は、図2a、2b及び2cを参照して更に詳述される。
オブジェクト16はキャラクタを表し、イマーシブコンテンツの参照系における位置及び注視方向17に従って、少なくとも、リファレンス方向15が取得される場合に、計算される。変形例では、リファレンス方向15に関連した感情データが、オブジェクト16を計算するために使用される。オブジェクト16の計算は、3Dモデルアニメーション技術に基づいてよい。キャラクタのアニメーション可能な3Dモデルは、イマーシブレンダリング装置に関連するメモリにおいて記憶される。モデルの目は、注視方向17に従って方向付けられる。変形例では、キャラクタのアニメーション可能な3Dモデルは、注視方向17に従ってアニメーション化され得る他のボディ部分を有する。例えば、アニメーション可能な3Dモデルの顔は、感情データを反映する気持ちを表現するようアニメーション化されてよい。アニメーション技術は、よく知られている。例えば、重要なメッシュ間のメッシュ補間は、顔3Dモデルに気持ちの段階的表現を与えるために広く使用されている。他の実施形態では、オブジェクト16は、テクスチャード加工のビルボード(すなわち、常に仮想カメラの方へ向けられた矩形イメージャ)である。ビルボードテクスチャの計算は、3Dアニメーション技術と同様の原理に従って2Dアニメーション技術に基づく。第3の実施形態では、オブジェクト16は、イマーシブコンテンツの参照系における位置及び注視方向17に従って、そして、変形例では、方向15に関連した感情データに従って、所定のオブジェクトの組において選択される。
図2aは、リファレンス方向が取得される前に、イマーシブレンダリング装置によってレンダリングされるイマーシブコンテンツ項目を消費する図1のユーザ11を示す。ユーザは、イマーシブコンテンツの部分14を定める方向13を見ている。部分14に対応する画像20aは、イマーシブレンダリング装置の少なくとも1つのスクリーンに表示される。この時点では、リファレンス方向は取得されない。本原理に従って、オブジェクト16aは、ユーザの視野に含まれるシーン空間位置でイマーシブコンテンツに挿入される。このシーン空間位置は、キャラクタの画像21aがレンダリングされるスクリーン空間位置及びサイズに関連する。画像21aのスクリーン空間位置及びサイズは、オブジェクト16aのシーン空間位置及びサイズを基に計算され得る。相互に、キャラクタがスクリーンにおいて占有しうる場所を最適化するために、オブジェクト16aの位置及びサイズは、画像21aの最初に計算された位置及びサイズに従って計算され得る。例となる方法は、表示されている画像の有意味な部分の重なりを最小限にすることである。図2a、2b及び2cの例では、画像21a、21b及び21cの場所は、空に出現するよう選択されている。表示される画像は、ユーザによって制御される方向13に従って生成されるということで、キャラクタ画像のスクリーン空間位置及びサイズは、時間とともに変化し得る。なお、以下で説明されるように、それを大きく変えないこと、及び画像21aを1つの位置から他の位置へポップさせないことが好ましい。他の例となる方法は、図2bを参照して説明されるリファレンス方向15の来たる取得及び推定される来たる方向17に従って、画像21aのスクリーン空間位置及びサイズを計算することである。
図2bは、リファレンス方向が取得される時点で、イマーシブレンダリング装置によってレンダリングされるイマーシブコンテンツ項目を消費する図1のユーザ11を示す。リファレンス方向15は、コンテンツイベントが起きる時点で取得される。変形例では、リファレンス方向15は、コンテンツイベントが起きる少し前に、例えば、0.5秒又は2秒前に、取得される。本原理に従って、図のオブジェクト16aは、オブジェクト16bになるよう変更される。変形例では、オブジェクト16aは、オブジェクト16bによって置換される(すなわち、オブジェクト16aは、イマーシブコンテンツから除去され、オブジェクト16が、イマーシブコンテンツに挿入される。)。オブジェクト16bは、オブジェクト16bのシーン空間位置及びリファレンス方向15に従って決定された注視方向17に従って、計算される。変形例では、感情データがリファレンス方向15に関連付けられ、オブジェクト16bを計算するために使用される。図2bで、キャラクタは、見る者の右後ろ且つその者の上部での方向22におけるイベントによって驚いた顔をしている。
画像20bにおける画像21bの突然の変更の例となる効果は、見る者の注意をキャラクタに引くことである。自然な反応は、見る者を、同じ方向22を見るようにその者の頭を回転させるよう導く。なお、この誘導は命令的ではなく、見る者はそれを無視すると決めることができる。変形例では、矢印22が、誘導効果を強めるよう画像20bにおいて効果的に描かれる。
画像21a、21b及び21cは、それが見る者の注意を期待はずれのイベントに引いて、見る者の視聴経験の品質を乱しうるということで、1つのスクリーン空間位置から他の位置へポップしないことが好ましい(リファレンス方向15の突然の変更に関連する場合を除く。)。画像21bのスクリーン空間位置は、注視方向17及び22に従って決定され得る。例えば、オブジェクトは、スクリーン空間のサイドに位置付けられてよい。故に、その注視は、図2bにおいて見られるように、スクリーンを横断する。変形例では、キャラクタの画像は、注視方向に向かって進むよう、あるいは、例えば、リファレンス方向に関連した感情データに従って、反対の方向に走り去るよう、スクリーン空間を横切って漸次的に動いてよい。
いくつかのリファレンス方向が同時に取得されてよい。斯様な場合に、注視方向は、それらのリファレンス方向のうちの1つに従って、例えば、夫々のリファレンス方向に関連した重要度に従って、又はそれらの夫々に関連した感情データに従って、計算され得る。キャラクタの夫々を表すいくつかのオブジェクトが計算され、イマーシブコンテンツにおいて挿入されてよい。
図2cは、ユーザが図2bの方向22において自身の頭を回転させた場合に、イマーシブレンダリング装置によってレンダリングされるイマーシブコンテンツ項目を消費する図1のユーザ11を示す。図2bの誘導効果は、見る者を、その者の頭を方向21の方へ回転させるよう導き、そして、注視方向17に対するイマーシブコンテンツの部分が表示される。リファレンス方向15は、それが見る者の視野に含まれるので無視され、オブジェクト16cは、キャラクタが、例えば、無表情で、ユーザの方向を見るように、計算される。変形例では、オブジェクト16cはイマーシブコンテンツから除去され、故に、画像21cはスクリーンに表示されない。
他の実施形態では、リファレンス方向15は無視されず、注視方向17は、図3及び4を参照して説明されるように計算される。
図3は、本体及び腕を有するキャラクタを含む図2bの画像20bとして表示画像30を表す。この例では、例えば、リファレンス方向が感情データ“面白い”と関連付けられるので、キャラクタを表すオブジェクトは、見る者に、見る者の視野内に含まれるリファレンス方向15、ここでは、水車小屋に焦点を合わせるよう促すために、計算される。注視方向32は、リファレンス方向及び図1のオブジェクト16のシーン空間位置に従って、計算される。キャラクタは、リファレンス方向を見るように誘導効果を強めるよう構成されアニメーション化され得る本体を備えてよい。図3の例では、鉛筆のキャラクタが水車小屋の方にかがんで、その腕及び指を、リファレンス方向にある面白いオブジェクトの方に向けている。
リファレンス方向に従ってキャラクタを表すオブジェクトを計算するために使用されるデータは、イマーシブレンダリング装置に関連するメモリにおいて記憶されている。他の実施形態では、そのようなデータは、遠隔の装置に関連するメモリにおいて記憶され、イマーシブレンダリング装置によって必要とされるときに要求される。キャラクタは、ユーザの好みに応じて選択されてよい。キャラクタは、アニメとして描かれてよく、あるいは、写真のようなリアルな描写であってよい。キャラクタは、人物、例えば、ユーザの友人若しくは親戚又はユーザ自身の写真に従って生成されてよい。
図4は、1つしか目を持たないキャラクタを含む図2cの画像20cとして表示画像40を表す。注視方向42及び表示されているキャラクタ41の脅えた態度は、視野から直ぐに去り、最初の飛行機又はパラシュートよりも追うことが重要であると推定される2番目の飛行機に焦点を合わせるよう自然に且つ友好的にユーザに促す。キャラクタの一つ目の注視は、2番目の飛行機を漸次的に追って、見る者に同じことをするよう促す。
図5は、非制限的な有利な実施形態に従って、図6の装置60のようなプロセッシング装置において実装される方法50の実施形態を図式的に示す。
初期設定ステップ51で、図6のイマーシブレンダリング装置60は、イマーシブコンテンツ項目を符号化するデータストリームを取得し、イマーシブレンダリング装置60の方向に従ってイマーシブコンテンツの第1部分をレンダリングする。
ステップ52で、リファレンス方向が取得される。リファレンス方向は、イマーシブコンテンツ内の見る者の位置からイマーシブコンテンツにおける関心領域を指す。感情データがリファレンス方向と関連付けられてよい。リファレンス方向は、関心領域検出アルゴリズムによりイマーシブコンテンツを解析することによって、取得されてよい。感情データは、シーン解析アルゴリズムによって決定されてよい。他の実施形態では、リファレンス方向情報は、イマーシブコンテンツ項目のデータストリームにおいて符号化されている同期化されたデータから取り出されてよい。感情データも、そのような同期化されたデータから取り出されてよい。同期化されたデータは、自動的に生成されていてよく、あるいは、それらは、人のオペレータによって決定されていてよい。
ステップ53で、キャラクタを表すオブジェクトは、取得されたリファレンス方向に従って計算される。キャラクタの注視方向は、リファレンス方向及びイマーシブコンテンツにおけるオブジェクトの位置に従って計算される。オブジェクトの位置は、キャラクタの画像が表示されるときに有するだろうスクリーン空間位置及びスクリーン空間サイズに従って、計算されてよい。オブジェクトは、キャラクタの少なくとも1つの目が計算された注視方向を見ているように、計算される。変形例では、キャラクタは、頭を含むボディ部分(例えば、胴、腕、指、など)を有する。これらは、リファレンス方向の方を注視方向において見ている誘導効果を強めるよう、アニメーション化される。他の変形例では、リファレンス方向に関連する感情データが、関連する気持ちを表現するようにキャラクタをアニメーション化するために、使用される。
ステップ54で、キャラクタを表す計算されたオブジェクトが、イマーシブコンテンツにおいて挿入される。イマーシブレンダリング装置60は、ユーザが見ている方向に従って、表示すべき画像を計算する。オブジェクトがユーザの視野内にあるよう位置付けられるように、キャラクタの画像は、ユーザの見ている方向に対応するイマーシブコンテンツの部分とともに表示される。他の実施形態では、スクリーン空間におけるキャラクタを表すオブジェクトの投影は、最初に、画像として処理される。第2に、キャラクタ画像は、イマーシブコンテンツの表示されている部分にオーバーレイされる。
ステップ55で、キャラクタの突然の変更の結果として、ユーザは、注視方向によって示された方向において装置を回転させるよう促される。この新しいユーザの見ている方向に対応するイマーシブコンテンツの第2部分は、イマーシブレンダリング装置60によってレンダリングされる。
図6は、図5に関連して記載される方法を実装するよう構成され得る装置60のアーキテクチャを例示する。
装置60は、データ及びアドレスバス61によって結合されている次の要素を有する:
・ 例えば、DSP(すなわち、Digital Signal Processor)であるマイクロプロセッサ62(又はCPU);
・ ROM(すなわち、Read Only Memory)63;
・ RAM(すなわち、Random Access Memory)64;
・ ストレージインターフェイス65;
・ アプリケーションからの、送信すべきデータの受信のためのI/Oインターフェイス66;及び
・ 電源、例えば、バッテリ。
例に従って、電源は装置の外にある。上記のメモリの夫々において、本明細書において使用される語<<レジスタ>>は、小容量(数ビット)のエリアに、又は大容量のエリア(例えば、プログラム全体又は大量の受信若しくは復号されるデータ)に対応することができる。ROM63は、少なくともプログラム及びパラメータを有する。ROM63は、本原理に従う技術を実行するためのアルゴリズム及び命令を記憶してよい。オンされるときに、CPU62は、RAMにおいてプログラムをアップロードし、対応する命令を実行する。
RAM64は、レジスタにおいて、装置60のスイッチオン後にアップロードされてCPU62によって実行されるプログラムを、レジスタにおいて、入力データを、レジスタにおいて、方法の種々の状態における中間データを、及びレジスタにおいて、方法の実行のために使用される他の変数を有する。
図5の方法に従って、イマーシブコンテンツ項目を符号化するデータストリームは、ソースから取得される。例えば、ソースは:
・ ローカルメモリ(63又は64)、例えば、ビデオメモリ又はRAM(すなわち、Random Access Memory)、フラッシュメモリ、ROM(すなわち、Read Only Memory)、ハードディスク;
・ ストレージインターフェイス(65)、例えば、大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク又は磁気担体とのインターフェイス;
・ 通信インターフェイス(66)、例えば、有線インターフェイス(例えば、バスインターフェイス、ワイドエリアネットワークインターフェイス、ローカルエリアネットワークインターフェイス)又は無線インターフェイス(例えば、IEEE802.11インターフェイス若しくはBluetooth(登録商標)インターフェイス);及び
・ ユーザインターフェイス、例えば、データを入力することをユーザに可能にするグラフィカルユーザインターフェイス
を含む組に属する。
例に従って、装置60は、図5に関連して記載される方法を実装するよう構成され:
・ モバイル装置;
・ 通信装置;
・ ゲーム機;
・ タブレット(又はタブレットコンピュータ)
を含む組に属する。
当然に、本開示は、先に記載された実施形態に制限されない。特に、本開示は、キャラクタを表すオブジェクトを挿入することによってイマーシブコンテンツをレンダリングする方法に制限されず、キャラクタ、例えば、問答により所与の方向を又は関心領域の方を見るように見る者に促す、言葉を話すキャラクタを表す少なくとも1つのオブジェクトを処理することにも及ぶ。キャラクタの夫々を表す少なくとも1つのオブジェクトを計算するのに必要な計算の実施は、CPUにおける実施に制限されず、あらゆるプログラムタイプにおける実施、例えば、GPUタイプのマイクロプロセッサによって実行され得るプログラムにも及ぶ。
ここで記載される実施は、例えば、方法若しくはプロセス、装置、ソフトウェアプログラム、データストリーム又は信号において実装されてよい。たとえ単一の実施形態に関してしか説明されていないとしても(例えば、方法又は装置としてしか説明されていないとしても)、説明される特徴の実施は、他の形態(例えば、プログラム)でも実装されてよい。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアにおいて実装されてよい。方法は、例えば、プロセッサのような装置において実装されてよい。プロセッサは、プロセッシング装置全般を指し、例えば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能論理装置を含む。プロセッサはまた、例えば、スマートフォン、タブレット、コンピュータ、携帯電話機、ポータブル/パーソナルデジタルアシスタント(“PDA”)、及び他の装置のような、通信装置を含む。
ここで記載されている様々なプロセス及び特徴の実施は、多種多様な装置又はアプリケーション、特に、例えば、データ符号化、データ復号化、ビュー生成、テクスチャ処理、並びに画像及び関連するテクスチャ情報及び/又は奥行き情報の他の処理に関連した装置又はアプリケーションにおいて具現されてよい。そのような装置の例には、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダへ入力を供給するプリプロセッサ、ビデオコーダ、ビデオデコーダ、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話機、PDA、及び他の通信装置がある。当然ながら、装置はモバイルであって、移動車両に設置されてさえよい。
加えて、方法は、プロセッサによって実行される命令によって実装されてよく、そのような命令(及び/又は実施によって生成されるデータ値)は、例えば、集積回路、ソフトウェアキャリア、又は他の記憶装置(例えば、ハードディスク、コンパクトディスケット(“CD”)、光ディスク(例えば、しばしばデジタルバーサタイルディスク若しくはデジタルビデオディスクと称されるDVD)、ランダムアクセスメモリ(“RAM”)、若しくはリードオンリーメモリ(“ROM”))のような、プロセッサ可読媒体に記憶されてよい。命令は、プロセッサ可読媒体において有形に具現されるアプリケーションプログラムを形成してよい。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、又はそれらの組み合わせにあってよい。命令は、例えば、オペレーティングシステム、別個のアプリケーション、又は両者の組み合わせにおいて含まれていてよい。プロセッサは、従って、例えば、プロセスを実行するよう構成される装置、及びプロセスを実行するための命令を有するプロセッサ可読媒体(例えば、記憶装置)を含む装置の両方と見なされ得る。更に、プロセッサ可読媒体は、命令に加えて又はそれに代えて、実施によって生成されるデータ値を記憶してよい。
当業者に明らかなように、実施は、例えば、記憶又は送信され得る情報を運ぶようフォーマットされた様々な信号を生成し得る。情報は、例えば、方法を実行する命令、又は記載されている実施のうちの1つによって生成されるデータを含んでよい。例えば、信号は、記載されている実施形態のシンタックスを書き込む又は読み出すための規則をデータとして運ぶよう、あるいは、記載されている実施形態によって書き込まれた実際のシンタックス値をデータとして運ぶようフォーマットされてよい。そのような信号は、例えば、電磁波として(例えば、スペクトルの無線周波数部分を使用する。)、又はベースバンド信号として、フォーマットされてよい。フォーマッティングは、例えば、データストリームを符号化し、符号化されたデータストリームによりキャリアを変調することを含んでよい。信号が運ぶ情報は、例えば、アナログ又はデジタルの情報であってよい。信号は、知られている多種多様な有線又は無線リンクを介して送信されてよい。信号は、プロセッサ可読媒体に記憶されてよい。
多数の実施が記載されてきた。それでもなお、様々な変更が行われ得ることが理解されるだろう。例えば、異なる実施の要素は、他の実施をもたらすよう結合、置換、変更、又は除外されてよい。加えて、当業者であれば、他の構造及びプロセスが、開示されているものに代用されてよく、結果として現れる実施が、開示されている実施と少なくとも略同じ結果を達成するよう、少なくとも略同じ方法で、少なくとも略同じ機能を実施すると理解するだろう。然るに、それら及び他の実施は、本願によって意図されている。
10 イマーシブコンテンツ
11 ユーザ
12 仮想カメラ
13 方向
14 表示部分
15 リファレンス方向
16 オブジェクト
17,22,32,42 注視方向
21,31,41 キャラクタ
50 方法
60 イマーシブレンダリング装置

Claims (15)

  1. レンダリング装置によってイマーシブコンテンツをレンダリングする方法であって、
    前記イマーシブコンテンツ内の関心のあるリファレンス方向及び該リファレンス方向に関連する感情データを取得することと、
    前記イマーシブコンテンツ内の位置で、少なくとも1つの目を持つキャラクタを表すオブジェクトを挿入することと
    を有し、
    前記位置は、当該レンダリング装置によってレンダリングされる前記イマーシブコンテンツの部分において含まれ、
    前記オブジェクトの前記少なくとも1つの目の注視方向は、前記位置及び前記リファレンス方向に従って決定され、
    前記オブジェクトは、前記感情データを反映するよう決定される、
    方法。
  2. 前記注視方向は、前記イマーシブコンテンツ内の前記位置から前記リファレンス方向の方向において前記キャラクタに見させるよう決定される、
    請求項1に記載の方法。
  3. 前記オブジェクトは、前記感情データを反映するようアニメーション化される、
    請求項1又は2に記載の方法。
  4. 前記キャラクタは、ボディ部分を有し、該ボディ部分は、前記注視方向の表れを補強するようアニメーション化される、
    請求項1乃至3のうちいずれか一項に記載の方法。
  5. 前記位置は、前記イマーシブコンテンツの前記レンダリングされる部分における前記オブジェクトの投影のスクリーン空間ポジション及びスクリーン空間サイズに従って、決定される、
    請求項1乃至4のうちいずれか一項に記載の方法。
  6. 前記リファレンス方向は、前記イマーシブコンテンツを符号化するデータストリームから取得される、
    請求項1乃至5のうちいずれか一項に記載の方法。
  7. 前記リファレンス方向は、関心領域を検出するよう前記イマーシブコンテンツを解析することによって、取得される、
    請求項1乃至5のうちいずれか一項に記載の方法。
  8. 前記リファレンス方向は、イベントが前記イマーシブコンテンツにおいて起こる前に、取得される、
    請求項1乃至7のうちいずれか一項に記載の方法。
  9. 少なくとも1つのプロセッサに関連するメモリを有するレンダリング装置であって、
    前記少なくとも1つのプロセッサは、
    イマーシブコンテンツ内の関心のあるリファレンス方向及び該リファレンス方向に関連する感情データを取得し、
    前記イマーシブコンテンツ内の位置で、少なくとも1つの目を持つキャラクタを表すオブジェクトを挿入する
    よう構成され、
    前記位置は、当該レンダリング装置によってレンダリングされる前記イマーシブコンテンツの部分において含まれ、
    前記オブジェクトの前記少なくとも1つの目の注視方向は、前記位置及び前記リファレンス方向に従って決定され、
    前記オブジェクトは、前記感情データを反映するよう決定される、
    レンダリング装置。
  10. 前記注視方向は、前記イマーシブコンテンツ内の前記位置から前記リファレンス方向の方向において前記キャラクタに見させるよう決定される、
    請求項9に記載のレンダリング装置。
  11. 前記オブジェクトは、前記感情データを反映するようアニメーション化される、
    請求項9又は10に記載のレンダリング装置。
  12. 前記キャラクタは、ボディ部分を有し、該ボディ部分は、前記注視方向の表れを補強するようアニメーション化される、
    請求項9乃至11のうちいずれか一項に記載のレンダリング装置。
  13. 前記位置は、前記イマーシブコンテンツの前記レンダリングされる部分における前記オブジェクトの投影のスクリーン空間ポジション及びスクリーン空間サイズに従って、決定される、
    請求項9乃至12のうちいずれか一項に記載のレンダリング装置。
  14. 前記リファレンス方向は、前記イマーシブコンテンツを符号化するデータストリームから取得される、
    請求項9乃至13のうちいずれか一項に記載のレンダリング装置。
  15. 前記リファレンス方向は、関心領域を検出するよう前記イマーシブコンテンツを解析することによって、取得される、
    請求項9乃至14のうちいずれか一項に記載のレンダリング装置。
JP2018106601A 2017-06-06 2018-06-04 イマーシブコンテンツ項目を消費するときに見る者をリファレンス方向の方へ回転させる方法及び装置 Active JP7177606B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17305660.7A EP3413167A1 (en) 2017-06-06 2017-06-06 Method and apparatus for inciting a viewer to rotate toward a reference direction when consuming an immersive content item
EP17305660.7 2017-06-06

Publications (3)

Publication Number Publication Date
JP2018206391A true JP2018206391A (ja) 2018-12-27
JP2018206391A5 JP2018206391A5 (ja) 2021-07-26
JP7177606B2 JP7177606B2 (ja) 2022-11-24

Family

ID=59055161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018106601A Active JP7177606B2 (ja) 2017-06-06 2018-06-04 イマーシブコンテンツ項目を消費するときに見る者をリファレンス方向の方へ回転させる方法及び装置

Country Status (5)

Country Link
US (2) US10748321B2 (ja)
EP (2) EP3413167A1 (ja)
JP (1) JP7177606B2 (ja)
KR (1) KR20180133326A (ja)
CN (1) CN109005401A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119901A1 (ja) * 2021-12-20 2023-06-29 株式会社Psychic VR Lab 仮想現実表示装置、仮想現実表示システム、仮想現実表示プログラム、仮想現実表示プログラムが記録された記憶媒体、及び仮想現実表示方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3345184A1 (en) * 2015-09-02 2018-07-11 THOMSON Licensing Method, apparatus and system for facilitating navigation in an extended scene
US11595636B1 (en) * 2021-08-23 2023-02-28 At&T Intellectual Property I, L.P. Enhanced emotive engagement with volumetric content

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730877A (ja) * 1993-07-12 1995-01-31 Oki Electric Ind Co Ltd 多地点間マルチメディア通信会議システム
JPH1173289A (ja) * 1997-08-29 1999-03-16 Sanyo Electric Co Ltd 情報処理装置
US20170026577A1 (en) * 2015-06-30 2017-01-26 Nokia Technologies Oy Apparatus for video output and associated methods

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386799B1 (en) * 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
US8259117B2 (en) 2007-06-18 2012-09-04 Brian Mark Shuster Avatar eye control in a multi-user animation environment
JP5463412B2 (ja) 2009-04-28 2014-04-09 ホルテック・インターナショナル・インコーポレーテッド 高レベルの廃棄物を輸送および/または貯蔵するためのキャスク装置。
JP6040564B2 (ja) * 2012-05-08 2016-12-07 ソニー株式会社 画像処理装置、投影制御方法及びプログラム
CN105103198A (zh) 2013-04-04 2015-11-25 索尼公司 显示控制装置、显示控制方法以及程序
US9348411B2 (en) 2013-05-24 2016-05-24 Microsoft Technology Licensing, Llc Object display with visual verisimilitude
US9129430B2 (en) 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
KR20150022079A (ko) * 2013-08-22 2015-03-04 에스케이플래닛 주식회사 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
US20160027218A1 (en) * 2014-07-25 2016-01-28 Tom Salter Multi-user gaze projection using head mounted display devices
US9791917B2 (en) * 2015-03-24 2017-10-17 Intel Corporation Augmentation modification based on user interaction with augmented reality scene

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730877A (ja) * 1993-07-12 1995-01-31 Oki Electric Ind Co Ltd 多地点間マルチメディア通信会議システム
JPH1173289A (ja) * 1997-08-29 1999-03-16 Sanyo Electric Co Ltd 情報処理装置
US20170026577A1 (en) * 2015-06-30 2017-01-26 Nokia Technologies Oy Apparatus for video output and associated methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119901A1 (ja) * 2021-12-20 2023-06-29 株式会社Psychic VR Lab 仮想現実表示装置、仮想現実表示システム、仮想現実表示プログラム、仮想現実表示プログラムが記録された記憶媒体、及び仮想現実表示方法

Also Published As

Publication number Publication date
US10748321B2 (en) 2020-08-18
EP3413169A1 (en) 2018-12-12
JP7177606B2 (ja) 2022-11-24
US10964085B2 (en) 2021-03-30
US20200342650A1 (en) 2020-10-29
KR20180133326A (ko) 2018-12-14
EP3413167A1 (en) 2018-12-12
US20180350125A1 (en) 2018-12-06
CN109005401A (zh) 2018-12-14

Similar Documents

Publication Publication Date Title
US10796469B2 (en) Systems and methods for real-time complex character animations and interactivity
CN107801045B (zh) 当播放增强现实场景时自动变焦的方法、设备和系统
US9094576B1 (en) Rendered audiovisual communication
CN114615486B (zh) 用于生成合成流的方法、系统和计算机可读存储介质
US11010951B1 (en) Explicit eye model for avatar
CN113272870A (zh) 用于逼真的实时人像动画的系统和方法
US10964085B2 (en) Method and apparatus for inciting a viewer to rotate toward a reference direction when consuming an immersive content item
AU2021290132C1 (en) Presenting avatars in three-dimensional environments
US20190026935A1 (en) Method and system for providing virtual reality experience based on ultrasound data
US11062476B1 (en) Generating body pose information
JP2022550627A (ja) 拡張現実に基づいた表示方法、装置、及び記憶媒体
CN114514493A (zh) 增强设备
CN114026603B (zh) 渲染计算机生成现实文本
EP3133557A1 (en) Method, apparatus, and computer program product for personalized depth of field omnidirectional video
US11308669B1 (en) Shader for graphical objects
CN115150555B (zh) 视频录制方法、装置、设备及介质
KR20210067166A (ko) 가상콘텐츠 체험 시스템 및 그 제어방법
US11783514B2 (en) Generating content for physical elements
Huynh Development of a standardized framework for cost-effective communication system based on 3D data streaming and real-time 3D reconstruction

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221111

R150 Certificate of patent or registration of utility model

Ref document number: 7177606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150