JP7283388B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7283388B2 JP7283388B2 JP2019549905A JP2019549905A JP7283388B2 JP 7283388 B2 JP7283388 B2 JP 7283388B2 JP 2019549905 A JP2019549905 A JP 2019549905A JP 2019549905 A JP2019549905 A JP 2019549905A JP 7283388 B2 JP7283388 B2 JP 7283388B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- hand
- posture
- real
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
1.情報処理システムの構成
2.第1の実施形態
3.第2の実施形態
4.ハードウェア構成
5.変形例
まず、本開示の各実施形態に共通する情報処理システムの構成例について、図1を参照して説明する。図1に示すように、各実施形態に係る情報処理システムは、情報処理装置10、サーバ20、および、通信網22を有する。
情報処理装置10は、仮想オブジェクトを含むコンテンツの表示を制御する装置である。例えば、情報処理装置10は、当該コンテンツを、後述する表示部124に表示させる。当該コンテンツは、例えば、ARコンテンツ、または、VRコンテンツなどである。
サーバ20は、各種のコンテンツ(ARコンテンツやVRコンテンツなど)を管理する装置である。また、サーバ20は、通信網22を介して他の装置と通信を行うことが可能である。例えば、サーバ20は、情報処理装置10からコンテンツの取得要求を受信し、そして、当該取得要求に対応するコンテンツを情報処理装置10へ送信する。
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
まず、第1の実施形態について説明する。第1の実施形態では、ユーザが左右の手の動作により仮想オブジェクトの姿勢を変形する場面を想定する。また、第1の実施形態では、仮想オブジェクトは、複数の固定部と、隣接する二つの固定部ごとに当該二つの固定部を回転可能に連結する可動部とを有するデータとして構成されることを想定する。例えば、当該固定部は剛体であり、かつ、当該可動部は関節であり得る。一例として、仮想オブジェクトは、剛体-関節モデルを用いて構成される。さらに、当該仮想オブジェクトは、これらの剛体の各々、および、これらの関節の各々の接続関係を示すツリー構造を用いて構成されてもよい。なお、第1の実施形態において、ユーザの左手および右手のうちのいずれか一方は、本開示に係る第1の実オブジェクトの一例である。また、ユーザの左手および右手のうちのいずれか他方は、本開示に係る第2の実オブジェクトの一例である。
次に、第1の実施形態を創作するに至った背景について説明する。例えば図2に示したように、ユーザが左右の手の動作により仮想オブジェクトの姿勢を変形しようとする場面では、(例えばユーザが実オブジェクトの姿勢を手で変形する場合とは異なり)操作を行っている際にユーザの手の動きが物理的に拘束されない。このため、例えば、ユーザの手が、自分の意図する位置からずれてしまう等の理由により、仮想オブジェクトの姿勢がユーザの意図とは異なる姿勢に変形されてしまい得る。
次に、第1の実施形態に係る構成について説明する。図4は、第1の実施形態に係る情報処理装置10‐1の構成例を示した機能ブロック図である。図4に示すように、情報処理装置10‐1は、制御部100、通信部120、センサ部122、表示部124、および、記憶部126を有する。
センサ部122は、例えば、カメラ(イメージセンサ)、デプスセンサ(例えばtime of flight方式のセンサ、structured light方式のセンサ、または、ステレオカメラなど)、マイクロフォン、加速度センサ、ジャイロスコープ、地磁気センサ、および/または、GPS(Global Positioning System)受信機などを含み得る。
制御部100は、例えば、後述するCPU(Central Processing Unit)150やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。制御部100は、情報処理装置10の動作を統括的に制御する。また、図4に示すように、制御部100は、認識部102、情報取得部104、および、表示制御部106を有する。
認識部102は、センサ部122によるセンシング結果に基づいて、各種の認識処理を行う。例えば、認識部102は、センサ部122により撮影された画像に対して画像認識を行う。さらに、認識部102は、実空間内に存在する個々の実オブジェクトに関して、オブジェクトの種類(例えばユーザの手など)、位置、および、姿勢などを当該画像認識の結果に基づいて認識する。
情報取得部104は、表示部124により表示されている仮想オブジェクトの実空間内における位置情報、ユーザの左手の位置情報、および、ユーザの右手の位置情報を受信又は読出し処理などを行うことにより取得する。例えば、情報取得部104は、認識部102による認識結果と、センサ部122によりセンシングされたデプス情報とに基づいて、実空間におけるユーザの左手の位置情報、および、ユーザの右手の位置情報を特定することにより、当該左手の位置情報および当該右手の位置情報を取得する。また、情報取得部104は、表示部124における仮想オブジェクトの現在の表示位置に対応する実空間内における位置情報を特定(または取得)し、そして、特定(または取得)した位置情報を当該仮想オブジェクトの実空間内における位置情報として取得する。
表示制御部106は、表示部124に対する仮想オブジェクトの表示を制御する。例えば、表示制御部106は、情報取得部104により取得された、仮想オブジェクトの位置情報と、ユーザの左手の位置情報と、ユーザの右手の位置情報との関係性に対応する、姿勢の変更ルールに基づいて、当該仮想オブジェクトの姿勢を変更する。また、表示制御部106は、仮想オブジェクトの姿勢を変更する度に、当該変更後の仮想オブジェクトを表示部124に表示させる。
ここで、図5A~図7Bを参照して、上記の「姿勢変更対象の一以上の関節」の決定例について詳細に説明する。
例えば、表示制御部106は、仮想オブジェクトに含まれる複数の剛体のうち、一方の手で掴んだ剛体から、もう一方の手で掴んだ剛体までの範囲内に位置する全ての関節を当該姿勢変更対象の一以上の関節として決定し得る。一例として、図5Aに示したように、仮想オブジェクト30に含まれる複数の剛体300のうち、ユーザは、まず、剛体300cを左手2aで掴んだとする。その後、図5Bに示したように、ユーザは、別の剛体300aを右手2bで掴んだとする。この場合、表示制御部106は、剛体300cから剛体300aまでの範囲内に位置する全ての関節302(図5Bに示した例では、関節302aおよび関節302b)を当該姿勢変更対象の一以上の関節として決定してもよい。
または、表示制御部106は、一方の手で掴んだ第1の剛体と、もう一方の手で掴んだ第2の剛体とをつなぐ経路上の一以上の剛体の中に所定の剛体が存在するか否かに基づいて、当該姿勢変更対象の一以上の関節を決定してもよい。例えば、当該経路上の一以上の剛体の中に当該所定の剛体が存在する場合には、表示制御部106は、第1の剛体および第2の剛体のうち当該所定の剛体からより遠い方の剛体から当該所定の剛体までの範囲内に位置する全ての関節を当該姿勢変更対象の一以上の関節として決定する。また、当該経路上の一以上の剛体の中に当該所定の剛体が存在しない場合には、表示制御部106は、第1の剛体から第2の剛体までの範囲内に位置する全ての関節を当該姿勢変更対象の一以上の関節として決定する。ここで、当該所定の剛体は、例えば、ルートの剛体(当該仮想オブジェクトの腰部の剛体など)である。
または、表示制御部106は、姿勢が固定される剛体としてユーザにより指定された第1の剛体から、当該指定の後にユーザが掴んだ第2の剛体までの範囲内に位置する全ての関節を当該姿勢変更対象の一以上の関節として決定してもよい。ここで、当該第1の剛体の指定方法は、例えば、任意の指(人差し指など)の指先で該当の剛体を所定の時間以上継続して触ることであってもよいし、または、該当の剛体を指でつまむ動作をすることであってもよい。
次に、図8A~図10Dを参照して、上記の「姿勢変更対象の一以上の関節の姿勢の変更」に関する具体例について説明する。
一例として、当該姿勢変更対象の全ての関節の数が一つだけであり、かつ、当該姿勢変更対象の全ての関節の決定後にユーザの右手もしくは左手が動かされた場合には、表示制御部106は、移動された手が直前に接触していた剛体が、移動後の当該手の位置を向くように該当の関節の回転角度を変更してもよい。
また、当該姿勢変更対象の全ての関節の数が複数であり、かつ、当該姿勢変更対象の全ての関節の決定後にユーザの右手もしくは左手が動かされた場合には、表示制御部106は、移動された手が直前に接触していた剛体が、移動後の当該手の位置を向くように、当該姿勢変更対象の全ての関節の各々の回転角度を変更してもよい。
変形例として、表示部124に表示されている仮想オブジェクトに対してユーザの左手および右手の各々が接触したと判定された場合には、表示制御部106は、接触中であることを示す画像(例えば特定のエフェクトなど)を当該接触位置と関連付けてさらに表示部124に表示させてもよい。
通信部120は、例えば、後述する通信装置166を含んで構成され得る。通信部120は、制御部100の制御に従って、例えば通信網22を介して他の装置との間で各種の情報を送受信する。
表示部124は、例えば、後述する出力装置162を含んで構成され得る。例えば、表示部124は、透過型の表示装置(例えばプロジェクタなど)を含んで構成されてもよい。この場合、表示部124は、情報処理装置10‐1に含まれる右目用レンズおよび左目用レンズの各々(または、ゴーグル型レンズ)の少なくとも一部の領域を投影面として、表示制御部106の制御に従って映像を投影し得る。
記憶部126は、例えば、後述するストレージ装置164を含んで構成され得る。記憶部126は、各種のデータや、各種のソフトウェアを記憶する。
以上、第1の実施形態の構成について説明した。次に、第1の実施形態に係る処理の流れの一例について、図11および図12を参照して説明する。
{2-4-1.効果1}
以上説明したように、第1の実施形態に係る情報処理装置10‐1は、表示部124により表示されている仮想オブジェクトに対して、表示部124を利用するユーザの右手および左手が接触したと判定された後の当該ユーザの右手または左手の位置の変化に応じて、当該仮想オブジェクトの姿勢を変更する。このため、ユーザが左右の手の動作により仮想オブジェクトの姿勢を変形する場面において、ユーザの意図通りに仮想オブジェクトの姿勢を変形することができる。
さらに、第1の実施形態によれば、物理シミュレーションを使用しないので、計算コストを低く抑えることができる。
以上、第1の実施形態について説明した。ところで、ARコンテンツにおいて、ユーザが、仮想オブジェクトを実空間内の所望の場所に移動可能であることも望まれる。このような場合、ユーザの手間が少なく、かつ、配置場所に応じて仮想オブジェクトの姿勢や形状が適切に変更されて配置されることが望ましい。
まず、第2の実施形態に係る構成について説明する。図13は、第2の実施形態に係る情報処理装置10‐2の構成例を示した機能ブロック図である。図13に示すように、情報処理装置10‐2は、図4に示した情報処理装置10‐1と比較して、ポーズ選択部108をさらに有する。以下では、第1の実施形態と異なる機能を有する構成要素についてのみ説明を行うこととし、同様の内容については説明を省略する。
ポーズ選択部108は、配置先の実オブジェクトに接触していないと判定されていた仮想オブジェクトが当該配置先の実オブジェクト上に配置されるように移動された際に、当該配置先の実オブジェクト内の、当該仮想オブジェクトが接触したと判定された接触位置を含む領域(以下、配置領域と称する場合がある)の形状に応じて、当該配置領域への配置時の当該仮想オブジェクトの姿勢を決定する。例えば、この場合、ポーズ選択部108は、当該配置領域の形状、当該仮想オブジェクトの種類、および、当該配置領域における当該仮想オブジェクトの接触位置からの、当該仮想オブジェクトの移動を指示する手の高さに応じて、当該配置領域への配置時の当該仮想オブジェクトの姿勢を決定する。一例として、当該配置領域の形状が平面であり、かつ、当該仮想オブジェクトが人型のオブジェクトである場合には、ポーズ選択部108は、当該接触位置からの、当該仮想オブジェクトの移動を指示する手の高さに応じて、当該領域上に当該仮想オブジェクトが立つ姿勢または当該領域上に当該仮想オブジェクトが座る姿勢になるように、当該仮想オブジェクトの姿勢を変更してもよい。
ポーズデータDB128は、仮想オブジェクトごとに、配置領域の形状と、当該仮想オブジェクトが当該配置領域に配置された際の当該仮想オブジェクトの姿勢(ポーズデータ)とが関連付けられているデータベースである。例えば、ポーズデータDB128では、仮想オブジェクトの種類、配置領域の形状、および、配置領域からの当該仮想オブジェクトの高さの指示情報の組み合わせと、当該配置領域への配置時の当該仮想オブジェクトのポーズデータとが関連付けられている。
ここで、図14~図17を参照して、上記の仮想オブジェクトの姿勢の変更例について具体的に説明する。なお、図14~図17では、仮想オブジェクトが人型のオブジェクトである例を示している。
変形例として、仮想オブジェクト30が横にされた状態で平面の領域400上に配置されるように仮想オブジェクト30が移動された場合には、ポーズ選択部108は、仮想オブジェクト30が領域400上で寝る姿勢を、配置時の姿勢として決定してもよい。
第2の実施形態に係る表示制御部106は、仮想オブジェクトが配置先の実オブジェクト上に配置されるように移動された際に、当該仮想オブジェクトの姿勢を、ポーズ選択部108により選択された姿勢に変更する。例えば、図14に示したように、ユーザが片手2で仮想オブジェクト30を掴んだ状態で、実オブジェクト40の平面領域400上に仮想オブジェクト30を配置するように移動したとする。この場合、表示制御部106は、図14に示したように、(ポーズ選択部108により選択された)平面領域400上に立つ姿勢になるように、仮想オブジェクト30の姿勢を変更する。
以上、第2の実施形態の構成について説明した。次に、第2の実施形態に係る処理の流れの一例について、図18および図19を参照して説明する。ここでは、仮想オブジェクトが表示部124に表示されている場面を想定する。
以上説明したように、第2の実施形態に係る情報処理装置10‐2は、仮想オブジェクトが、配置先の実オブジェクトに接触していると判定されるまでユーザの手の動作に基づいて移動された際に、当該配置先の実オブジェクト内の配置領域の形状と当該仮想オブジェクトの種類とに応じた姿勢になるように当該仮想オブジェクトの姿勢を変更する。このため、ユーザが仮想オブジェクトを実オブジェクト上に配置する場面において、当該仮想オブジェクトの姿勢を配置先の実オブジェクトに応じて適切に変更することができる。
{3-4-1.変形例1}
なお、第2の実施形態は前述した例に限定されない。変形例として、仮想オブジェクトが配置先の実オブジェクト上に配置される際に、表示制御部106は、当該仮想オブジェクトの姿勢を変更するだけでなく、当該仮想オブジェクトの外観やサイズを当該配置先の実オブジェクトに応じてさらに変更してもよい。または、表示制御部106は、別の仮想オブジェクトを例えば当該配置先の実オブジェクト上にさらに表示させてもよい。または、表示制御部106は、当該配置先の実オブジェクトに応じて、当該仮想オブジェクトが動くアニメーションを表示部124にさらに表示させてもよい。
別の変形例として、仮想オブジェクトが配置先の実オブジェクト上に配置される際に、表示制御部106は、変更後の当該仮想オブジェクトの姿勢の複数の候補を表示部124に表示させ、かつ、当該複数の候補のうちのいずれかを例えば指差しや視線ジェスチャーなどによりユーザに選択させてもよい。この場合、表示制御部106は、ユーザに選択された候補に対応する姿勢に、当該仮想オブジェクトの姿勢を変更し得る。
別の変形例として、仮想オブジェクトが配置先の実オブジェクト上に配置される際または配置後に、表示制御部106は、さらにユーザの状態の認識結果に基づいて当該仮想オブジェクトの姿勢を変更してもよい。例えば、仮想オブジェクトが配置先の実オブジェクト上に配置された直後に、認識部102は、センサ部122または環境内の所定のセンサによるセンシング結果に基づいて、ユーザの顔の向きを認識し得る。この場合、表示制御部106は、認識されたユーザの方向を当該仮想オブジェクトの全身が向くように当該仮想オブジェクトの姿勢を変更してもよい。または、当該仮想オブジェクトが人型のオブジェクトである場合などには、表示制御部106は、(当該仮想オブジェクトの胴体の姿勢は変えずに)当該仮想オブジェクトの顔だけが当該ユーザの方向を向くように当該仮想オブジェクトの姿勢を変更してもよい。
次に、各実施形態に係る情報処理装置10のハードウェア構成について、図20を参照して説明する。図20に示すように、情報処理装置10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および、通信装置166を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
前述した各実施形態では、情報処理装置10が表示部124を含む例について説明したが、かかる例に限定されない。例えば、情報処理装置10と表示部124とは別個の装置として構成され、かつ、情報処理装置10と表示部124とは例えば無線通信により通信可能なように構成されてもよい。この場合、情報処理装置10は、例えば、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、スピーカ、車載装置(カーナビゲーション装置など)、または、ロボット(例えばヒューマノイド型ロボットなど)などであってもよい。または、情報処理装置10は、サーバ20と一体的に構成されてもよい。
また、前述した各実施形態の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得する情報取得部と、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢を変更する表示制御部と、
を備える、情報処理装置。
(2)
前記第1の実オブジェクトは、前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記ユーザの第2の手であり、
前記表示制御部は、前記第1の手および前記第2の手が前記仮想オブジェクトに接触したと判定された後の前記第1の手または前記第2の手の位置の変化に応じて、前記仮想オブジェクトの姿勢を変更する、前記(1)に記載の情報処理装置。
(3)
前記仮想オブジェクトは、複数の固定部と、隣接する二つの前記固定部ごとに当該二つの固定部を回転可能に連結する可動部と、を有し、
前記表示制御部は、前記仮想オブジェクトに対して前記第1の手が接触したと判定された際の前記仮想オブジェクトにおける前記第1の手の第1の接触位置と、前記仮想オブジェクトに対して前記第2の手が接触したと判定された際の前記仮想オブジェクトにおける前記第2の手の第2の接触位置との関係性に基づいて、前記仮想オブジェクトのうち姿勢変更対象の一以上の可動部を決定し、かつ、
前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて、前記姿勢変更対象の一以上の可動部の姿勢を変更することにより、前記仮想オブジェクトの姿勢を変更する、前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記第1の接触位置に対応する第1の固定部と、前記第2の接触位置に対応する第2の固定部との位置関係に基づいて前記姿勢変更対象の一以上の可動部を決定し、
前記姿勢変更対象の一以上の可動部と、前記姿勢変更対象の一以上の可動部の各々に連結している複数の固定部とは、ひとつながりで連結されている、前記(3)に記載の情報処理装置。
(5)
前記表示制御部は、さらに、前記第1の固定部と前記第2の固定部とをつなぐ経路上の一以上の固定部の中に所定の固定部が存在するか否かに基づいて、前記姿勢変更対象の一以上の可動部を決定する、前記(4)に記載の情報処理装置。
(6)
前記第1の固定部と前記第2の固定部とをつなぐ経路上の一以上の固定部の中に前記所定の固定部が存在する場合には、前記表示制御部は、前記第1の固定部および前記第2の固定部のうち前記所定の固定部からより遠い方の固定部から前記所定の固定部までの範囲内に位置する一以上の可動部を前記姿勢変更対象の一以上の可動部として決定し、
前記第1の固定部と前記第2の固定部とをつなぐ経路上の一以上の固定部の中に前記所定の固定部が存在しない場合には、前記表示制御部は、前記第1の固定部から前記第2の固定部までの範囲内に位置する一以上の可動部を前記姿勢変更対象の一以上の可動部として決定する、前記(5)に記載の情報処理装置。
(7)
前記表示制御部は、前記姿勢変更対象の一以上の可動部のうちの第1の端の可動部に連結する第3の固定部の姿勢を固定し、かつ、
前記姿勢変更対象の一以上の可動部の各々の回転角度を、前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて変更することにより、前記仮想オブジェクトの姿勢を変更する、前記(4)~(6)のいずれか一項に記載の情報処理装置。
(8)
前記表示制御部は、さらに、前記姿勢変更対象の一以上の可動部のうち、前記第1の端の反対側の第2の端の可動部に連結する第4の固定部の位置および姿勢を、前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて変更することにより、前記仮想オブジェクトの姿勢を変更する、前記(7)に記載の情報処理装置。
(9)
前記第3の固定部および前記第4の固定部のうちのいずれかは、前記第1の固定部および前記第2の固定部のうちのいずれかと同一である、前記(8)に記載の情報処理装置。
(10)
前記第1の固定部は、前記仮想オブジェクトに含まれる前記複数の固定部のうち、前記第1の手が最初に掴んだと判定された一つの固定部であり、
前記第2の固定部は、前記仮想オブジェクトに含まれる前記複数の固定部のうち、前記第2の手が最初に掴んだと判定された一つの固定部である、前記(9)に記載の情報処理装置。
(11)
前記第1の実オブジェクトは、前記仮想オブジェクトの位置情報の変更を指示している前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記仮想オブジェクトの位置情報の変更を指示していない前記ユーザの第2の手、または、前記ユーザとは異なる実オブジェクトであり、
前記第2の実オブジェクトに対して前記仮想オブジェクトが接触するように移動された際に、前記表示制御部は、前記第2の実オブジェクト内の、前記仮想オブジェクトが接触したと判定された第3の接触位置を含む領域の形状に応じて、前記仮想オブジェクトの姿勢を変更する、前記(2)に記載の情報処理装置。
(12)
前記表示制御部は、さらに前記仮想オブジェクトの種類に応じて、前記仮想オブジェクトの姿勢を変更する、前記(11)に記載の情報処理装置。
(13)
前記仮想オブジェクトは、前記第1の手の位置の変化に応じて移動され、
前記仮想オブジェクトの位置情報の変更の指示は、前記第2の実オブジェクトに非接触であると判定されていた前記仮想オブジェクトが前記第2の実オブジェクトに接触したと判定されるまで前記仮想オブジェクトを移動させることを含む、前記(12)に記載の情報処理装置。
(14)
前記表示制御部は、前記仮想オブジェクトが前記第2の実オブジェクトに接触したと判定されるまで前記仮想オブジェクトが移動された際の、前記第3の接触位置からの前記第1の手の位置の高さにさらに応じて、前記仮想オブジェクトの姿勢を変更する、前記(13)に記載の情報処理装置。
(15)
前記第3の接触位置を含む領域の形状が平面である場合には、前記表示制御部は、前記仮想オブジェクトの種類と、前記第3の接触位置からの前記第1の手の高さとに応じて、当該領域上に前記仮想オブジェクトが立つ姿勢または当該領域上に前記仮想オブジェクトが座る姿勢になるように前記仮想オブジェクトの姿勢を変更する、前記(14)に記載の情報処理装置。
(16)
前記第3の接触位置を含む領域の形状がエッジを含む場合には、前記表示制御部は、当該領域上に前記仮想オブジェクトが座る姿勢になるように前記仮想オブジェクトの姿勢を変更する、前記(13)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記表示制御部は、前記仮想オブジェクトの姿勢を変更する度に、当該変更後の前記仮想オブジェクトを前記表示部に表示させる、前記(9)または(10)に記載の情報処理装置。
(18)
前記実空間のセンシング結果に基づいて、前記第1の手および前記第2の手を認識する認識部と、
前記表示部と、をさらに備え、
前記情報処理装置は、頭部装着型の装置である、前記(17)に記載の情報処理装置。
(19)
表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得することと、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢をプロセッサが変更することと、
を含む、情報処理方法。
(20)
コンピュータを、
表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得する情報取得部と、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢を変更する表示制御部、
として機能させるためのプログラム。
20 サーバ
22 通信網
30 仮想オブジェクト
100 制御部
102 認識部
104 情報取得部
106 表示制御部
108 ポーズ選択部
120 通信部
122 センサ部
124 表示部
126 記憶部
128 ポーズデータDB
Claims (15)
- 表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得する情報取得部と、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢を変更する表示制御部と、
を備え、
前記第1の実オブジェクトは、前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記ユーザの第2の手であり、
前記表示制御部は、前記第1の手および前記第2の手が前記仮想オブジェクトに接触したと判定された後の前記第1の手または前記第2の手の位置の変化に応じて、前記仮想オブジェクトの姿勢を変更し、
前記仮想オブジェクトは、複数の固定部と、隣接する二つの前記固定部ごとに当該二つの固定部を回転可能に連結する可動部と、を有し、
前記表示制御部は、前記仮想オブジェクトに対して前記第1の手が接触したと判定された際の前記仮想オブジェクトにおける前記第1の手の第1の接触位置と、前記仮想オブジェクトに対して前記第2の手が接触したと判定された際の前記仮想オブジェクトにおける前記第2の手の第2の接触位置との関係性に基づいて、前記仮想オブジェクトのうち姿勢変更対象の一以上の可動部を決定し、かつ、
前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて、前記姿勢変更対象の一以上の可動部の姿勢を変更することにより、前記仮想オブジェクトの姿勢を変更する、
情報処理装置。 - 前記表示制御部は、前記第1の接触位置に対応する第1の固定部と、前記第2の接触位置に対応する第2の固定部との位置関係に基づいて前記姿勢変更対象の一以上の可動部を決定し、
前記姿勢変更対象の一以上の可動部と、前記姿勢変更対象の一以上の可動部の各々に連結している複数の固定部とは、ひとつながりで連結されている、
請求項1に記載の情報処理装置。 - 前記表示制御部は、さらに、前記第1の固定部と前記第2の固定部とをつなぐ経路上の一以上の固定部の中に所定の固定部が存在するか否かに基づいて、前記姿勢変更対象の一以上の可動部を決定する、
請求項2に記載の情報処理装置。 - 前記第1の固定部と前記第2の固定部とをつなぐ経路上の一以上の固定部の中に前記所定の固定部が存在する場合には、前記表示制御部は、前記第1の固定部および前記第2の固定部のうち前記所定の固定部からより遠い方の固定部から前記所定の固定部までの範囲内に位置する一以上の可動部を前記姿勢変更対象の一以上の可動部として決定し、
前記第1の固定部と前記第2の固定部とをつなぐ経路上の一以上の固定部の中に前記所定の固定部が存在しない場合には、前記表示制御部は、前記第1の固定部から前記第2の固定部までの範囲内に位置する一以上の可動部を前記姿勢変更対象の一以上の可動部として決定する、
請求項3に記載の情報処理装置。 - 前記表示制御部は、前記姿勢変更対象の一以上の可動部のうちの第1の端の可動部に連結する第3の固定部の姿勢を固定し、かつ、
前記姿勢変更対象の一以上の可動部の各々の回転角度を、前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて変更することにより、前記仮想オブジェクトの姿勢を変更する、
請求項2に記載の情報処理装置。 - 前記表示制御部は、さらに、前記姿勢変更対象の一以上の可動部のうち、前記第1の端の反対側の第2の端の可動部に連結する第4の固定部の位置および姿勢を、前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて変更することにより、前記仮想オブジェクトの姿勢を変更する、
請求項5に記載の情報処理装置。 - 前記第3の固定部および前記第4の固定部のうちのいずれかは、前記第1の固定部および前記第2の固定部のうちのいずれかと同一である、
請求項6に記載の情報処理装置。 - 前記第1の固定部は、前記仮想オブジェクトに含まれる前記複数の固定部のうち、前記第1の手が最初に掴んだと判定された一つの固定部であり、
前記第2の固定部は、前記仮想オブジェクトに含まれる前記複数の固定部のうち、前記第2の手が最初に掴んだと判定された一つの固定部である、
請求項7に記載の情報処理装置。 - 表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得する情報取得部と、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢を変更する表示制御部と、
を備え、
前記第1の実オブジェクトは、前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記ユーザの第2の手であり、
前記表示制御部は、前記第1の手および前記第2の手が前記仮想オブジェクトに接触したと判定された後の前記第1の手または前記第2の手の位置の変化に応じて、前記仮想オブジェクトの姿勢を変更し、
前記第1の実オブジェクトは、前記仮想オブジェクトの位置情報の変更を指示している前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記仮想オブジェクトの位置情報の変更を指示していない前記ユーザの第2の手、または、前記ユーザとは異なる実オブジェクトであり、
前記第2の実オブジェクトに対して前記仮想オブジェクトが接触するように移動された際に、前記表示制御部は、前記第2の実オブジェクト内の、前記仮想オブジェクトが接触したと判定された第3の接触位置を含む領域の形状に応じて、前記仮想オブジェクトの姿勢を変更し、
前記表示制御部は、さらに前記仮想オブジェクトの種類に応じて、前記仮想オブジェクトの姿勢を変更し、
前記仮想オブジェクトは、前記第1の手の位置の変化に応じて移動され、
前記仮想オブジェクトの位置情報の変更の指示は、前記第2の実オブジェクトに非接触であると判定されていた前記仮想オブジェクトが前記第2の実オブジェクトに接触したと判定されるまで前記仮想オブジェクトを移動させることを含み、
前記表示制御部は、前記仮想オブジェクトが前記第2の実オブジェクトに接触したと判定されるまで前記仮想オブジェクトが移動された際の、前記第3の接触位置からの前記第1の手の位置の高さにさらに応じて、前記仮想オブジェクトの姿勢を変更する、
情報処理装置。 - 前記第3の接触位置を含む領域の形状が平面である場合には、前記表示制御部は、前記仮想オブジェクトの種類と、前記第3の接触位置からの前記第1の手の高さとに応じて、当該領域上に前記仮想オブジェクトが立つ姿勢または当該領域上に前記仮想オブジェクトが座る姿勢になるように前記仮想オブジェクトの姿勢を変更する、
請求項9に記載の情報処理装置。 - 表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得する情報取得部と、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢を変更する表示制御部と、
を備え、
前記第1の実オブジェクトは、前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記ユーザの第2の手であり、
前記表示制御部は、前記第1の手および前記第2の手が前記仮想オブジェクトに接触したと判定された後の前記第1の手または前記第2の手の位置の変化に応じて、前記仮想オブジェクトの姿勢を変更し、
前記第1の実オブジェクトは、前記仮想オブジェクトの位置情報の変更を指示している前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記仮想オブジェクトの位置情報の変更を指示していない前記ユーザの第2の手、または、前記ユーザとは異なる実オブジェクトであり、
前記第2の実オブジェクトに対して前記仮想オブジェクトが接触するように移動された際に、前記表示制御部は、前記第2の実オブジェクト内の、前記仮想オブジェクトが接触したと判定された第3の接触位置を含む領域の形状に応じて、前記仮想オブジェクトの姿勢を変更し、
前記表示制御部は、さらに前記仮想オブジェクトの種類に応じて、前記仮想オブジェクトの姿勢を変更し、
前記仮想オブジェクトは、前記第1の手の位置の変化に応じて移動され、
前記仮想オブジェクトの位置情報の変更の指示は、前記第2の実オブジェクトに非接触であると判定されていた前記仮想オブジェクトが前記第2の実オブジェクトに接触したと判定されるまで前記仮想オブジェクトを移動させることを含み、
前記第3の接触位置を含む領域の形状がエッジを含む場合には、前記表示制御部は、当該領域上に前記仮想オブジェクトが座る姿勢になるように前記仮想オブジェクトの姿勢を変更する、
情報処理装置。 - 表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得する情報取得部と、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢を変更する表示制御部と、
を備え、
前記第1の実オブジェクトは、前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記ユーザの第2の手であり、
前記表示制御部は、前記第1の手および前記第2の手が前記仮想オブジェクトに接触したと判定された後の前記第1の手または前記第2の手の位置の変化に応じて、前記仮想オブジェクトの姿勢を変更し、
前記仮想オブジェクトは、複数の固定部と、隣接する二つの前記固定部ごとに当該二つの固定部を回転可能に連結する可動部と、を有し、
前記表示制御部は、前記仮想オブジェクトに対して前記第1の手が接触したと判定された際の前記仮想オブジェクトにおける前記第1の手の第1の接触位置と、前記仮想オブジェクトに対して前記第2の手が接触したと判定された際の前記仮想オブジェクトにおける前記第2の手の第2の接触位置との関係性に基づいて、前記仮想オブジェクトのうち姿勢変更対象の一以上の可動部を決定し、かつ、
前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて、前記姿勢変更対象の一以上の可動部の姿勢を変更することにより、前記仮想オブジェクトの姿勢を変更し、
前記表示制御部は、前記第1の接触位置に対応する第1の固定部と、前記第2の接触位置に対応する第2の固定部との位置関係に基づいて前記姿勢変更対象の一以上の可動部を決定し、
前記姿勢変更対象の一以上の可動部と、前記姿勢変更対象の一以上の可動部の各々に連結している複数の固定部とは、ひとつながりで連結されており、
前記表示制御部は、前記姿勢変更対象の一以上の可動部のうちの第1の端の可動部に連結する第3の固定部の姿勢を固定し、かつ、
前記姿勢変更対象の一以上の可動部の各々の回転角度を、前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて変更することにより、前記仮想オブジェクトの姿勢を変更し、
前記表示制御部は、さらに、前記姿勢変更対象の一以上の可動部のうち、前記第1の端の反対側の第2の端の可動部に連結する第4の固定部の位置および姿勢を、前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて変更することにより、前記仮想オブジェクトの姿勢を変更し、
前記第3の固定部および前記第4の固定部のうちのいずれかは、前記第1の固定部および前記第2の固定部のうちのいずれかと同一であり、
前記表示制御部は、前記仮想オブジェクトの姿勢を変更する度に、当該変更後の前記仮想オブジェクトを前記表示部に表示させる、
情報処理装置。 - 前記実空間のセンシング結果に基づいて、前記第1の手および前記第2の手を認識する認識部と、
前記表示部と、をさらに備え、
前記情報処理装置は、頭部装着型の装置である、
請求項12に記載の情報処理装置。 - 表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得することと、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢をプロセッサが変更することと、
を含み、
前記第1の実オブジェクトは、前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記ユーザの第2の手であり、
前記第1の手および前記第2の手が前記仮想オブジェクトに接触したと判定された後の前記第1の手または前記第2の手の位置の変化に応じて、前記仮想オブジェクトの姿勢を変更し、
前記仮想オブジェクトは、複数の固定部と、隣接する二つの前記固定部ごとに当該二つの固定部を回転可能に連結する可動部と、を有し、
前記仮想オブジェクトに対して前記第1の手が接触したと判定された際の前記仮想オブジェクトにおける前記第1の手の第1の接触位置と、前記仮想オブジェクトに対して前記第2の手が接触したと判定された際の前記仮想オブジェクトにおける前記第2の手の第2の接触位置との関係性に基づいて、前記仮想オブジェクトのうち姿勢変更対象の一以上の可動部を決定し、かつ、
前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて、前記姿勢変更対象の一以上の可動部の姿勢を変更することにより、前記仮想オブジェクトの姿勢を変更する、
情報処理方法。 - コンピュータを、
表示部により表示されている仮想オブジェクトの実空間内における位置情報、ユーザに関連する第1の実オブジェクトの位置情報、および、前記実空間内の第2の実オブジェクトの位置情報を取得する情報取得部と、
前記仮想オブジェクトの位置情報と、前記第1の実オブジェクトの位置情報と、前記第2の実オブジェクトの位置情報との関係性に対応する、姿勢の変更ルールに基づいて、前記仮想オブジェクトの姿勢を変更する表示制御部、
として機能させるためのプログラムであって、
前記第1の実オブジェクトは、前記ユーザの第1の手であり、
前記第2の実オブジェクトは、前記ユーザの第2の手であり、
前記表示制御部は、前記第1の手および前記第2の手が前記仮想オブジェクトに接触したと判定された後の前記第1の手または前記第2の手の位置の変化に応じて、前記仮想オブジェクトの姿勢を変更し、
前記仮想オブジェクトは、複数の固定部と、隣接する二つの前記固定部ごとに当該二つの固定部を回転可能に連結する可動部と、を有し、
前記表示制御部は、前記仮想オブジェクトに対して前記第1の手が接触したと判定された際の前記仮想オブジェクトにおける前記第1の手の第1の接触位置と、前記仮想オブジェクトに対して前記第2の手が接触したと判定された際の前記仮想オブジェクトにおける前記第2の手の第2の接触位置との関係性に基づいて、前記仮想オブジェクトのうち姿勢変更対象の一以上の可動部を決定し、かつ、
前記姿勢変更対象の一以上の可動部の決定後における前記第1の手または前記第2の手の位置の変化に応じて、前記姿勢変更対象の一以上の可動部の姿勢を変更することにより、前記仮想オブジェクトの姿勢を変更する、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017211645 | 2017-11-01 | ||
JP2017211645 | 2017-11-01 | ||
PCT/JP2018/032795 WO2019087564A1 (ja) | 2017-11-01 | 2018-09-05 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019087564A1 JPWO2019087564A1 (ja) | 2020-11-26 |
JP7283388B2 true JP7283388B2 (ja) | 2023-05-30 |
Family
ID=66331658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019549905A Active JP7283388B2 (ja) | 2017-11-01 | 2018-09-05 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11049325B2 (ja) |
JP (1) | JP7283388B2 (ja) |
CN (1) | CN111263956B (ja) |
WO (1) | WO2019087564A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020113094A (ja) * | 2019-01-15 | 2020-07-27 | 株式会社シーエスレポーターズ | 拡張現実空間に配置される3dオブジェクトを生成する方法 |
US11943519B2 (en) * | 2019-07-01 | 2024-03-26 | Sony Interactive Entertainment Inc. | Information processing device, information processing method, and program |
KR102702585B1 (ko) * | 2019-12-03 | 2024-09-04 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US11947119B2 (en) * | 2020-02-17 | 2024-04-02 | Sony Group Corporation | Display control device, display control method, and recording medium |
US11617953B2 (en) * | 2020-10-09 | 2023-04-04 | Contact Control Interfaces, Llc. | Virtual object interaction scripts |
JP7126583B1 (ja) | 2021-03-31 | 2022-08-26 | 株式会社コーエーテクモゲームス | ゲームプログラム、記録媒体、ゲーム処理方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002112286A (ja) | 2000-09-27 | 2002-04-12 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及びその方法並びに記憶媒体 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX2012010238A (es) * | 2010-03-05 | 2013-01-18 | Sony Comp Entertainment Us | Mantenimiento de vistas multiples en un espacio virtual estable compartido. |
US9383895B1 (en) * | 2012-05-05 | 2016-07-05 | F. Vinayak | Methods and systems for interactively producing shapes in three-dimensional space |
US9529513B2 (en) * | 2013-08-05 | 2016-12-27 | Microsoft Technology Licensing, Llc | Two-hand interaction with natural user interface |
JP6609988B2 (ja) * | 2015-05-18 | 2019-11-27 | セイコーエプソン株式会社 | 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム |
US9696795B2 (en) * | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10776618B2 (en) * | 2015-11-19 | 2020-09-15 | Lg Electronics Inc. | Mobile terminal and control method therefor |
US10643390B2 (en) * | 2016-03-30 | 2020-05-05 | Seiko Epson Corporation | Head mounted display, method for controlling head mounted display, and computer program |
-
2018
- 2018-09-05 US US16/759,055 patent/US11049325B2/en active Active
- 2018-09-05 CN CN201880068854.XA patent/CN111263956B/zh active Active
- 2018-09-05 JP JP2019549905A patent/JP7283388B2/ja active Active
- 2018-09-05 WO PCT/JP2018/032795 patent/WO2019087564A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002112286A (ja) | 2000-09-27 | 2002-04-12 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及びその方法並びに記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN111263956B (zh) | 2024-08-02 |
US11049325B2 (en) | 2021-06-29 |
WO2019087564A1 (ja) | 2019-05-09 |
US20200372716A1 (en) | 2020-11-26 |
CN111263956A (zh) | 2020-06-09 |
JPWO2019087564A1 (ja) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7283388B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7543466B2 (ja) | 眼追跡較正技術 | |
US11935205B2 (en) | Mission driven virtual character for user interaction | |
US10198855B2 (en) | Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods | |
CN106873767B (zh) | 一种虚拟现实应用的运行控制方法和装置 | |
US10540941B2 (en) | Eclipse cursor for mixed reality displays | |
US10943382B2 (en) | Virtual reality | |
US20150070274A1 (en) | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements | |
JP2022549853A (ja) | 共有空間内の個々の視認 | |
CN111158469A (zh) | 视角切换方法、装置、终端设备及存储介质 | |
US11574416B2 (en) | Generating body pose information | |
WO2018004776A1 (en) | Virtual manipulator rendering | |
JP2018190196A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
KR101962464B1 (ko) | 손동작 매크로 기능을 이용하여 다중 메뉴 및 기능 제어를 위한 제스처 인식 장치 | |
Mentzelopoulos et al. | Hardware interfaces for VR applications: evaluation on prototypes | |
US11430170B1 (en) | Controlling joints using learned torques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230501 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7283388 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |