JPWO2018173399A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2018173399A1 JPWO2018173399A1 JP2019506942A JP2019506942A JPWO2018173399A1 JP WO2018173399 A1 JPWO2018173399 A1 JP WO2018173399A1 JP 2019506942 A JP2019506942 A JP 2019506942A JP 2019506942 A JP2019506942 A JP 2019506942A JP WO2018173399 A1 JPWO2018173399 A1 JP WO2018173399A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- real space
- content
- information
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 60
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 230000009471 action Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 abstract description 39
- 238000004891 communication Methods 0.000 description 35
- 238000012986 modification Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 15
- 239000000463 material Substances 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 238000000034 method Methods 0.000 description 10
- 230000000052 comparative effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000001012 protector Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 230000003387 muscular Effects 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical group [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0167—Emergency system, e.g. to prevent injuries
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
まず、本開示の実施形態に係る情報処理システムの構成例について、図1を参照して説明する。図1に示すように、本実施形態に係る情報処理システムは、サーバ10、クライアント端末20、および、通信網22を有する。
クライアント端末20は、例えばVRコンテンツなどのコンテンツの表示を制御する装置である。例えば、図1に示したように、部屋2の中に位置する各ユーザ4は、表示部224を装着し得る。この場合、クライアント端末20は、VRコンテンツを表示部224に表示させる。なお、クライアント端末20は、部屋2の中に配置されてもよいし、または、表示部224と有線または無線により通信可能な、部屋2から離れた場所に配置されてもよい。
ここで、図2を参照して、クライアント端末20の機能構成の例について説明する。図2に示したように、クライアント端末20は、制御部200、通信部220、入力部222、表示部224、音声出力部226、センサ部228、および、記憶部230を含む。なお、かかる例に限定されず、入力部222、表示部224、音声出力部226、および、センサ部228のうちの一以上は、クライアント端末20に含まれる代わりに、クライアント端末20と通信可能な別の装置として構成されてもよい。
センサ部228は、カメラ(イメージセンサ)を有し得る。また、センサ部228は、例えばユーザからの距離を測定するための距離センサ(例えば、ステレオカメラや、デプスセンサなど)を有し得る。また、センサ部228は、加速度センサ、ジャイロセンサ、温度計、発汗センサ、(例えば脈拍などを測定する)生体センサ、および/または、マイクロフォンをさらに有してもよい。
制御部200は、クライアント端末20に内蔵される例えばCPU(Central Processing Unit)やRAM(Random Access Memory)などを用いて、クライアント端末20の動作を統括的に制御する。また、図2に示すように、制御部200は、センシング結果取得部202、コンテンツ情報取得部204、コンテキスト情報取得部206、端末情報取得部208、および、ユーザ情報取得部210を有する。
センシング結果取得部202は、センサ部228によるセンシング結果を取得する。例えば、センシング結果取得部202は、(センサ部228の)カメラにより撮像されたユーザの身体の画像、および、(センサ部228の)距離センサにより測定された距離画像を取得する。また、センシング結果取得部202は、センサ部228(温感センサ、発汗センサ、生体センサ、マイクロフォン、または、カメラなど)によりセンシングされたユーザの身体の状態情報(例えば、脈拍の速さ、瞳孔の開き具合、体温、発汗の度合い、緊張の度合いなど)を取得する。
コンテンツ情報取得部204は、ユーザが利用中のVRコンテンツに関する情報(以下、コンテンツ情報と称する)を取得する。図6は、コンテンツ情報の一例(コンテンツ情報42)を示した説明図である。図6に示したように、コンテンツ情報42は、コンテンツの種類420、別ユーザとの接触時の危険度合い422、ユーザの動きの想定情報424、および、コンテンツを同時に利用中のユーザ数426を含む。ここで、ユーザの動きの想定情報424には、例えばコンテンツ制作者により設定されたユーザの動きの想定情報(例えば、ユーザの動きの想定範囲、ユーザの動きの想定スピード、ユーザの動きの想定頻度、または、動きが生じ得る身体の部位など)が格納される。
コンテキスト情報取得部206は、現在のコンテキスト情報を取得する。ここで、コンテキスト情報は、例えばVRコンテンツにおける再生中のシーンの情報などを含み得る。
端末情報取得部208は、クライアント端末20に関する情報(以下、端末情報と称する)を取得する。ここで、端末情報は、例えば、クライアント端末20の種類、クライアント端末20の設置位置を示す情報、および/または、クライアント端末20の構成情報(例えば、外界のセンシングデバイス(例えばカメラ、マイクロフォン、赤外線センサなど)の有無や、有しているセンシングデバイスの種類など)などを含み得る。
ユーザ情報取得部210は、VRコンテンツを利用中のユーザに関する情報(以下、ユーザ情報と称する)を取得する。ここで、ユーザ情報は、ユーザのID、氏名、年齢、ユーザの身体情報、および、ユーザの外観情報(例えば、特別のデバイス(プロテクターなど)の装着の有無など)を含み得る。例えば、ユーザのID、氏名、年齢などは、記憶部230に登録されていてもよいし、または、サーバ10に登録されていてもよい。また、ユーザの身体情報は、例えば、ユーザの身長、腕の長さ、および/または、筋力の情報などを含む。なお、ユーザの身長、および、腕の長さは、例えば、(センサ部228の)カメラによるセンシング結果に基づいて特定され得る。
通信部220は、他の装置との間で情報の送受信を行う。例えば、通信部220は、制御部200の制御に従って、センシング結果取得部202により取得された各種のセンシング結果、コンテンツ情報取得部204により取得されたコンテンツ情報、コンテキスト情報取得部206により取得されたコンテキスト情報、端末情報取得部208により取得された端末情報、および、ユーザ情報取得部210により取得されたユーザ情報をサーバ10へ送信する。また、詳細については後述するように、通信部220は、表示部224に対する表示の制御情報や、音声出力部226に対する音声の出力制御情報をサーバ10から受信する。
入力部222は、タッチパネル、ボタン、レバー、スイッチなどを含み得る。例えば、入力部222は、クライアント端末20と有線または無線により通信可能なコントローラであってもよい。
表示部224は、制御部200の制御に従って、映像を表示する。表示部224は、非透過型の表示装置として構成され得る。例えば、表示部224は、LCD(Liquid Crystal Display)、または、OLED(Organic Light Emitting Diode)などを含んで構成され得る。なお、この場合、センサ部228(カメラ)により撮影される、ユーザの前方の映像が表示部224に表示されてもよい。
音声出力部226は、制御部200の制御に従って、音声を出力する。音声出力部226は、例えば、スピーカー、イヤフォン、または、ヘッドフォンなどとして構成され得る。なお、音声出力部226と表示部224とは一体の装置として構成されてもよい。
記憶部230は、各種のデータや各種のソフトウェアを記憶する。
サーバ10は、本開示における情報処理装置の一例である。サーバ10は、クライアント端末20から受信される情報に基づいて、ユーザ4が位置する実空間(部屋2など)における可動空間の範囲を決定し得る。
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態に係る情報処理システムの構成について説明した。ところで、通常、可動空間の範囲が広いほど、VRコンテンツの利用中のユーザの行動の自由度はより高くなる。そこで、ユーザが安全に行動可能な範囲内で、可動空間の範囲はできるだけ広く設定されることが望ましい。
<2−1.構成>
次に、本実施形態に係る構成について詳細に説明する。図8は、本実施形態に係るサーバ10の構成例を示した機能ブロック図である。図8に示すように、サーバ10は、制御部100、通信部120、および、記憶部122を有する。
制御部100は、例えば、後述するCPU150などの処理回路を含んで構成され得る。制御部100は、サーバ10の動作を統括的に制御する。また、図8に示すように、制御部100は、情報取得部102、判断部104、決定部106、および、出力制御部108を有する。
(2−1−2−1.情報の取得)
情報取得部102は、本開示における取得部の一例である。情報取得部102は、クライアント端末20から受信された、各種のセンシング結果、コンテンツ情報、コンテキスト情報、端末情報、および/または、ユーザ情報を取得する。
また、情報取得部102は、クライアント端末20から受信された撮像画像や距離画像に対して画像認識や一般物体認識を行い、そして、認識結果に基づいて、部屋2の中の個々の物体の属性情報を取得する。ここで、物体の属性情報は、例えば、物体の種類、素材、硬さなどを含む。
また、情報取得部102は、クライアント端末20から受信された各種のセンシング結果(撮像画像、距離画像、加速度の測定結果など)に基づいてユーザの行動認識を行うことにより、行動認識の結果を取得することも可能である。例えば、情報取得部102は、例えばリアルタイムに取得される各種のセンシング結果に基づいて、ユーザの行動をリアルタイムに認識し得る。また、情報取得部102は、クライアント端末20から受信された撮像画像などに基づいて、さらに、ユーザの姿勢を推定することも可能である。
判断部104は、情報取得部102により取得されたユーザの身体情報に基づいて、部屋2の中の個々の物体の危険の度合いを(高次的に)判断する。例えば、判断部104は、部屋2の中の個々の物体の属性情報、当該ユーザが利用中のVRコンテンツの種類、当該VRコンテンツにおける再生中のシーンの情報、当該ユーザの行動認識の結果、および、ユーザの興奮度の検出結果のうちの少なくとも一つと、ユーザの身体情報とに基づいて、個々の物体の危険の度合いを(高次的に)判断する。ここで、高次的な判断とは、内容の理解や意味の理解などを伴う高度な判断を意味し得る。なお、変形例として、判断部104は、さらに、知識データベースを用いて個々の物体の危険の度合いを判断してもよい。または、判断部104は、さらに、エージェントシステムに問い合わせを行うことにより、個々の物体の危険の度合いを判断してもよい。
例えば、判断部104は、まず、現在のユーザの位置においてユーザの身体(例えば手など)が届き得る範囲を特定する。そして、判断部104は、特定した範囲内に位置する個々の物体に関して、当該物体の属性情報に基づいて当該物体の危険の度合いを判断する。また、判断部104は、特定した範囲外に位置する全ての物体に関しては危険ではない(例えば「最も安全」)と判断する。
また、判断部104は、個々の物体の属性情報とユーザの行動認識との組み合わせに基づいて、個々の物体の危険の度合いを判断することも可能である。例えば、クッション30cの近くにユーザが立っている場合には、判断部104は、クッション30cを「安全」と判断する。また、ユーザがクッション30cの上に乗ろうとした場合および乗った場合には、判断部104は、(クッション30cは滑りやすいので)クッション30cを「危険」と判断してもよい。
なお、変形例として、所定の条件を満たす場合には、判断部104は、個々の物体の危険の度合いを相対的に低く判断してもよい。例えば、VRコンテンツの種類が「格闘ゲーム」である場合には、判断部104は、個々の物体の危険の度合いを相対的に低く判断してもよい。これにより、後述する決定部106により決定される可動空間の範囲は、ユーザが物体と接触し得る場所にも一定程度拡張されるようになり得る。このように、あえてユーザを物体と衝突させることにより、ユーザの臨場感をさらに向上させることができる。
また、別の変形例として、例えばVRコンテンツの種類が「恋愛ゲーム」などである場合には、ユーザは、VRコンテンツ中のキャラクター(仮想オブジェクト)と接触することを望むことも想定される。そこで、この場合、判断部104は、個々の物体の危険の度合いを相対的に低く判断してもよい。例えば、VRコンテンツの種類が「恋愛ゲーム」であり、かつ、キャラクターが異性である場合には、判断部104は、当該キャラクターの表示位置に対応する、ユーザが位置する実空間内に位置する物体の危険の度合いを「安全」と判断してもよい。これにより、決定部106によりユーザの可動空間はより広く決定され得る。
また、別の変形例として、ユーザが位置する実空間の撮像画像(スルー画)が表示部224に表示されている場合には、ユーザは視界が覆われていても、実空間内の個々の物体との接触をある程度回避可能になると想定される。そこで、判断部104は、ユーザが位置する実空間の撮像画像(スルー画)が表示部224に表示されているか否かに基づいて、個々の物体の危険の度合いを判断してもよい。例えば、当該実空間の撮像画像(スルー画)が表示部224に表示されている場合には、判断部104は、個々の物体の危険の度合いを相対的に低く判断する。これにより、決定部106によりユーザの可動空間はより広く決定され得る。
決定部106は、情報取得部102により取得された各種の情報と、判断部104による判断結果とに基づいて、ユーザごとに、当該ユーザに対応する可動空間の範囲を決定する。例えば、決定部106は、ユーザごとに、部屋2の中に位置する全ての物体のうち、危険の度合いが所定の閾値以上であると判断された全ての物体を当該ユーザに対応する可動空間が含まないように、当該ユーザに対応する可動空間の範囲を決定する。また、決定部106は、ユーザごとに、部屋2の中に位置する全ての物体のうち、危険の度合いが当該所定の閾値未満であると判断された判断された少なくとも一つの物体を当該ユーザに対応する可動空間が含むように、当該ユーザに対応する可動空間を決定してもよい。ここで、当該所定の閾値は、図12に示した例では、「危険」であってもよい。この場合、当該所定の閾値以上である危険の度合いは、「危険」および「最も危険」である。
ここで、図13および図14を参照して、上記の機能についてより詳細に説明する。図13は、図1に示した部屋2の中でのユーザ4aに対応する可動空間(可動空間60a)の範囲の決定例を示した説明図である。なお、図13は、部屋2の上面図を示しており、また、図13において網掛けで示した領域が可動空間60aに相当する。
(2−1−5−1.表示例1)
出力制御部108は、クライアント端末20(表示部224)に対する表示を制御する。例えば、VRコンテンツが表示部224に表示されている際に、出力制御部108は、決定部106により決定された該当のユーザに対応する可動空間の境界領域と当該ユーザとの位置関係を示す表示を当該VRコンテンツに重畳させて表示させる。
また、可動空間の境界領域にユーザの部位が接近したことが検出された際には、出力制御部108は、さらに、当該部位を示す表示をVRコンテンツに重畳させて表示させることも可能である。例えば、図18に示したように、VRコンテンツの映像70aが表示部224に表示されている際に、可動空間の境界領域にユーザの手が接近したことが検出された場合には、映像70bのように、出力制御部108は、当該可動空間の境界領域の一部を示す画像80と、ユーザの手を示す画像84とを一緒に映像70に重畳させて表示させる。
なお、変形例として、例えば現在のユーザの位置において当該ユーザの身体が当該ユーザに対応する可動空間の境界領域に接触可能であると推定される場合には、図20に示したように、出力制御部108は、当該可動空間の境界領域とユーザとの位置関係を示す表示として、(画像80の代わりに)ホールド画像86を当該VRコンテンツに重畳させて表示させてもよい。ここで、ホールド画像86の表示中は、VRコンテンツがホールド(固定)され得る。そして、ホールド画像86の表示中において、例えばホールド画像86が指示する方向(図20に示した例では「ユーザの後方」)へユーザが向きを変更したことが検出されると、VRコンテンツのホールドが解除され得る。この表示例によれば、ユーザが当該可動空間の境界領域に接触しないように、ユーザの向きを変更させることが可能となる。なお、ホールド画像86は、向きの変更ではなく、位置の変更を誘導する画像であってもよい。
‐事前の表示
なお、例えば「2−1−3−3節」〜「2−1−3−5節」で述べたような変形例により個々の物体の危険の度合いが判断された場合には、決定部106は、実空間内に位置する少なくとも一つの物体にユーザが接触可能なように、当該ユーザに対応する可動空間を決定し得る。この場合、出力制御部108は、当該実空間内の少なくとも一つの物体にユーザが接触する前および/または接触した後に、VRコンテンツの一部の表示態様をそれぞれ変更してもよい。
また、可動空間内に位置する少なくとも一つの物体にユーザが接触したことが検出された際には、出力制御部108は、VRコンテンツ内の所定の仮想オブジェクト(キャラクターなど)に関連付けられる位置(例えば、当該所定の仮想オブジェクトの近傍または当該仮想オブジェクト自体など)に当該接触を示す表示をさらに表示させてもよい。
また、出力制御部108は、クライアント端末20(音声出力部226)に対する音声の出力を制御することも可能である。例えば、ユーザが可動空間の境界領域に接近していることが検出された場合には、出力制御部108は、(表示部224に対する表示制御とともに、または、表示制御の代わりに)音声出力部226に所定の音声を出力させる。一例として、この場合、出力制御部108は、音像定位技術を用いて当該境界領域の位置をユーザに通知するように、音声出力部226に対して音声の出力を制御してもよい。または、この場合、出力制御部108は、危険な物体に接近しつつあることを示す音声または効果音を音声出力部226に出力させてもよい。
通信部120は、例えば、後述する通信装置162を含んで構成され得る。通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、出力制御部108の制御に従って、表示制御情報または音声出力制御情報をクライアント端末20へ送信する。また、通信部120は、各種のセンシング結果、コンテンツ情報、コンテキスト情報、端末情報、または、ユーザ情報などをクライアント端末20から受信する。
記憶部122は、例えば、後述するストレージ装置160を含んで構成され得る。記憶部122は、各種のデータ、および、各種のソフトウェアを記憶する。
以上、本実施形態に係る構成について説明した。次に、本実施形態に係る処理の流れの一例について、図23および図24を参照して説明する。
図23は、本実施形態に係る処理の全体的な流れを示したフローチャートである。図23に示したように、まず、クライアント端末20は、センサ部228による各種のセンシング結果、表示部224に表示中のVRコンテンツのコンテンツ情報、および、表示部224を装着しているユーザのユーザ情報などをサーバ10へ送信する。そして、サーバ10の情報取得部102は、受信された各種のセンシング結果を取得する。続いて、情報取得部102は、取得した各種のセンシング結果(撮像画像など)を用いて物体認識を行い、そして、認識結果に基づいて、ユーザが位置する実空間内の個々の物体の属性情報を取得する(S101)。
ここで、図24を参照して、S107における「可動空間の決定処理」の流れについて詳細に説明する。図24に示したように、まず、情報取得部102は、クライアント端末20から受信された撮像画像や距離画像に基づいて、実空間内の個々の物体の、現在のユーザの位置に対する距離情報および方向情報を特定する(S201)。
{2−3−1.効果1}
以上説明したように、本実施形態に係るサーバ10は、ユーザの身体情報を取得し、そして、表示部224によりVRコンテンツが表示されている際に、当該ユーザが位置する実空間において当該ユーザの身体情報に基づいて決定された可動空間の境界領域と当該ユーザとの位置関係を示す表示を当該VRコンテンツに重畳させて表示させる。このため、ユーザがVRコンテンツを利用する場面において、可動空間の境界領域とユーザとの位置関係をユーザに知らせることができる。従って、例えば、ユーザの視界が表示部224により覆われている場合であっても、ユーザは、VRコンテンツを安全に利用することができる。
また、サーバ10は、当該ユーザが位置する実空間内の個々の物体の属性情報、コンテンツ情報、および、ユーザの行動認識結果のうちの少なくとも一以上と当該ユーザの身体情報とに基づいて、当該ユーザに対応する可動空間の範囲を決定することが可能である。例えば、サーバ10は、ユーザの身長が低いほど、可動空間の範囲がより広くなるように決定する。また、サーバ10は、VRコンテンツの利用中のユーザの動きの速度が遅いほど、可動空間の範囲がより広くなるように決定する。また、サーバ10は、実空間内の物体の素材が柔らかい場合には当該物体を「安全」な物体であると判断し、そして、当該物体を含むように可動空間の範囲を決定する。
次に、本実施形態に係るサーバ10のハードウェア構成について、図25を参照して説明する。図25に示すように、サーバ10は、CPU150、ROM(Read Only Memory)152、RAM154、バス156、インターフェース158、ストレージ装置160、および通信装置162を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、前述した実施形態では、表示部224が頭部装着型のデバイスである例について説明したが、かかる例に限定されない。例えば、表示部224は、据え置き型のディスプレイであってもよい。なお、当該据え置き型のディスプレイは、例えばLCD(Liquid Crystal Display)や、OLED(Organic Light Emitting Diode)などにより構成され得る。また、表示部224は、専用のドーム型の施設内の壁面および天井に設置されてもよい。この場合、ユーザは、当該施設内でVRコンテンツを利用し得る。
また、前述した実施形態では、サーバ10は、ユーザがVRコンテンツを利用する際に可動空間を決定する例について説明したが、かかる例に限定されず、ユーザがAR(Augmented Reality)コンテンツを利用する際に可動空間を決定することも可能である。例えば、サーバ10は、表示部224にARコンテンツが表示されている際に、前述した実施形態と同様に、ユーザが位置する実空間内に位置する個々の物体の危険の度合いを判断することにより当該ユーザに対応する可動空間を決定する。さらに、サーバ10は、危険な物体(例えばろうそくや刃物など)とユーザとの位置関係を示す表示をARコンテンツに重畳して表示させてもよいし、当該危険な物体の存在を音声によりユーザに通知してもよい。なお、この場合、表示部224は、透過型の表示装置として構成され得る。
また、前述した実施形態では、本開示における情報処理装置がサーバ10である例について説明したが、かかる例に限定されない。例えば、当該情報処理装置は、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、例えばHMDなどのウェアラブルデバイス、または、ロボットなどであってもよい。
また、別の変形例として、情報取得部102、判断部104、決定部106、および、出力制御部108は、サーバ10に含まれる代わりに、クライアント端末20に含まれてもよい。この場合、本開示における情報処理装置は、クライアント端末20であってもよい。また、この場合、サーバ10は、設置されなくてもよい。
また、前述した実施形態に係る処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
ユーザの身体情報を取得する取得部と、
表示部により仮想現実のコンテンツが表示されている際に、前記ユーザが位置する第1の実空間において前記ユーザの身体情報に基づいて決定された前記ユーザが行動可能な第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記コンテンツに重畳させて表示させる出力制御部と、
を備える、情報処理装置。
(2)
前記第1の実空間内に位置する少なくとも一つの物体の各々の危険の度合いが前記ユーザの身体情報に基づいて判断され、
前記第2の実空間の境界領域は、前記少なくとも一つの物体の各々に関して判断された危険の度合いに基づいて決定される、前記(1)に記載の情報処理装置。
(3)
前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記少なくとも一つの物体の各々の物体認識の結果に基づいて判断される、前記(2)に記載の情報処理装置。
(4)
前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記コンテンツの種類に基づいて判断される、前記(3)に記載の情報処理装置。
(5)
前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記コンテンツにおける再生中のシーンの情報に基づいて判断される、前記(3)または(4)に記載の情報処理装置。
(6)
前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記ユーザの行動認識の結果に基づいて判断される、前記(3)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記ユーザの興奮度に基づいて判断される、前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記第1の実空間の撮像画像が前記表示部により表示されているか否かに基づいて判断される、前記(3)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記第2の実空間は、前記少なくとも一つの物体のうち、危険の度合いが所定の閾値以上であると判断された全ての物体を含まないように決定される、前記(3)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記第2の実空間の境界領域の位置は、前記少なくとも一つの物体のうち、危険の度合いが所定の閾値以上であると判断された個々の物体の位置を基準として決定される、前記(3)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記第2の実空間の境界領域に前記ユーザの部位が接近したことが検出された際には、前記出力制御部は、当該部位を示す表示をさらに前記コンテンツに重畳させて表示させる、前記(3)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記出力制御部は、現在の前記ユーザの位置において前記ユーザの身体が前記第2の実空間の境界領域に接触可能であるか否かの推定結果に基づいて、前記第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記コンテンツに重畳させて表示させる、前記(3)〜(11)のいずれか一項に記載の情報処理装置。
(13)
現在の前記ユーザの位置において前記ユーザの身体が前記第2の実空間の境界領域に接触可能であると推定される場合には、前記出力制御部は、前記第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記コンテンツに重畳させて表示させ、
現在の前記ユーザの位置において前記ユーザの身体が前記第2の実空間の境界に接触不可能であると推定される場合には、前記出力制御部は、前記第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記表示部に表示させない、前記(12)に記載の情報処理装置。
(14)
前記第2の実空間は、前記少なくとも一つの物体のうち、危険の度合いが所定の閾値未満であると判断された全ての物体のうちの少なくとも一つを含むように決定され、
前記第2の実空間内に位置する少なくとも一つの物体に前記ユーザの身体が接触することが予測されるタイミングよりも前に、前記出力制御部は、さらに、前記コンテンツ内の所定の仮想オブジェクトの表示態様を変更する、前記(3)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記第2の実空間は、前記少なくとも一つの物体のうち、危険の度合いが所定の閾値未満であると判断された全ての物体のうちの少なくとも一つを含むように決定され、
前記第2の実空間内に位置する少なくとも一つの物体に前記ユーザの身体が接触したことが検出された際には、前記出力制御部は、前記コンテンツ内の所定の仮想オブジェクトに関連付けられる位置に当該接触を示す表示をさらに表示させる、前記(3)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記情報処理装置は、
前記少なくとも一つの物体の各々の危険の度合いを前記ユーザの身体情報に基づいて判断する判断部と、
前記判断部による判断結果に基づいて前記第2の実空間の境界領域を決定する決定部と、をさらに備える、前記(3)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記ユーザの身体情報は、前記ユーザの身長、および/または、前記ユーザの腕の長さを含む、前記(3)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記表示部は、前記ユーザが装着するウェアラブルデバイスである、前記(3)〜(17)のいずれか一項に記載の情報処理装置。
(19)
ユーザの身体情報を取得することと、
表示部により仮想現実のコンテンツが表示されている際に、前記ユーザが位置する第1の実空間において前記ユーザの身体情報に基づいて決定された前記ユーザが行動可能な第2の実空間の境界領域と前記ユーザとの位置関係を示す表示をプロセッサが前記コンテンツに重畳させて表示させることと、
を含む、情報処理方法。
(20)
コンピュータを、
ユーザの身体情報を取得する取得部と、
表示部により仮想現実のコンテンツが表示されている際に、前記ユーザが位置する第1の実空間において前記ユーザの身体情報に基づいて決定された前記ユーザが行動可能な第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記コンテンツに重畳させて表示させる出力制御部、
として機能させるための、プログラム。
20 クライアント端末
22 通信網
100、200 制御部
102 情報取得部
104 判断部
106 決定部
108 出力制御部
120、220 通信部
122、230 記憶部
202 センシング結果取得部
204 コンテンツ情報取得部
206 コンテキスト情報取得部
208 端末情報取得部
210 ユーザ情報取得部
222 入力部
224 表示部
226 音声出力部
228 センサ部
Claims (20)
- ユーザの身体情報を取得する取得部と、
表示部により仮想現実のコンテンツが表示されている際に、前記ユーザが位置する第1の実空間において前記ユーザの身体情報に基づいて決定された前記ユーザが行動可能な第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記コンテンツに重畳させて表示させる出力制御部と、
を備える、情報処理装置。 - 前記第1の実空間内に位置する少なくとも一つの物体の各々の危険の度合いが前記ユーザの身体情報に基づいて判断され、
前記第2の実空間の境界領域は、前記少なくとも一つの物体の各々に関して判断された危険の度合いに基づいて決定される、請求項1に記載の情報処理装置。 - 前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記少なくとも一つの物体の各々の物体認識の結果に基づいて判断される、請求項2に記載の情報処理装置。
- 前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記コンテンツの種類に基づいて判断される、請求項3に記載の情報処理装置。
- 前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記コンテンツにおける再生中のシーンの情報に基づいて判断される、請求項3に記載の情報処理装置。
- 前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記ユーザの行動認識の結果に基づいて判断される、請求項3に記載の情報処理装置。
- 前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記ユーザの興奮度に基づいて判断される、請求項3に記載の情報処理装置。
- 前記少なくとも一つの物体の各々の危険の度合いは、さらに、前記第1の実空間の撮像画像が前記表示部により表示されているか否かに基づいて判断される、請求項3に記載の情報処理装置。
- 前記第2の実空間は、前記少なくとも一つの物体のうち、危険の度合いが所定の閾値以上であると判断された全ての物体を含まないように決定される、請求項3に記載の情報処理装置。
- 前記第2の実空間の境界領域の位置は、前記少なくとも一つの物体のうち、危険の度合いが所定の閾値以上であると判断された個々の物体の位置を基準として決定される、請求項3に記載の情報処理装置。
- 前記第2の実空間の境界領域に前記ユーザの部位が接近したことが検出された際には、前記出力制御部は、当該部位を示す表示をさらに前記コンテンツに重畳させて表示させる、請求項3に記載の情報処理装置。
- 前記出力制御部は、現在の前記ユーザの位置において前記ユーザの身体が前記第2の実空間の境界領域に接触可能であるか否かの推定結果に基づいて、前記第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記コンテンツに重畳させて表示させる、請求項3に記載の情報処理装置。
- 現在の前記ユーザの位置において前記ユーザの身体が前記第2の実空間の境界領域に接触可能であると推定される場合には、前記出力制御部は、前記第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記コンテンツに重畳させて表示させ、
現在の前記ユーザの位置において前記ユーザの身体が前記第2の実空間の境界に接触不可能であると推定される場合には、前記出力制御部は、前記第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記表示部に表示させない、請求項12に記載の情報処理装置。 - 前記第2の実空間は、前記少なくとも一つの物体のうち、危険の度合いが所定の閾値未満であると判断された全ての物体のうちの少なくとも一つを含むように決定され、
前記第2の実空間内に位置する少なくとも一つの物体に前記ユーザの身体が接触することが予測されるタイミングよりも前に、前記出力制御部は、さらに、前記コンテンツ内の所定の仮想オブジェクトの表示態様を変更する、請求項3に記載の情報処理装置。 - 前記第2の実空間は、前記少なくとも一つの物体のうち、危険の度合いが所定の閾値未満であると判断された全ての物体のうちの少なくとも一つを含むように決定され、
前記第2の実空間内に位置する少なくとも一つの物体に前記ユーザの身体が接触したことが検出された際には、前記出力制御部は、前記コンテンツ内の所定の仮想オブジェクトに関連付けられる位置に当該接触を示す表示をさらに表示させる、請求項3に記載の情報処理装置。 - 前記情報処理装置は、
前記少なくとも一つの物体の各々の危険の度合いを前記ユーザの身体情報に基づいて判断する判断部と、
前記判断部による判断結果に基づいて前記第2の実空間の境界領域を決定する決定部と、をさらに備える、請求項3に記載の情報処理装置。 - 前記ユーザの身体情報は、前記ユーザの身長、および/または、前記ユーザの腕の長さを含む、請求項3に記載の情報処理装置。
- 前記表示部は、前記ユーザが装着するウェアラブルデバイスである、請求項3に記載の情報処理装置。
- ユーザの身体情報を取得することと、
表示部により仮想現実のコンテンツが表示されている際に、前記ユーザが位置する第1の実空間において前記ユーザの身体情報に基づいて決定された前記ユーザが行動可能な第2の実空間の境界領域と前記ユーザとの位置関係を示す表示をプロセッサが前記コンテンツに重畳させて表示させることと、
を含む、情報処理方法。 - コンピュータを、
ユーザの身体情報を取得する取得部と、
表示部により仮想現実のコンテンツが表示されている際に、前記ユーザが位置する第1の実空間において前記ユーザの身体情報に基づいて決定された前記ユーザが行動可能な第2の実空間の境界領域と前記ユーザとの位置関係を示す表示を前記コンテンツに重畳させて表示させる出力制御部、
として機能させるための、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017054198 | 2017-03-21 | ||
JP2017054198 | 2017-03-21 | ||
PCT/JP2017/046112 WO2018173399A1 (ja) | 2017-03-21 | 2017-12-22 | 情報処理装置、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2018173399A1 true JPWO2018173399A1 (ja) | 2020-01-23 |
Family
ID=63584350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019506942A Ceased JPWO2018173399A1 (ja) | 2017-03-21 | 2017-12-22 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11391944B2 (ja) |
EP (1) | EP3599537A4 (ja) |
JP (1) | JPWO2018173399A1 (ja) |
WO (1) | WO2018173399A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021084905A1 (ja) * | 2019-10-30 | 2021-05-06 | パナソニックIpマネジメント株式会社 | 収音装置および収音方法 |
WO2022196069A1 (ja) * | 2021-03-15 | 2022-09-22 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
CN117441149A (zh) * | 2021-06-18 | 2024-01-23 | 松下电器(美国)知识产权公司 | 信息处理方法、程序及信息处理系统 |
WO2023032321A1 (ja) * | 2021-08-31 | 2023-03-09 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10504917A (ja) * | 1995-05-25 | 1998-05-12 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | ヘッドマウントディスプレイ用衝突警告システム |
JP2002132241A (ja) * | 2000-10-27 | 2002-05-09 | Nippon Telegr & Teleph Corp <Ntt> | 実空間をベースにした仮想空間表示システム |
JP2007049219A (ja) * | 2005-08-05 | 2007-02-22 | Denso Corp | 車両用周囲監視装置 |
JP2008292168A (ja) * | 2007-05-22 | 2008-12-04 | Fujikura Ltd | 障害物近接判定装置および障害物近接判定方法 |
JP2013257716A (ja) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | 障害物回避装置および障害物回避方法 |
JP2015118332A (ja) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
WO2016073783A1 (en) * | 2014-11-05 | 2016-05-12 | Valve Corporation | Sensory feedback systems and methods for guiding users in virtual reality environments |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009169622A (ja) * | 2008-01-15 | 2009-07-30 | Canon Inc | 画像処理装置、画像処理方法 |
JP2012114755A (ja) * | 2010-11-25 | 2012-06-14 | Brother Ind Ltd | ヘッドマウントディスプレイ及びコンピュータプログラム |
JP5691568B2 (ja) * | 2011-01-28 | 2015-04-01 | ソニー株式会社 | 情報処理装置、報知方法及びプログラム |
US9081177B2 (en) * | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
US9630105B2 (en) * | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
JP5777786B1 (ja) * | 2014-09-12 | 2015-09-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
-
2017
- 2017-12-22 JP JP2019506942A patent/JPWO2018173399A1/ja not_active Ceased
- 2017-12-22 US US16/479,820 patent/US11391944B2/en active Active
- 2017-12-22 EP EP17902219.9A patent/EP3599537A4/en not_active Withdrawn
- 2017-12-22 WO PCT/JP2017/046112 patent/WO2018173399A1/ja unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10504917A (ja) * | 1995-05-25 | 1998-05-12 | フィリップス エレクトロニクス ネムローゼ フェンノートシャップ | ヘッドマウントディスプレイ用衝突警告システム |
JP2002132241A (ja) * | 2000-10-27 | 2002-05-09 | Nippon Telegr & Teleph Corp <Ntt> | 実空間をベースにした仮想空間表示システム |
JP2007049219A (ja) * | 2005-08-05 | 2007-02-22 | Denso Corp | 車両用周囲監視装置 |
JP2008292168A (ja) * | 2007-05-22 | 2008-12-04 | Fujikura Ltd | 障害物近接判定装置および障害物近接判定方法 |
JP2013257716A (ja) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | 障害物回避装置および障害物回避方法 |
JP2015118332A (ja) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
WO2016073783A1 (en) * | 2014-11-05 | 2016-05-12 | Valve Corporation | Sensory feedback systems and methods for guiding users in virtual reality environments |
JP2017535901A (ja) * | 2014-11-05 | 2017-11-30 | バルブ コーポレーション | 仮想現実環境においてユーザをガイドするための感覚フィードバックシステム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US11391944B2 (en) | 2022-07-19 |
EP3599537A1 (en) | 2020-01-29 |
US20210349309A1 (en) | 2021-11-11 |
WO2018173399A1 (ja) | 2018-09-27 |
EP3599537A4 (en) | 2020-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3425481B1 (en) | Control device | |
KR102630774B1 (ko) | 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의자동 제어 | |
JPWO2018173399A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6470796B2 (ja) | 情報処理方法、プログラム及びコンピュータ | |
JP6908053B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
TW201732501A (zh) | 虛擬實境環境中與真實世界互動的方法、系統與記錄媒體 | |
JP7173024B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN111164540B (zh) | 用于在模拟现实会话期间呈现物理环境交互的方法和设备 | |
US10008041B2 (en) | Image generating device, image generating method, and image generating program | |
US10877555B2 (en) | Information processing device and information processing method for controlling user immersion degree in a virtual reality environment | |
CN113544765B (zh) | 信息处理装置、信息处理方法和程序 | |
CN111937045A (zh) | 信息处理装置、信息处理方法和记录介质 | |
EP3831355B1 (en) | Rehabilitation assistance device | |
CN109313559A (zh) | 用于在处理器设备的预定使用期间选择性阻止通知的方法 | |
JP6225242B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP6863391B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2018008208A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2018109937A (ja) | 情報処理方法、装置、情報処理システム、および当該情報処理方法をコンピュータに実行させるプログラム | |
WO2023032264A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
TWI637287B (zh) | 在虛擬實境中快速移動的方法、虛擬實境裝置及記錄媒體 | |
KR20230133356A (ko) | 사용자 식별에 기초한 사용자 인터페이스들 및 디바이스설정들 | |
CN117957513A (zh) | 基于镜子检测和上下文感知的交互 | |
JP2018109944A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP2017068818A (ja) | 画像生成装置、画像生成方法、及び画像生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220318 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20221129 |