JP7107302B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7107302B2 JP7107302B2 JP2019506938A JP2019506938A JP7107302B2 JP 7107302 B2 JP7107302 B2 JP 7107302B2 JP 2019506938 A JP2019506938 A JP 2019506938A JP 2019506938 A JP2019506938 A JP 2019506938A JP 7107302 B2 JP7107302 B2 JP 7107302B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- content
- degree
- excitement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 49
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000007654 immersion Methods 0.000 claims description 116
- 230000033001 locomotion Effects 0.000 claims description 33
- 230000009471 action Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 description 60
- 238000004891 communication Methods 0.000 description 41
- 238000000034 method Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 29
- 230000004048 modification Effects 0.000 description 25
- 238000012986 modification Methods 0.000 description 25
- 230000006399 behavior Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 13
- 208000003443 Unconsciousness Diseases 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 230000029058 respiratory gaseous exchange Effects 0.000 description 8
- 230000009467 reduction Effects 0.000 description 6
- 208000003464 asthenopia Diseases 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000000877 morphologic effect Effects 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 206010020565 Hyperaemia Diseases 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003183 myoelectrical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005802 health problem Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000010344 pupil dilation Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000008961 swelling Effects 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/373—Details of the operation on graphic patterns for modifying the size of the graphic pattern
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0613—The adjustment depending on the type of the information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Description
1.情報処理システムの構成
2.第1の実施形態
3.第2の実施形態
4.ハードウェア構成
5.変形例
まず、本開示の各実施形態に共通する情報処理システムの構成例について、図1を参照して説明する。図1に示すように、当該情報処理システムは、サーバ10、クライアント端末20、および、通信網22を有する。
クライアント端末20は、例えばVRコンテンツなどのコンテンツの表示を制御する装置である。例えば、クライアント端末20は、VRコンテンツを、後述する表示部224に表示させる。なお、VRコンテンツの種類は、例えば、映画(例えばホラー映画やコメディ映画など)、ゲーム(例えば格闘ゲームや恋愛ゲームなど)、または、スポーツの実況など様々な種類であり得る。
ここで、図2を参照して、クライアント端末20の機能構成の例について説明する。図2に示したように、クライアント端末20は、制御部200、通信部220、入力部222、表示部224、音声出力部226、センサ部228、および、記憶部230を含む。なお、かかる例に限定されず、入力部222、表示部224、音声出力部226、および、センサ部228のうちの一以上は、クライアント端末20に含まれる代わりに、クライアント端末20と通信可能な別の装置として構成されてもよい。
センサ部228は、カメラ(イメージセンサ)、デプスセンサ、加速度センサ、ジャイロスコープ、脈拍センサ、湿度センサ、呼吸センサ、脳波センサ、筋電センサ、および/または、マイクロフォンを含む。
制御部200は、クライアント端末20に内蔵される例えばCPU(Central Processing Unit)やRAM(Random Access Memory)などを用いて、クライアント端末20の動作を統括的に制御する。
通信部220は、他の装置との間で情報の送受信を行う。例えば、通信部220は、制御部200の制御に従って、センサ部228による各種のセンシング結果、コンテンツ情報、および、ユーザ情報などをサーバ10へ送信する。また、詳細については後述するが、通信部220は、表示部224に対する表示の制御情報や、音声出力部226に対する音声の出力制御情報をサーバ10から受信する。
入力部222は、ユーザの各種の入力を受け付ける。例えば、入力部222は、表示部224に表示中のVRコンテンツに対するユーザの操作情報の入力を受け付ける。
表示部224は、制御部200の制御に従って、映像を表示する。表示部224は、非透過型の表示装置として構成され得る。例えば、表示部224は、LCD(Liquid Crystal Display)、または、OLED(Organic Light Emitting Diode)などを含んで構成され得る。なお、この場合、センサ部228(カメラ)により撮影される、ユーザの前方の映像が表示部224に表示されてもよい。
音声出力部226は、制御部200の制御に従って、音声を出力する。音声出力部226は、例えば、スピーカー、イヤフォン、または、ヘッドフォンなどとして構成され得る。なお、音声出力部226と表示部224とは一体の装置として構成されてもよい。
記憶部230は、各種のデータや各種のソフトウェアを記憶する。
サーバ10は、本開示における情報処理装置の一例である。サーバ10は、通信網22を介して、クライアント端末20に対して各種の制御(例えば、表示の制御や音声の出力の制御など)を行うことが可能である。例えば、VRコンテンツが表示部224に表示されている間に、サーバ10は、クライアント端末20から受信される情報などに基づいて、表示部224に対する表示制御を行う。
通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
以上、各実施形態に共通する情報処理システムの構成について説明した。ところで、VRコンテンツは没入感が強いので、VRコンテンツの利用(視聴など)中にユーザはVRコンテンツに没頭し得る。このため、ユーザは、意図しない行動(例えば発話やのけぞりなど)を行ってしまい得る。例えば、図3に示したように、VRコンテンツの映像30をユーザが視聴している際に、映像30bの表示タイミングにおいて、ユーザは、映像30bの内容に驚き、そして、意図しない発話90を行ってしまう恐れがある。その結果、ユーザは、周囲の人物(例えば隣人など)へ迷惑をかけてしまったり、VRコンテンツの利用後に恥ずかしさを感じ得る。
<2-1.構成>
まず、第1の実施形態に係る構成について説明する。図4は、第1の実施形態に係るサーバ10‐1の構成例を示した機能ブロック図である。図4に示すように、サーバ10‐1は、制御部100、通信部120、および、記憶部122を有する。
制御部100は、例えば、後述するCPU150などの処理回路を含んで構成され得る。制御部100は、サーバ10‐1の動作を統括的に制御する。また、図4に示すように、制御部100は、情報取得部102、盛り上がり情報登録部104、および、出力制御部106を有する。
情報取得部102は、本開示における取得部の一例である。情報取得部102は、少なくとも一つのクライアント端末20から受信された各種のセンシング結果、コンテンツ情報、およびユーザ情報を取得する。
以下、情報取得部102による盛り上がり情報の取得例について具体的に説明する。例えば、情報取得部102は、少なくとも一つのクライアント端末20から受信された、収音されたユーザの発話の音情報が音声認識された結果に基づいて盛り上がり情報を取得する。一例として、情報取得部102は、まず、当該収音されたユーザの発話を音声認識し、そして、音声認識結果に対して自然言語処理を行うことにより形態素情報を解析する。そして、情報取得部102は、解析された形態素情報に基づいて当該音声認識結果が感動詞を含むか否かを判定し、そして、当該音声認識結果が感動詞を含む場合には、当該発話の収音タイミングにおける盛り上がり度合いが所定の閾値以上であると特定し、かつ、特定した結果を示す盛り上がり情報を取得する。
また、情報取得部102は、少なくとも一つのクライアント端末20から受信された、例えばユーザの目の撮像画像から特定される瞳孔の開き度合いに基づいて盛り上がり情報を取得する。例えば、情報取得部102は、まず、当該ユーザの目の撮像画像から瞳孔を検出する。そして、検出された瞳孔の開き度合い(大きさ)が所定の閾値以上である場合には、情報取得部102は、当該目の撮像画像の撮影タイミングにおけるユーザの盛り上がり度合いが所定の閾値以上であると特定し、かつ、特定した結果を示す盛り上がり情報を取得する。また、検出された瞳孔の開き度合いが所定の閾値未満である場合には、情報取得部102は、当該目の撮像画像の撮影タイミングにおけるユーザの盛り上がり度合いが所定の閾値未満であることを示す盛り上がり情報を取得してもよい。
また、情報取得部102は、少なくとも一つのクライアント端末20から受信された、ユーザの発汗度合い(発汗量など)のセンシング結果に基づいて盛り上がり情報を取得する。例えば、情報取得部102は、まず、当該センシング結果に基づいてユーザの発汗の度合いを判定する。そして、判定した発汗の度合いが所定の閾値以上である場合には、情報取得部102は、当該センシング時におけるユーザの盛り上がり度合いが所定の閾値以上であると特定し、かつ、特定した結果を示す盛り上がり情報を取得する。また、判定した発汗の度合いが所定の閾値未満である場合には、情報取得部102は、当該センシング時におけるユーザの盛り上がり度合いが所定の閾値未満であることを示す盛り上がり情報を取得してもよい。
また、情報取得部102は、例えば少なくとも一つのクライアント端末20から受信されたユーザの撮像画像から認識される、ユーザの表情の驚き度合い、頷きの多さ、手の動きの多さ、鼻の穴の膨らみ具合、または、首の前傾度合いなどに基づいて盛り上がり情報を取得することも可能である。例えば、認識された首の前傾度合いが所定の閾値以上である場合には、情報取得部102は、当該センシング時におけるユーザの盛り上がり度合いが所定の閾値以上であると特定し、かつ、特定した結果を示す盛り上がり情報を取得する。
また、情報取得部102は、少なくとも一つのクライアント端末20から受信される、VRコンテンツに対するユーザの操作情報に基づいて盛り上がり情報を取得することも可能である。例えば、VRコンテンツ中の同一のタイミングや同一のシーンが複数回再生されたことを当該操作情報が示す場合には、情報取得部102は、該当の再生タイミングまたは該当の再生シーンにおけるユーザの盛り上がり度合いが所定の閾値以上であると特定し、かつ、特定した結果を示す盛り上がり情報を取得する。
また、情報取得部102は、例えばSNS(Social Networking Service)、電子掲示板、情報共有サービス、および、ブログなど(以下「SNS等」と称する)にアップロードされている情報(例えば文字列(メッセージなど)や「いいね!ボタン」のクリック数など)と、クライアント端末20から受信されたコンテンツ情報とに基づいて盛り上がり情報を取得することも可能である。例えば、情報取得部102は、まず、SNS等にアップロードされている文字列の中から、クライアント端末20から受信されたコンテンツ情報に関連する文字列を検索する。そして、情報取得部102は、検索した文字列の意味(内容)を解析し、そして、解析結果に基づいて盛り上がり情報を取得する。
盛り上がり情報登録部104は、情報取得部102により取得された盛り上がり情報を盛り上がり情報DB124に格納する。例えば、盛り上がり情報登録部104は、取得された盛り上がり情報と、当該盛り上がり情報に対応するVRコンテンツの識別情報とを関連付けて盛り上がり情報DB124に格納する。
出力制御部106は、表示部224に対して表示を制御したり、音声出力部226に対して音声の出力を制御する。例えば、出力制御部106は、VRコンテンツが表示部224に表示されている間に、当該VRコンテンツを利用中のユーザの没頭度を下げるための第1の表示制御を、情報取得部102により取得された盛り上がり情報に基づいて行う。
以下、「没頭度を下げるための第1の表示制御」の内容についてより詳細に説明する。例えば、当該没頭度を下げるための第1の表示制御は、該当のVRコンテンツのうち現在の再生タイミング以降の部分から抽出される複数枚のフレーム画像を当該VRコンテンツ内の所定の領域に重畳して表示部224に表示させることを含み得る。
また、当該没頭度を下げるための第1の表示制御は、該当のVRコンテンツにおける現在の視点の位置を、当該視点の向きに対して後方へ移動させることを含み得る。
また、当該没頭度を下げるための第1の表示制御は、表示部224における該当のVRコンテンツの表示サイズを縮小することを含み得る。
通信部120は、例えば、後述する通信装置162を含んで構成され得る。通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、出力制御部106の制御に従って、表示制御情報または音声出力制御情報をクライアント端末20へ送信する。また、通信部120は、各種のセンシング結果、コンテンツ情報、および、ユーザ情報などをクライアント端末20から受信する。
記憶部122は、例えば、後述するストレージ装置160を含んで構成され得る。記憶部122は、例えば盛り上がり情報DB124などの各種のデータ、および、各種のソフトウェアを記憶する。なお、盛り上がり情報DB124は、記憶部122に記憶される代わりに、サーバ10が通信網22を介して通信可能な他の装置に記憶されてもよい。
以上、第1の実施形態に係る構成について説明した。次に、第1の実施形態に係る処理の流れについて、「2-2-1.コンテンツ利用時の処理の流れ」および「2-2-2.盛り上がり情報の登録処理の流れ」において説明する。
図11は、第1の実施形態に係る「コンテンツ利用時の処理」の全体的な流れを示したフローチャートである。図11に示したように、まず、例えばクライアント端末20の入力部222に対するユーザの入力に基づいて、ユーザは、VRコンテンツの利用を開始する。そして、クライアント端末20は、センサ部228による各種のセンシング結果、表示部224に表示中のVRコンテンツのコンテンツ情報、および、当該VRコンテンツを利用中のユーザのユーザ情報などをサーバ10へ送信する(S101)。
ここで、図12を参照して、S109における「没頭度を下げるための第1の表示制御処理」の第1の例の流れについて詳細に説明する。図12に示したように、まず、出力制御部106は、現在の再生タイミングにおいて、当該VRコンテンツのうちUIを表示しても当該VRコンテンツを利用する上で阻害がない領域を算出する(S121)。
図13は、S109における「没頭度を下げるための第1の表示制御処理」の第2の例の流れを示したフローチャートである。なお、図13に示したS141の処理は、図12に示したS121と同様である。
次に、図14~図20を参照して、第1の実施形態に係る「盛り上がり情報の登録処理」の流れについて、「2-2-2-1.処理例1」~「2-2-2-6.処理例6」において説明する。なお、「2-2-2-1.処理例1」~「2-2-2-4.処理例4」は、クライアント端末20から受信されるセンシング結果に基づいて盛り上がり情報を登録する例である。また、「2-2-2-5.処理例5」~「2-2-2-6.処理例6」は、(VRコンテンツの利用時とは無関係に)SNS等にアップロードされている情報の解析結果に基づいて盛り上がり情報を登録する例である。
図14は、「盛り上がり情報の登録処理」の第1の例の流れを示したフローチャートである。図14に示したように、まず、サーバ10‐1の情報取得部102は、クライアント端末20から受信される、収音されたユーザの音声情報を取得する(S201)。
ここで、図15を参照して、S209における「盛り上がり情報関連付け処理」の流れについて説明する。図15に示したように、まず、情報取得部102は、該当のセンシング時においてユーザの無意識行動があったと判定する(S301)。
図16は、「盛り上がり情報の登録処理」の第2の例の流れを示したフローチャートである。図16に示したように、まず、サーバ10‐1の情報取得部102は、クライアント端末20から受信される、ユーザの顔の撮像動画像を取得する(S221)。
図17は、「盛り上がり情報の登録処理」の第3の例の流れを示したフローチャートである。図17に示したように、まず、サーバ10‐1の情報取得部102は、クライアント端末20から受信される、収音されたユーザの音声情報を取得する(S241)。
図18は、「盛り上がり情報の登録処理」の第4の例の流れを示したフローチャートである。図18に示したように、まず、サーバ10‐1の情報取得部102は、クライアント端末20から受信される、収音されたユーザの音声情報を取得する(S261)。
図19は、「盛り上がり情報の登録処理」の第5の例の流れを示したフローチャートである。図19に示したように、まず、サーバ10‐1の情報取得部102は、クライアント端末20から受信されたコンテンツ情報に関連する情報をSNS等から検索する(S401)。
図20は、「盛り上がり情報の登録処理」の第6の例の流れを示したフローチャートである。図20に示したように、まず、サーバ10‐1の情報取得部102は、クライアント端末20から受信されたコンテンツ情報が示すVRコンテンツに関連する情報をSNS等から検索する(S421)。
なお、第1の実施形態に係る「盛り上がり情報の登録処理」は、前述した例に限定されない。例えば、「2-2-2-1.処理例1」~「2-2-2-4.処理例4」では、音声のセンシング結果に基づいて盛り上がり情報を取得する例について説明したが、かかる例に限定されず、例えば、視線情報、生体情報、または、身体情報のセンシング結果に基づいた類似の処理により盛り上がり情報を取得することが可能である。
{2-3-1.効果1}
以上説明したように、第1の実施形態に係るサーバ10‐1は、VRコンテンツの利用に関する盛り上がり情報を取得し、そして、表示部224により当該VRコンテンツが表示されている間に、当該盛り上がり情報が示す盛り上がり度合いが所定の閾値よりも大きくなる際に、ユーザの没頭度を下げるための第1の表示制御を行う。このため、VRコンテンツの利用中のユーザの没頭度を適切に抑制することができる。
また、第1の実施形態によれば、VRコンテンツの利用(視聴など)時間の抑制が期待できる。そして、VRコンテンツの利用中の健康上の問題(例えばVDT(Visual Display Terminal Syndrome)症候群など)の発生を防止することが期待できる。
以上、第1の実施形態について説明した。次に、第2の実施形態について説明する。後述するように、第2の実施形態によれば、VRコンテンツの利用中にユーザが無意識の行動を行ったことが検出された場合に、当該無意識の行動を行ったことを当該VRコンテンツの映像内でユーザに知らせることができる。なお、以下では、第1の実施形態と同様の内容については説明を省略し、第1の実施形態と異なる内容についてのみ説明を行う。
まず、第2の実施形態に係る構成について説明する。図21は、第2の実施形態に係るサーバ10‐2の構成例を示した機能ブロック図である。図21に示すように、サーバ10‐2に含まれる構成要素は、図4に示したサーバ10‐1と同様である。
第2の実施形態に係る出力制御部106は、表示部224によりVRコンテンツが表示されている間に、当該VRコンテンツを利用中のユーザの没頭度を下げるための第2の表示制御を、情報取得部102により取得された当該ユーザの行動に関する情報に基づいて行う。例えば、VRコンテンツを利用中のユーザが所定の行動を行ったことが検出された際に、出力制御部106は、当該没頭度を下げるための第2の表示制御を行う。一例として、出力制御部106は、(第1の実施形態と同様に)該当のVRコンテンツに関連付けられている盛り上がり情報に基づいて「没頭度を下げるための第1の表示制御」を行うとともに、当該ユーザが所定の行動を行ったことが検出された際に「没頭度を下げるための第2の表示制御」を行ってもよい。あるいは、出力制御部106は、「没頭度を下げるための第1の表示制御」を行わずに、「没頭度を下げるための第2の表示制御」のみを行ってもよい。
以下、「没頭度を下げるための第2の表示制御」の内容についてより詳細に説明する。例えば、ユーザが発話したことが検出された際には、出力制御部106は、(「没頭度を下げるための第2の表示制御」として)所定の文字列をVRコンテンツに重畳して表示させる。ここで、図22を参照して、上記の機能についてより詳細に説明を行う。例えば、図22に示した映像30aの表示タイミングにおいて、図22に示したようにユーザが(無意識の)発話90をしたことが検出されたとする。この場合、出力制御部106は、発話90の音声認識結果に応じた文字列をVRコンテンツに重畳して表示させてもよい。例えば、制御部100(情報取得部102)は、まず、検出された発話90を音声認識し、そして、当該当該音声認識結果に対して自然言語処理を行うことにより、当該音声認識結果が感動詞を含むか否かを判定する。そして、当該音声認識結果が感動詞を含む場合には、図22に示した映像30bのように、出力制御部106は、映像30b内のユーザの注視点付近(または映像30bの中心付近)において、当該音声認識結果に応じた文字列60を映像30bに重畳して表示させる。なお、文字列60は、当該音声認識結果自体であってもよいし、または、当該音声認識結果から抽出される感動詞だけであってもよい。また、発話90の音量が大きいほど、出力制御部106は、文字列60の表示サイズを大きくしてもよい。
また、ユーザの特定の挙動が検出された際には、出力制御部106は、(「没頭度を下げるための第2の表示制御」として)該当のVRコンテンツにおける現在の視点の位置を、当該視点の向きに対して後方へ移動させることが可能である。ここで、特定の挙動は、例えば、のけぞる動きである。また、特定の挙動は、例えば頭部などの身体の動きの急峻度合いが所定の閾値以上である動きであり得る。
または、ユーザの当該特定の挙動が検出された際には、出力制御部106は、(「没頭度を下げるための第2の表示制御」として)表示部224における該当のVRコンテンツの表示サイズを縮小することも可能である。
{3-2-1.処理の全体的な流れ}
以上、第2の実施形態に係る構成について説明した。次に、第2の実施形態に係る処理の流れについて、図25~図27を参照して説明する。
なお、当該処理の全体的な流れは、図25に示した例に限定されない。例えば、S505とS507との間で、サーバ10‐2は、(図11に示した)第1の実施形態に係るS109の処理(つまり「没頭度を下げるための第1の表示制御処理」)を行ってもよい。
ここで、図26および図27を参照して、S507における「没頭度を下げるための第2の表示制御処理」の流れについて詳細に説明する。図26は、「没頭度を下げるための第2の表示制御処理」の第1の例の流れを示したフローチャートである。図26に示したように、まず、サーバ10‐2の情報取得部102は、クライアント端末20から受信される、現在収音されたユーザの音声情報を取得する(S511)。
また、図27は、S507における「没頭度を下げるための第2の表示制御処理」の第2の例の流れを示したフローチャートである。図27に示したように、まず、サーバ10‐2の情報取得部102は、クライアント端末20から受信される、ユーザの頭部の現在の加速度のセンシング結果を取得する(S521)。
以上説明したように、第2の実施形態に係るサーバ10‐2は、表示部224によりVRコンテンツが表示されている間に、VRコンテンツを利用中のユーザが所定の行動を行ったことが検出された際に、ユーザの没頭度を下げるための第2の表示制御を行う。このため、VRコンテンツの利用中のユーザの没頭度を適切に抑制することができる。
次に、各実施形態に共通するサーバ10のハードウェア構成について、図28を参照して説明する。図28に示すように、サーバ10は、CPU150、ROM(Read Only Memory)152、RAM154、バス156、インターフェース158、ストレージ装置160、および通信装置162を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、サーバ10(出力制御部106)は、情報取得部102により取得された盛り上がり情報に基づいて、ユーザが利用中のVRコンテンツにおける眼精疲労が生じ得る部分を検出し、そして、検出した眼精疲労が生じ得る部分において、前述した「没頭度を下げるための表示制御」を行ってもよい。例えば、該当のVRコンテンツにおいて眼精疲労が生じ得る部分が検出された際には、サーバ10は、視点位置を後方へ強制的に移動させる。この変形例によれば、眼精疲労が生じ得る部分において、(VRコンテンツの利用に関する)ユーザの集中度が抑制される。その結果、例えば当該VRコンテンツの利用を中止するなど、ユーザが目を休めることが期待できるので、眼精疲労の発生を防止することが期待できる。
また、別の変形例として、サーバ10(出力制御部106)は、外界(実空間)において通知が生じたこと(例えば、VRコンテンツを利用中のユーザに対して他の人物が声をかけることや、当該ユーザの電話が着信することなど)が検出された際にも、前述した「没頭度を下げるための表示制御」を行ってもよい。この変形例によれば、VRコンテンツの利用中であっても、ユーザは、当該通知の発生に気付きやすくなる。
また、別の変形例として、サーバ10(出力制御部106)は、さらに、VRコンテンツを利用中のユーザの属性情報に基づいて、「没頭度を下げるための表示制御」を行うか否かを動的に変更してもよい。例えば、当該ユーザが子どもである場合には、サーバ10は、(各実施形態のように)「没頭度を下げるための表示制御」を強制的に行う。また、当該ユーザが大人である場合には、サーバ10は、「没頭度を下げるための表示制御」を行わなくてもよい。
また、別の変形例として、サーバ10(出力制御部106)は、さらに、VRコンテンツの利用時間帯に基づいて、「没頭度を下げるための表示制御」を行うか否かを動的に変更してもよい。例えば、利用時間帯が「夜」である場合には、サーバ10は、(前述した各実施形態のように)「没頭度を下げるための表示制御」を強制的に行う。また、利用時間帯が「日中」である場合には、サーバ10は、「没頭度を下げるための表示制御」を行わなくてもよい。これにより、他の人物(例えば隣人など)に迷惑をかけることを防止しつつ、ユーザは、VRコンテンツを楽しむことができる。
また、別の変形例として、サーバ10(出力制御部106)は、「没頭度を下げるための表示制御」を行うとともに、外界(ユーザが位置する実空間)の環境音がユーザに聞こえるように音声の出力を制御してもよい。例えば、(第2の実施形態で述べたように)VRコンテンツを利用中のユーザが所定の行動を行ったことが検出された際には、サーバ10(出力制御部106)は、「没頭度を下げるための表示制御」を行うとともに、外界(ユーザが位置する実空間)の環境音がユーザに聞こえるように当該VRコンテンツの音量を弱くしてもよい。この変形例によれば、ユーザの没頭度をより低下させることが期待できる。つまり、ユーザがより我に返りやすくなり得る。
また、前述した各実施形態では、表示部224が頭部装着型のデバイスである例について説明したが、かかる例に限定されない。例えば、表示部224は、据え置き型のディスプレイであってもよい。なお、当該据え置き型のディスプレイは、例えばLCDやOLEDなどにより構成され得る。また、表示部224は、専用のドーム型の施設内の壁面および天井に設置されてもよい。この場合、ユーザは、当該施設内でVRコンテンツを利用し得る。
また、前述した各実施形態では、本開示における情報処理装置がサーバ10である例について説明したが、かかる例に限定されない。例えば、当該情報処理装置は、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、例えばHMDなどのウェアラブルデバイス、または、ロボットなどであってもよい。
また、別の変形例として、情報取得部102、および、出力制御部106は、サーバ10に含まれる代わりに、クライアント端末20に含まれてもよい。この場合、本開示における情報処理装置は、クライアント端末20であってもよい。
また、前述した各実施形態に係る処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
仮想現実のコンテンツの利用に関する盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得する取得部と、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報または前記第1のユーザの行動に関する情報に基づいて、前記第1のユーザの没頭度を下げるための表示制御を行う出力制御部と、
を備える、情報処理装置。
(2)
前記コンテンツが表示されている間に、前記盛り上がり情報が示す盛り上がり度合いが第1の閾値よりも大きくなる際または前記第1のユーザが所定の行動を行ったことが検出された際に、前記出力制御部は、前記没頭度を下げるための表示制御を行う、前記(1)に記載の情報処理装置。
(3)
前記没頭度を下げるための表示制御は、前記コンテンツにおける現在の視点の位置を、当該視点の向きに対して後方へ移動させることを含む、前記(2)に記載の情報処理装置。
(4)
前記没頭度を下げるための表示制御は、さらに、前記移動前の視点の位置の近傍に、前記第1のユーザの背面を示す画像を前記コンテンツに重畳して表示させることを含む、前記(3)に記載の情報処理装置。
(5)
前記所定の行動は、前記第1のユーザの動きの急峻度合いが第2の閾値以上である行動であり、
前記第1のユーザの行動に関する情報は、前記第1のユーザの動き情報を含み、
前記没頭度を下げるための表示制御は、さらに、前記第1のユーザに対応する仮想オブジェクトが、前記所定の行動の検出時における前記第1のユーザの動き情報に応じて動くアニメーションを前記コンテンツに重畳して表示させることを含む、前記(3)に記載の情報処理装置。
(6)
前記没頭度を下げるための表示制御は、前記表示部における前記コンテンツの表示サイズを縮小することを含む、前記(2)に記載の情報処理装置。
(7)
前記コンテンツは動画であり、
前記没頭度を下げるための表示制御は、前記コンテンツのうち現在の再生タイミング以降の部分から抽出される複数のフレーム画像を前記コンテンツに重畳して表示させることを含む、前記(2)に記載の情報処理装置。
(8)
前記没頭度を下げるための表示制御は、前記コンテンツ内の所定の領域に前記複数のフレーム画像を前記コンテンツに重畳して表示させることを含む、前記(7)に記載の情報処理装置。
(9)
前記没頭度を下げるための表示制御は、前記コンテンツ内の所定の領域が前記表示部に表示されるように前記第1のユーザの視線を誘導するためのガイド表示を表示させ、かつ、
前記ガイド表示に応じて前記第1のユーザの視線が移動したことが検出された際に、前記複数のフレーム画像を前記コンテンツに重畳して表示させることを含む、前記(8)に記載の情報処理装置。
(10)
前記所定の行動は、発話であり、
前記第1のユーザが発話したことが検出された際に、前記出力制御部は、所定の文字列を前記コンテンツに重畳して表示させる、前記(2)に記載の情報処理装置。
(11)
前記出力制御部は、前記第1のユーザの前記コンテンツ内の注視点の近傍または前記表示部の略中心に前記所定の文字列を表示させる、前記(10)に記載の情報処理装置。
(12)
前記第1のユーザが発話したことが検出され、かつ、検出された発話の音声認識結果が感動詞を含む場合には、前記出力制御部は、前記発話の音声認識結果に応じた文字列を前記所定の文字列として前記コンテンツに重畳して表示させる、前記(11)に記載の情報処理装置。
(13)
前記盛り上がり情報が示す盛り上がり度合いが前記第1の閾値以下の度合いから前記第1の閾値よりも大きい度合いに変化する再生タイミングにおいて、前記出力制御部は、前記没頭度を下げるための表示制御を開始する、前記(2)~(12)のいずれか一項に記載の情報処理装置。
(14)
前記コンテンツは、少なくとも一つのイベント情報を含み、
前記少なくとも一つのイベント情報のうち、前記第1の閾値よりも大きい盛り上がり度合いに関連付けられているイベント情報が示すイベントが発生する直前に、前記出力制御部は、前記没頭度を下げるための表示制御を開始する、前記(2)~(13)のいずれか一項に記載の情報処理装置。
(15)
前記出力制御部は、さらに、前記第1のユーザの属性情報に基づいて、前記没頭度を下げるための表示制御を行う、前記(2)~(14)のいずれか一項に記載の情報処理装置。
(16)
前記出力制御部は、さらに、前記コンテンツの利用時間帯に基づいて、前記没頭度を下げるための表示制御を行う、前記(2)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記盛り上がり情報は、前記第1のユーザ、または、前記第1のユーザとは異なる第2のユーザが過去に前記コンテンツを利用した際の盛り上がり度合いを示す、前記(2)~(16)のいずれか一項に記載の情報処理装置。
(18)
前記盛り上がり情報は、前記第1のユーザの現在の盛り上がり度合いを示す、前記(2)~(16)のいずれか一項に記載の情報処理装置。
(19)
仮想現実のコンテンツの利用に関する盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得することと、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報または前記第1のユーザの行動に関する情報に基づいて、プロセッサが、前記第1のユーザの没頭度を下げるための表示制御を行うことと、
を含む、情報処理方法。
(20)
コンピュータを、
仮想現実のコンテンツの利用に関する盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得する取得部と、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報または前記第1のユーザの行動に関する情報に基づいて、前記第1のユーザの没頭度を下げるための表示制御を行う出力制御部、
として機能させるためのプログラム。
20 クライアント端末
22 通信網
100、200 制御部
102 情報取得部
104 盛り上がり情報登録部
106 出力制御部
120、220 通信部
122、230 記憶部
124 盛り上がり情報DB
126 没頭度軽減文字列DB
222 入力部
224 表示部
226 音声出力部
228 センサ部
Claims (18)
- 仮想現実のコンテンツを利用するユーザに対するセンシング結果から得られる情報であって、当該コンテンツへの没頭度を示す情報である盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得する取得部と、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報が示す盛り上がり度合いが第1の閾値よりも大きくなる際または前記第1のユーザが所定の行動を行ったことが検出された際に、前記第1のユーザの没頭度を下げるための表示制御を行う出力制御部と、を備え、
前記没頭度を下げるための表示制御は、前記コンテンツにおける現在の視点の位置を、当該視点の向きに対して後方へ移動させることを含む、
情報処理装置。 - 前記没頭度を下げるための表示制御は、さらに、前記移動前の視点の位置の近傍に、前記第1のユーザの背面を示す画像を前記コンテンツに重畳して表示させることを含む、請求項1に記載の情報処理装置。
- 前記所定の行動は、前記第1のユーザの動きの急峻度合いが第2の閾値以上である行動であり、
前記第1のユーザの行動に関する情報は、前記第1のユーザの動き情報を含み、
前記没頭度を下げるための表示制御は、さらに、前記第1のユーザに対応する仮想オブジェクトが、前記所定の行動の検出時における前記第1のユーザの動き情報に応じて動くアニメーションを前記コンテンツに重畳して表示させることを含む、請求項2に記載の情報処理装置。 - 前記没頭度を下げるための表示制御は、さらに、前記表示部における前記コンテンツの表示サイズを縮小することを含む、請求項1に記載の情報処理装置。
- 仮想現実のコンテンツを利用するユーザに対するセンシング結果から得られる情報であって、当該コンテンツへの没頭度を示す情報である盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得する取得部と、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報が示す盛り上がり度合いが第1の閾値よりも大きくなる際または前記第1のユーザが所定の行動を行ったことが検出された際に、前記第1のユーザの没頭度を下げるための表示制御を行う出力制御部と、を備え、
前記コンテンツは動画であり、
前記没頭度を下げるための表示制御は、前記コンテンツのうち現在の再生タイミング以降の部分から抽出される複数のフレーム画像を前記コンテンツに重畳して表示させることを含む、
情報処理装置。 - 前記没頭度を下げるための表示制御は、前記コンテンツ内の所定の領域に前記複数のフレーム画像を前記コンテンツに重畳して表示させることを含む、請求項5に記載の情報処理装置。
- 前記没頭度を下げるための表示制御は、前記コンテンツ内の所定の領域が前記表示部に表示されるように前記第1のユーザの視線を誘導するためのガイド表示を表示させ、かつ、
前記ガイド表示に応じて前記第1のユーザの視線が移動したことが検出された際に、前記複数のフレーム画像を前記コンテンツに重畳して表示させることを含む、請求項6に記載の情報処理装置。 - 仮想現実のコンテンツを利用するユーザに対するセンシング結果から得られる情報であって、当該コンテンツへの没頭度を示す情報である盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得する取得部と、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報が示す盛り上がり度合いが第1の閾値よりも大きくなる際または前記第1のユーザが所定の行動を行ったことが検出された際に、前記第1のユーザの没頭度を下げるための表示制御を行う出力制御部と、を備え、
前記所定の行動は、発話であり、
前記出力制御部は、
前記第1のユーザが発話したことが検出された際に、所定の文字列を前記コンテンツに重畳して表示させる、
情報処理装置。 - 前記出力制御部は、前記第1のユーザの前記コンテンツ内の注視点の近傍または前記表示部の略中心に前記所定の文字列を表示させる、請求項8に記載の情報処理装置。
- 前記第1のユーザが発話したことが検出され、かつ、検出された発話の音声認識結果が感動詞を含む場合には、前記出力制御部は、前記発話の音声認識結果に応じた文字列を前記所定の文字列として前記コンテンツに重畳して表示させる、請求項9に記載の情報処理装置。
- 前記盛り上がり情報が示す盛り上がり度合いが前記第1の閾値以下の度合いから前記第1の閾値よりも大きい度合いに変化する再生タイミングにおいて、前記出力制御部は、前記没頭度を下げるための表示制御を開始する、請求項1に記載の情報処理装置。
- 仮想現実のコンテンツを利用するユーザに対するセンシング結果から得られる情報であって、当該コンテンツへの没頭度を示す情報である盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得する取得部と、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報が示す盛り上がり度合いが第1の閾値よりも大きくなる際または前記第1のユーザが所定の行動を行ったことが検出された際に、前記第1のユーザの没頭度を下げるための表示制御を行う出力制御部と、を備え、
前記コンテンツは、少なくとも一つのイベント情報を含み、
前記出力制御部は、
前記少なくとも一つのイベント情報のうち、前記第1の閾値よりも大きい盛り上がり度合いに関連付けられているイベント情報が示すイベントが発生する直前に、前記没頭度を下げるための表示制御を開始する、
情報処理装置。 - 前記出力制御部は、さらに、前記第1のユーザの属性情報に基づいて、前記没頭度を下げるための表示制御を行う、請求項1に記載の情報処理装置。
- 前記出力制御部は、さらに、前記コンテンツの利用時間帯に基づいて、前記没頭度を下げるための表示制御を行う、請求項1に記載の情報処理装置。
- 前記盛り上がり情報は、前記第1のユーザ、または、前記第1のユーザとは異なる第2のユーザが過去に前記コンテンツを利用した際の盛り上がり度合いを含む、請求項1に記載の情報処理装置。
- 前記盛り上がり情報は、前記第1のユーザの現在の盛り上がり度合いを含む、請求項1に記載の情報処理装置。
- 仮想現実のコンテンツを利用するユーザに対するセンシング結果から得られる情報であって、当該コンテンツへの没頭度を示す情報である盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得することと、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報が示す盛り上がり度合いが第1の閾値よりも大きくなる際または前記第1のユーザが所定の行動を行ったことが検出された際に、プロセッサが、前記第1のユーザの没頭度を下げるための表示制御を行うことと、を含み、
前記没頭度を下げるための表示制御は、前記コンテンツにおける現在の視点の位置を、当該視点の向きに対して後方へ移動させることを含む、
情報処理方法。 - コンピュータを、
仮想現実のコンテンツを利用するユーザに対するセンシング結果から得られる情報であって、当該コンテンツへの没頭度を示す情報である盛り上がり情報、または、前記コンテンツを利用中の第1のユーザの行動に関する情報を取得する取得部と、
表示部により前記コンテンツが表示されている間に、前記盛り上がり情報が示す盛り上がり度合いが第1の閾値よりも大きくなる際または前記第1のユーザが所定の行動を行ったことが検出された際に、前記第1のユーザの没頭度を下げるための表示制御を行う出力制御部と、として機能させるためのプログラムであって、
前記没頭度を下げるための表示制御は、前記コンテンツにおける現在の視点の位置を、当該視点の向きに対して後方へ移動させることを含む、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017054197 | 2017-03-21 | ||
JP2017054197 | 2017-03-21 | ||
PCT/JP2017/044129 WO2018173383A1 (ja) | 2017-03-21 | 2017-12-08 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018173383A1 JPWO2018173383A1 (ja) | 2020-05-14 |
JP7107302B2 true JP7107302B2 (ja) | 2022-07-27 |
Family
ID=63585298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019506938A Active JP7107302B2 (ja) | 2017-03-21 | 2017-12-08 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10877555B2 (ja) |
EP (1) | EP3599536A4 (ja) |
JP (1) | JP7107302B2 (ja) |
WO (1) | WO2018173383A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220004250A1 (en) * | 2018-11-19 | 2022-01-06 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
KR102222747B1 (ko) * | 2018-11-30 | 2021-03-04 | 오당찬 | 몰입도 운용 방법 및 이를 지원하는 전자 장치 |
CN114514563A (zh) | 2019-09-27 | 2022-05-17 | 苹果公司 | 在电子设备上创建最佳工作、学习和休息环境 |
US11393171B2 (en) * | 2020-07-21 | 2022-07-19 | International Business Machines Corporation | Mobile device based VR content control |
WO2023189558A1 (ja) * | 2022-03-31 | 2023-10-05 | ソニーグループ株式会社 | 情報処理システムおよび情報処理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133710A (ja) | 2015-02-04 | 2015-07-23 | 日本ロジックス株式会社 | 映像・サウンド視聴システム及び映像・サウンドコンテンツの製作方法 |
JP2016062277A (ja) | 2014-09-18 | 2016-04-25 | 泰章 岩井 | 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006201853A (ja) * | 2005-01-18 | 2006-08-03 | Fujitsu Ten Ltd | コンテンツ再生装置 |
US20150070262A1 (en) * | 2005-09-21 | 2015-03-12 | Richard Ross Peters | Contextual annotations of a message based on user eye-tracking data |
JP4591586B2 (ja) | 2008-09-22 | 2010-12-01 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US9897805B2 (en) * | 2013-06-07 | 2018-02-20 | Sony Interactive Entertainment Inc. | Image rendering responsive to user actions in head mounted display |
US8963805B2 (en) * | 2012-01-27 | 2015-02-24 | Microsoft Corporation | Executable virtual objects associated with real objects |
US9872968B2 (en) * | 2013-04-17 | 2018-01-23 | Sri International | Biofeedback virtual reality sleep assistant |
JP6079614B2 (ja) | 2013-12-19 | 2017-02-15 | ソニー株式会社 | 画像表示装置及び画像表示方法 |
US9990774B2 (en) * | 2014-08-08 | 2018-06-05 | Sony Interactive Entertainment Inc. | Sensory stimulus management in head mounted display |
US20160195923A1 (en) * | 2014-12-26 | 2016-07-07 | Krush Technologies, Llc | Gyroscopic chair for virtual reality simulation |
JP6706473B2 (ja) * | 2015-09-14 | 2020-06-10 | 株式会社コーエーテクモゲームス | 情報処理装置、表示制御方法、及び表示制御プログラム |
US20180321493A1 (en) * | 2015-11-11 | 2018-11-08 | Lg Electronics Inc. | Hmd and method for controlling same |
US10695663B2 (en) * | 2015-12-22 | 2020-06-30 | Intel Corporation | Ambient awareness in virtual reality |
US10179290B2 (en) * | 2016-07-21 | 2019-01-15 | Sony Interactive Entertainment America Llc | Method and system for accessing previously stored game play via video recording as executed on a game cloud system |
-
2017
- 2017-12-08 US US16/486,963 patent/US10877555B2/en active Active
- 2017-12-08 WO PCT/JP2017/044129 patent/WO2018173383A1/ja unknown
- 2017-12-08 JP JP2019506938A patent/JP7107302B2/ja active Active
- 2017-12-08 EP EP17902050.8A patent/EP3599536A4/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016062277A (ja) | 2014-09-18 | 2016-04-25 | 泰章 岩井 | 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法 |
JP2015133710A (ja) | 2015-02-04 | 2015-07-23 | 日本ロジックス株式会社 | 映像・サウンド視聴システム及び映像・サウンドコンテンツの製作方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3599536A4 (en) | 2020-04-08 |
JPWO2018173383A1 (ja) | 2020-05-14 |
US10877555B2 (en) | 2020-12-29 |
US20200004321A1 (en) | 2020-01-02 |
WO2018173383A1 (ja) | 2018-09-27 |
EP3599536A1 (en) | 2020-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7107302B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11568643B2 (en) | Automatic control of wearable display device based on external conditions | |
CN108886532B (zh) | 用于操作个人代理的装置和方法 | |
US11178456B2 (en) | Video distribution system, video distribution method, and storage medium storing video distribution program | |
JP6361649B2 (ja) | 情報処理装置、通知状態制御方法及びプログラム | |
JP2020503574A (ja) | ヘッドマウントディスプレイによって提供される仮想現実環境への見物人フィードバックコンテンツの配信 | |
JP7092108B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN109542213A (zh) | 使用注视信息与计算设备交互的系统和方法 | |
JP6245477B2 (ja) | 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法 | |
JPWO2017061149A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2021210585A1 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
CN111654752B (zh) | 多媒体信息播放方法、装置、电子设备及存储介质 | |
US10643636B2 (en) | Information processing apparatus, information processing method, and program | |
JP7279121B2 (ja) | ユーザ行動支援装置、方法およびプログラム | |
US20200125788A1 (en) | Information processing device and information processing method | |
EP4331489A1 (en) | Sound-based attentive state assessment | |
CN108563322B (zh) | Vr/ar设备的控制方法和装置 | |
WO2023189558A1 (ja) | 情報処理システムおよび情報処理方法 | |
JP2024046867A (ja) | 情報処理装置および恐怖症改善支援方法 | |
JP2024046864A (ja) | 情報処理装置および恐怖症改善支援方法 | |
JP2024046866A (ja) | 情報処理装置および恐怖症改善支援方法 | |
JP2024046865A (ja) | 情報処理装置および恐怖症改善支援方法 | |
US20220408153A1 (en) | Information processing device, information processing method, and information processing program | |
JP2022065576A (ja) | プログラム、方法、情報処理装置、及びシステム | |
WO2023283161A1 (en) | Enhanced meditation experience based on bio-feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220627 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7107302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |