JPWO2020032239A1 - 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム - Google Patents
情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム Download PDFInfo
- Publication number
- JPWO2020032239A1 JPWO2020032239A1 JP2020535906A JP2020535906A JPWO2020032239A1 JP WO2020032239 A1 JPWO2020032239 A1 JP WO2020032239A1 JP 2020535906 A JP2020535906 A JP 2020535906A JP 2020535906 A JP2020535906 A JP 2020535906A JP WO2020032239 A1 JPWO2020032239 A1 JP WO2020032239A1
- Authority
- JP
- Japan
- Prior art keywords
- information
- detection
- space
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013461 design Methods 0.000 title claims description 30
- 238000000034 method Methods 0.000 title claims description 6
- 238000001514 detection method Methods 0.000 claims abstract description 291
- 230000003190 augmentative effect Effects 0.000 claims abstract description 10
- 230000033001 locomotion Effects 0.000 claims description 62
- 230000006870 function Effects 0.000 claims description 13
- 210000004556 brain Anatomy 0.000 claims description 11
- 230000008451 emotion Effects 0.000 claims description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 13
- 230000001133 acceleration Effects 0.000 description 29
- 230000008447 perception Effects 0.000 description 7
- 230000035900 sweating Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000004434 saccadic eye movement Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000002250 progressing effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/18—Details relating to CAD techniques using virtual or augmented reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- General Health & Medical Sciences (AREA)
- Dermatology (AREA)
- Computer Hardware Design (AREA)
- Computational Mathematics (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Evolutionary Computation (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
前記出力部は、前記動画に対応する複数の画像のうち、前記所定の反応が検出された再生位置に対応する一以上の画像を表示部に表示させてもよい。
前記出力部は、前記所定の反応が検出された一以上の再生位置のそれぞれに対応する一以上の画像の中から画像の選択を受け付け、選択された画像と類似する画像を表示させてもよい。
前記取得部は、前記ユーザが前記所定空間を見回す動作である見回し動作の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得してもよい。
前記取得部は、前記ユーザが前記所定空間を視認した場合における前記ユーザの所定パターンの視線の動きを前記見回し動作とし、当該見回し動作の検出状態を示す前記検出情報を取得してもよい。
前記取得部は、前記ユーザが前記所定空間を視認した場合における、前記ユーザの脳波の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得してもよい。
[設計支援システムSの概要]
図1は、第1実施形態に係る設計支援システムSの概要を示す図である。設計支援システムSは、生成装置1と、表示装置2と、情報出力装置3とを備え、建築物に関する空間の設計を支援するシステムである。
以下、表示装置2及び情報出力装置3の構成について説明する。
まず、表示装置2の構成について説明する。図2は、第1実施形態に係る表示装置2の構成を示す図である。
表示装置2は、入力部21と、表示部22と、検出部23と、記憶部24と、制御部25とを備える。
表示部22は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等により構成される。表示部22は、制御部25の制御に応じて各種情報を表示する。
検出部23は、例えば、3次元加速度センサであり、表示装置2にかかる加速度を検出する。検出部23は、加速度を検出すると、検出した加速度を示す情報を制御部25に出力する。
続いて、情報出力装置3の構成について説明する。図3は、第1実施形態に係る情報出力装置3の構成を示す図である。
入力部31は、例えば、ボタンや、表示部32に重畳して配置される接触センサ等により構成されており、情報出力装置3のユーザから操作入力を受け付ける。
表示部32は、例えば、液晶ディスプレイや有機ELディスプレイ等により構成される。表示部32は、制御部34の制御に応じて各種情報を表示する。
以下に、情報出力装置3が、VR空間情報と、取得した検出情報とを関連付けた認識結果情報を出力するときの処理の流れを示すシーケンス図を参照しながら、制御部25及び制御部34が備える各機能について説明する。図4は、第1実施形態における情報出力装置3が認識結果情報を出力するまでの処理の流れを示すシーケンス図である。
図5は、一人のユーザの認識結果情報の表示例を示す図である。ここでは、ユーザが、VR空間情報が示すVR空間として、VR動画を視認した場合の認識結果情報の表示例について説明する。また、所定の反応が、見回し動作であるものとして、認識結果情報の表示例について説明する。
出力部342は、取得部341が取得した一以上のユーザUの少なくともいずれかの選択を受け付け、VR空間情報が示すVR空間と、選択を受け付けたユーザUに対応する検出情報とを関連付けて出力してもよい。図6は、一以上のユーザの認識結果情報の表示例を示す図である。
出力部342は、ユーザUによる見回し動作を検出したときのVR空間における位置を特定してもよい。取得部341は、VR空間を示す地図情報を予め取得し、当該地図情報を記憶部33に記憶させる。出力部342は、記憶部33に記憶されている地図情報が示す地図に、特定した位置を示す情報を表示させる。図7は、VR空間に対応する地図の表示例を示す図である。
続いて、脳波と、見回し動作や注視動作との関係性について説明する。図8は、VR動画を視認したユーザのθ波の検出状況と、見回し動作としての首振り動作の検出状況とを示す図である。図8(a)は、θ波の検出状況を示し、図8(b)は、首振り動作や注視動作の検出状況を示している。なお、図8(a)に示すグラフの横軸と、図8(b)に示すグラフの横軸とは共通の時間軸であるものとする。また、図8(a)に示す縦軸は、θ波の大きさを示し、図8(b)に示す縦軸は、横方向の加速度を示している。図8に示すように、θ波を検出したことに応じて、首振り動作や注視動作の検出状況が大きく変化していることが確認でき、θ波と首振り動作や注視動作とに一定の相関性が認められる。
検出情報生成部253は、ユーザが歩行していない状態で検出された所定の反応に基づいて検出情報を生成してもよい。この場合、情報出力装置3は、例えば、ユーザが着席している間の一連の行動において検出された見回し動作と脳波との相関を分析し、見回しが多い場合には、空間の分節が多い不安定な状態、視線がサッカードほど速くなくゆっくり動くなどのように見回しが少ない場合、又は注視が多い場合には、空間の分節が少ない安定した状態であると定義して、室内等を評価した結果を出力してもよい。
以上のとおり、第1実施形態に係る情報出力装置3は、ユーザがVR空間を視認した場合における、ユーザの所定の反応の検出状況を示す検出情報を取得し、VR空間情報と、取得した検出情報とを関連付けて出力する。空間における所定の反応である見回し動作又はθ波の発生と、空間認識とは相関性を有していることから、情報出力装置3は、VR空間情報と、取得した検出情報とを関連付けて出力することにより、これらの情報を確認する設計者は、ユーザのVR空間内に含まれる空間に対する認知を把握することができる。
[認識結果情報を公開する]
続いて、第2実施形態について説明する。第1実施形態では、空間を設計する設計者Dが認識結果情報を確認したが、認識結果情報が示す認識結果は、空間における家具の配置等の室内レイアウトを検討する住居の居住者等にとっても有効である。そこで、第2実施形態に係る情報出力装置3は、認識結果情報を公開する公開サービスを提供する点で第1実施形態と異なる。以下に、第2実施形態に係る情報出力装置3について説明する。なお、第1実施形態と同じ部分については適宜説明を省略する。
以上のとおり、第2実施形態に係る情報出力装置3は、端末5を使用する第2ユーザU2に、認識結果情報の出力に対する課金を行うので、認識結果情報の出力に対する対価を得ることができる。また、情報出力装置3は、端末5に、公開が許可されている認識結果情報に対応するVR空間情報を出力するので、公開することが望まれていない認識結果情報が外部に公開されてしまうことを防止することができる。
Claims (24)
- ユーザがバーチャルリアリティ空間又は拡張現実空間である所定空間を視認した場合における、前記ユーザの所定の反応の検出状況を示す検出情報を取得する取得部と、
前記所定空間を示す情報と、前記取得部が取得した検出情報とを関連付けて出力する出力部と、
を備える情報出力装置。 - 前記取得部は、前記所定空間を示す動画を前記ユーザが視認した場合の前記所定の反応の検出状況と、前記動画の再生位置を示す情報とを関連付けた前記検出情報を取得し、
前記出力部は、前記動画の再生位置ごとの前記所定の反応の検出状況を示す前記検出情報を出力する、
請求項1に記載の情報出力装置。 - 前記出力部は、前記動画を再生して表示部に表示させるとともに、前記動画の再生位置のそれぞれにおける前記所定の反応の検出状況を示す情報と、前記動画の現在の再生位置を示す情報とを関連付けて表示部に表示させる、
請求項2に記載の情報出力装置。 - 前記出力部は、前記動画の再生位置を示す情報のうち、前記所定の反応が検出された再生位置を示す情報を、前記所定の反応が検出されていない再生位置を示す情報と異なる表示態様で表示させる、
請求項2又は3に記載の情報出力装置。 - 前記出力部は、前記動画に対応する複数の画像のうち、前記所定の反応が検出された再生位置に対応する一以上の画像を表示部に表示させる、
請求項2から4のいずれか1項に記載の情報出力装置。 - 前記出力部は、前記動画に含まれている画像とは異なる複数の画像のうち、前記動画における前記所定の反応が検出された再生位置の画像に対応する一以上の画像を表示させる、
請求項2から5のいずれか1項に記載の情報出力装置。 - 前記出力部は、前記所定の反応が検出された一以上の再生位置のそれぞれに対応する一以上の画像の中から画像の選択を受け付け、選択された画像と類似する画像を表示させる、
請求項2から6のいずれか1項に記載の情報出力装置。 - 前記出力部は、前記所定の反応を検出したときの前記所定空間における位置を特定し、前記所定空間を示す地図に、特定した位置を示す情報を表示させる、
請求項2から7のいずれか1項に記載の情報出力装置。 - 前記取得部は、複数の前記ユーザのそれぞれに対応する前記検出情報を取得し、
前記出力部は、前記所定空間を示す情報と、前記取得部が取得した複数の前記ユーザのそれぞれに対応する検出情報とを関連付けて出力する、
請求項1から8のいずれか1項に記載の情報出力装置。 - 前記出力部は、複数の前記ユーザの少なくともいずれかの選択を受け付け、前記所定空間を示す情報と、選択されたユーザに対応する検出情報とを関連付けて出力する、
請求項9に記載の情報出力装置。 - 前記取得部は、前記所定空間を示す動画を前記ユーザが視認した場合に前記所定の反応が検出されると予測される前記動画の再生位置を示す予測情報を取得し、
前記出力部は、前記取得部が取得した検出情報と、前記予測情報とを表示部に表示させる、
請求項1から10のいずれか1項に記載の情報出力装置。 - 前記取得部は、第1の所定空間を前記ユーザが視認した場合における前記検出情報である第1検出情報と、第2の所定空間を前記ユーザが視認した場合における前記検出情報である第2検出情報とを取得し、
前記出力部は、前記取得部が取得した前記第1検出情報と、前記第2検出情報とを表示部に表示させる、
請求項1から11のいずれか1項に記載の情報出力装置。 - 前記所定の反応の複数の検出パターンのそれぞれに対応する前記ユーザの感情を示す情報を記憶する記憶部をさらに備え、
前記出力部は、前記検出情報に含まれている検出パターンに対応する前記ユーザの感情を示す情報を出力する、
請求項1から12のいずれか1項に記載の情報出力装置。 - 前記取得部は、複数の所定空間のそれぞれについて、当該所定空間を示す情報と、取得した検出情報とを関連付けた結果情報と、当該結果情報を公開するか否かを示す情報とを関連付けて記憶部に記憶させ、
前記出力部は、端末から、前記記憶部に記憶されている、公開対象の前記結果情報の取得要求を受け付けると、当該端末に当該結果情報を出力する、
請求項1から13のいずれか1項に記載の情報出力装置。 - 前記端末のユーザに、前記結果情報の出力に対する課金を行う課金部をさらに備える、
請求項14に記載の情報出力装置。 - 前記取得部は、前記ユーザが前記所定空間を見回す動作である見回し動作の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得する、
請求項1から15のいずれか1項に記載の情報出力装置。 - 前記取得部は、前記ユーザが前記所定空間を視認した場合に前記ユーザが首を所定方向に振る首振り動作を前記見回し動作とし、当該見回し動作の検出状態を示す前記検出情報を取得する、
請求項16に記載の情報出力装置。 - 前記取得部は、前記ユーザが前記所定空間を視認した場合における前記ユーザの所定パターンの視線の動きを前記見回し動作とし、当該見回し動作の検出状態を示す前記検出情報を取得する、
請求項16又は17に記載の情報出力装置。 - 前記取得部は、前記ユーザが前記所定空間を所定時間以上注視する動作である注視動作の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得する、
請求項1から18のいずれか1項に記載の情報出力装置。 - 前記取得部は、前記ユーザが前記所定空間を視認した場合における、前記ユーザの脳波の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得する、
請求項1から19のいずれか1項に記載の情報出力装置。 - ユーザが装着する表示装置と、情報出力装置と、を備える設計支援システムであって、
前記表示装置は、
表示部と、
バーチャルリアリティ空間又は拡張現実空間である所定空間を前記表示部に表示させる表示制御部と、
前記ユーザが前記所定空間を視認した場合における、前記ユーザの所定の反応の検出状況を示す検出情報を生成する検出情報生成部と、
を有し、
前記情報出力装置は、
前記検出情報生成部が生成した前記検出情報を取得する取得部と、
前記所定空間を示す情報と、前記取得部が取得した検出情報とを関連付けて出力する出力部と、
を有する、
設計支援システム。 - 前記表示装置は、
情報を公開する情報公開装置から前記所定空間を示す情報を取得する空間情報取得部をさらに有し、
前記表示制御部は、前記空間情報取得部が取得した前記情報が示す所定空間を前記表示部に表示させる、
請求項21に記載の設計支援システム。 - コンピュータが実行する、
ユーザがバーチャルリアリティ空間又は拡張現実空間である所定空間を視認した場合における、前記ユーザの所定の反応の検出状況を示す検出情報を取得するステップと、
前記所定空間を示す情報と、取得された検出情報とを関連付けて出力するステップと、
を備える情報出力方法。 - コンピュータを、
ユーザがバーチャルリアリティ空間又は拡張現実空間である所定空間を視認した場合における、前記ユーザの所定の反応の検出状況を示す検出情報を取得する取得部、及び、
前記所定空間を示す情報と、前記取得部が取得した検出情報とを関連付けて出力する出力部、
として機能させる情報出力プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023109399A JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018150679 | 2018-08-09 | ||
JP2018150679 | 2018-08-09 | ||
PCT/JP2019/031576 WO2020032239A1 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023109399A Division JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2020032239A1 true JPWO2020032239A1 (ja) | 2021-08-12 |
JPWO2020032239A5 JPWO2020032239A5 (ja) | 2022-08-10 |
JP7312465B2 JP7312465B2 (ja) | 2023-07-21 |
Family
ID=69414256
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020535906A Active JP7312465B2 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
JP2023109399A Active JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023109399A Active JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11798597B2 (ja) |
JP (2) | JP7312465B2 (ja) |
WO (1) | WO2020032239A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023228342A1 (ja) * | 2022-05-26 | 2023-11-30 | 株式会社ジオクリエイツ | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003186904A (ja) * | 2001-12-17 | 2003-07-04 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ紹介方法、コンテンツ紹介装置、コンテンツ紹介プログラム及びそのプログラムを記録した媒体 |
JP2009005094A (ja) * | 2007-06-21 | 2009-01-08 | Mitsubishi Electric Corp | 携帯端末 |
JP2012104037A (ja) * | 2010-11-12 | 2012-05-31 | Renesas Electronics Corp | コンテンツ再生システム、サーバ、コンテンツ再生方法、及びプログラム |
JP6298561B1 (ja) * | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
JP2018097437A (ja) * | 2016-12-08 | 2018-06-21 | 株式会社テレパシージャパン | ウェアラブル情報表示端末及びこれを備えるシステム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172740A (ja) | 1998-12-10 | 2000-06-23 | Matsushita Electric Works Ltd | 視点情報表示機能付き設計支援システム |
JP5319564B2 (ja) | 2010-01-18 | 2013-10-16 | 大成建設株式会社 | レイアウト設計支援装置および方法 |
US20150309316A1 (en) * | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
JP6124517B2 (ja) | 2012-06-01 | 2017-05-10 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 |
US9699433B2 (en) * | 2013-01-24 | 2017-07-04 | Yuchen Zhou | Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye |
RU2682798C2 (ru) * | 2013-07-19 | 2019-03-21 | Сони Корпорейшн | Устройство обнаружения и способ |
JP6642430B2 (ja) | 2014-07-23 | 2020-02-05 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
KR101741739B1 (ko) * | 2016-02-19 | 2017-05-31 | 광주과학기술원 | 브레인 컴퓨터 인터페이스를 위한 장치 및 방법 |
WO2017158776A1 (ja) | 2016-03-16 | 2017-09-21 | 株式会社ジオクリエイツ | 位相特定装置、携帯端末、位相特定方法及びプログラム |
US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US11921921B2 (en) * | 2016-11-11 | 2024-03-05 | Matthew Hurst | Electroencephalograph-based user interface for virtual and augmented reality systems |
-
2019
- 2019-08-09 JP JP2020535906A patent/JP7312465B2/ja active Active
- 2019-08-09 WO PCT/JP2019/031576 patent/WO2020032239A1/ja active Application Filing
-
2021
- 2021-02-04 US US17/167,604 patent/US11798597B2/en active Active
-
2023
- 2023-07-03 JP JP2023109399A patent/JP7479735B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003186904A (ja) * | 2001-12-17 | 2003-07-04 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ紹介方法、コンテンツ紹介装置、コンテンツ紹介プログラム及びそのプログラムを記録した媒体 |
JP2009005094A (ja) * | 2007-06-21 | 2009-01-08 | Mitsubishi Electric Corp | 携帯端末 |
JP2012104037A (ja) * | 2010-11-12 | 2012-05-31 | Renesas Electronics Corp | コンテンツ再生システム、サーバ、コンテンツ再生方法、及びプログラム |
JP2018097437A (ja) * | 2016-12-08 | 2018-06-21 | 株式会社テレパシージャパン | ウェアラブル情報表示端末及びこれを備えるシステム |
JP6298561B1 (ja) * | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020032239A1 (ja) | 2020-02-13 |
JP7479735B2 (ja) | 2024-05-09 |
JP7312465B2 (ja) | 2023-07-21 |
US20210249050A1 (en) | 2021-08-12 |
JP2023123787A (ja) | 2023-09-05 |
US11798597B2 (en) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11875656B2 (en) | Virtual enhancement of security monitoring | |
CN103760968B (zh) | 数字标牌显示内容选择方法和装置 | |
US9978174B2 (en) | Remote sensor access and queuing | |
CN104620522B (zh) | 通过所检测到的身体标记来确定用户兴趣 | |
US20170374414A1 (en) | System And Method For Media Experience Data | |
US11483618B2 (en) | Methods and systems for improving user experience | |
US11877203B2 (en) | Controlled exposure to location-based virtual content | |
Cucchiara et al. | Visions for augmented cultural heritage experience | |
JP6720385B1 (ja) | プログラム、情報処理方法、及び情報処理端末 | |
US20130229342A1 (en) | Information providing system, information providing method, information processing apparatus, method of controlling the same, and control program | |
JP6822413B2 (ja) | サーバ装置及び情報処理方法、並びにコンピュータ・プログラム | |
KR20180088538A (ko) | Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템 | |
JP7479735B2 (ja) | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム | |
WO2013024667A1 (ja) | 関心地点抽出装置、関心地点抽出方法、及びコンピュータ読み取り可能な記録媒体 | |
US20240108985A1 (en) | Managing virtual collisions between moving virtual objects | |
D. Gomez et al. | See ColOr: an extended sensory substitution device for the visually impaired | |
JP7266984B2 (ja) | サーバ装置 | |
JP2015045940A (ja) | 感情抽出方法、感情抽出プログラム、感情抽出装置、及び建築物設計方法 | |
JP2024091779A (ja) | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム | |
WO2021152834A1 (ja) | ライフログ管理装置、制御方法及び記憶媒体 | |
JP7398853B1 (ja) | 動画視聴解析システム、動画視聴解析方法および動画視聴解析プログラム | |
CN114047814B (zh) | 一种交互式体验系统及方法 | |
WO2018168444A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
US20240143650A1 (en) | Systems and methods for navigating an extended reality history | |
WO2019105002A1 (en) | Systems and methods for creating virtual 3d environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7312465 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |