JP7479735B2 - 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム - Google Patents
情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム Download PDFInfo
- Publication number
- JP7479735B2 JP7479735B2 JP2023109399A JP2023109399A JP7479735B2 JP 7479735 B2 JP7479735 B2 JP 7479735B2 JP 2023109399 A JP2023109399 A JP 2023109399A JP 2023109399 A JP2023109399 A JP 2023109399A JP 7479735 B2 JP7479735 B2 JP 7479735B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- space
- detection
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 11
- 238000001514 detection method Methods 0.000 claims description 286
- 230000033001 locomotion Effects 0.000 claims description 105
- 230000009471 action Effects 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 15
- 230000008451 emotion Effects 0.000 claims description 14
- 230000003190 augmentative effect Effects 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 description 71
- 230000001133 acceleration Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 21
- 210000004556 brain Anatomy 0.000 description 12
- 230000008447 perception Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000004434 saccadic eye movement Effects 0.000 description 5
- 230000035900 sweating Effects 0.000 description 5
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000019771 cognition Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000009418 renovation Methods 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 230000006998 cognitive state Effects 0.000 description 1
- 230000021824 exploration behavior Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/18—Details relating to CAD techniques using virtual or augmented reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- General Health & Medical Sciences (AREA)
- Dermatology (AREA)
- Computer Hardware Design (AREA)
- Computational Mathematics (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Evolutionary Computation (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
Description
前記出力部は、前記動画に対応する複数の画像のうち、前記所定の反応が検出された再生位置に対応する一以上の画像を表示部に表示させてもよい。
前記出力部は、前記所定の反応が検出された一以上の再生位置のそれぞれに対応する一以上の画像の中から画像の選択を受け付け、選択された画像と類似する画像を表示させてもよい。
前記取得部は、前記ユーザが前記所定空間を見回す動作である見回し動作の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得してもよい。
前記取得部は、前記ユーザが前記所定空間を視認した場合における前記ユーザの所定パターンの視線の動きを前記見回し動作とし、当該見回し動作の検出状態を示す前記検出情報を取得してもよい。
前記取得部は、前記ユーザが前記所定空間を視認した場合における、前記ユーザの脳波の検出状態を示す検出情報を、前記所定の反応の検出状況を示す検出情報として取得してもよい。
[設計支援システムSの概要]
図1は、第1実施形態に係る設計支援システムSの概要を示す図である。設計支援システムSは、生成装置1と、表示装置2と、情報出力装置3とを備え、建築物に関する空間の設計を支援するシステムである。
以下、表示装置2及び情報出力装置3の構成について説明する。
まず、表示装置2の構成について説明する。図2は、第1実施形態に係る表示装置2の構成を示す図である。
表示装置2は、入力部21と、表示部22と、検出部23と、記憶部24と、制御部25とを備える。
表示部22は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等により構成される。表示部22は、制御部25の制御に応じて各種情報を表示する。
検出部23は、例えば、3次元加速度センサであり、表示装置2にかかる加速度を検出する。検出部23は、加速度を検出すると、検出した加速度を示す情報を制御部25に出力する。
続いて、情報出力装置3の構成について説明する。図3は、第1実施形態に係る情報出力装置3の構成を示す図である。
入力部31は、例えば、ボタンや、表示部32に重畳して配置される接触センサ等により構成されており、情報出力装置3のユーザから操作入力を受け付ける。
表示部32は、例えば、液晶ディスプレイや有機ELディスプレイ等により構成される。表示部32は、制御部34の制御に応じて各種情報を表示する。
以下に、情報出力装置3が、VR空間情報と、取得した検出情報とを関連付けた認識結果情報を出力するときの処理の流れを示すシーケンス図を参照しながら、制御部25及び制御部34が備える各機能について説明する。図4は、第1実施形態における情報出力装置3が認識結果情報を出力するまでの処理の流れを示すシーケンス図である。
図5は、一人のユーザの認識結果情報の表示例を示す図である。ここでは、ユーザが、VR空間情報が示すVR空間として、VR動画を視認した場合の認識結果情報の表示例について説明する。また、所定の反応が、見回し動作であるものとして、認識結果情報の表示例について説明する。
出力部342は、取得部341が取得した一以上のユーザUの少なくともいずれかの選択を受け付け、VR空間情報が示すVR空間と、選択を受け付けたユーザUに対応する検出情報とを関連付けて出力してもよい。図6は、一以上のユーザの認識結果情報の表示例を示す図である。
出力部342は、ユーザUによる見回し動作を検出したときのVR空間における位置を特定してもよい。取得部341は、VR空間を示す地図情報を予め取得し、当該地図情報を記憶部33に記憶させる。出力部342は、記憶部33に記憶されている地図情報が示す地図に、特定した位置を示す情報を表示させる。図7は、VR空間に対応する地図の表示例を示す図である。
続いて、脳波と、見回し動作や注視動作との関係性について説明する。図8は、VR動画を視認したユーザのθ波の検出状況と、見回し動作としての首振り動作の検出状況とを示す図である。図8(a)は、θ波の検出状況を示し、図8(b)は、首振り動作や注視動作の検出状況を示している。なお、図8(a)に示すグラフの横軸と、図8(b)に示すグラフの横軸とは共通の時間軸であるものとする。また、図8(a)に示す縦軸は、θ波の大きさを示し、図8(b)に示す縦軸は、横方向の加速度を示している。図8に示すように、θ波を検出したことに応じて、首振り動作や注視動作の検出状況が大きく変化していることが確認でき、θ波と首振り動作や注視動作とに一定の相関性が認められる。
検出情報生成部253は、ユーザが歩行していない状態で検出された所定の反応に基づいて検出情報を生成してもよい。この場合、情報出力装置3は、例えば、ユーザが着席している間の一連の行動において検出された見回し動作と脳波との相関を分析し、見回しが多い場合には、空間の分節が多い不安定な状態、視線がサッカードほど速くなくゆっくり動くなどのように見回しが少ない場合、又は注視が多い場合には、空間の分節が少ない安定した状態であると定義して、室内等を評価した結果を出力してもよい。
以上のとおり、第1実施形態に係る情報出力装置3は、ユーザがVR空間を視認した場合における、ユーザの所定の反応の検出状況を示す検出情報を取得し、VR空間情報と、取得した検出情報とを関連付けて出力する。空間における所定の反応である見回し動作又はθ波の発生と、空間認識とは相関性を有していることから、情報出力装置3は、VR空間情報と、取得した検出情報とを関連付けて出力することにより、これらの情報を確認する設計者は、ユーザのVR空間内に含まれる空間に対する認知を把握することができる。
[認識結果情報を公開する]
続いて、第2実施形態について説明する。第1実施形態では、空間を設計する設計者Dが認識結果情報を確認したが、認識結果情報が示す認識結果は、空間における家具の配置等の室内レイアウトを検討する住居の居住者等にとっても有効である。そこで、第2実施形態に係る情報出力装置3は、認識結果情報を公開する公開サービスを提供する点で第1実施形態と異なる。以下に、第2実施形態に係る情報出力装置3について説明する。なお、第1実施形態と同じ部分については適宜説明を省略する。
以上のとおり、第2実施形態に係る情報出力装置3は、端末5を使用する第2ユーザU2に、認識結果情報の出力に対する課金を行うので、認識結果情報の出力に対する対価を得ることができる。また、情報出力装置3は、端末5に、公開が許可されている認識結果情報に対応するVR空間情報を出力するので、公開することが望まれていない認識結果情報が外部に公開されてしまうことを防止することができる。
Claims (7)
- 実際の空間又は設計対象の空間に対応するバーチャルリアリティ空間又は拡張現実空間である所定空間をユーザが視認した場合における、前記ユーザが地面と水平の方向であって進行方向に対して垂直方向に首を振る首振り動作及び、前記ユーザの進行方向を基準として前記ユーザの視線を第1角度範囲に含まれる方向に動かした後、所定時間以内に前記進行方向を基準として前記第1角度範囲と反対側の第2角度範囲に含まれる方向に動かす視線の動きの少なくともいずれかを、前記ユーザが空間を認識しようと反応したことを示す見回し動作とし、当該見回し動作の検出状況を示す検出情報を取得する取得部と、
前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンを特定し、前記見回し動作の複数の検出パターンのそれぞれに対応するユーザの感情を示す情報を記憶する記憶部において、特定した検出パターンに対応づけられている前記ユーザの感情を示す情報と、前記所定空間を示す情報と、前記取得部が取得した検出情報とを関連付けて出力する出力部と、
を備える情報出力装置。 - 前記取得部は、前記所定空間をユーザが視認した場合における、前記ユーザが首を所定方向に振る動作と、前記ユーザの視線が前記ユーザの進行方向を基準とした場合に第1の所定角度範囲の方向に動いた後、前記進行方向を基準として前記第1の所定角度範囲と反対の角度範囲である第2の所定の角度範囲の方向に動く動作との少なくともいずれかを含む動作を、前記見回し動作とし、当該見回し動作の検出状況を示す検出情報を取得する、
請求項1に記載の情報出力装置。 - 前記出力部は、前記見回し動作を検出したときの前記所定空間における位置を特定し、前記所定空間を示す地図に含まれる当該特定した位置に、前記見回し動作を検出したことを示す情報を表示させる、
請求項1又は2に記載の情報出力装置。 - 前記出力部は、前記所定空間を示す動画を前記ユーザが視認した場合における、前記ユーザの見回し動作の検出状況を示す検出情報であって、前記所定空間を示す動画に含まれる複数の画像のうち、前記見回し動作を検出したタイミングに対応する画像を含む前記検出情報を取得し、
前記出力部は、前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンに対応づけられている前記ユーザの感情を示す情報と、前記所定空間を示す情報と、前記取得部が取得した、前記見回し動作を検出したタイミングに対応する画像を含む検出情報とを関連付けて出力する、
請求項1から3のいずれか1項に記載の情報出力装置。 - ユーザが装着する表示装置と、情報出力装置と、を備える設計支援システムであって、
前記表示装置は、
表示部と、
実際の空間又は設計対象の空間に対応するバーチャルリアリティ空間又は拡張現実空間である所定空間を前記表示部に表示させる表示制御部と、
前記ユーザが前記所定空間を視認した場合における、前記ユーザが地面と水平の方向であって進行方向に対して垂直方向に首を振る首振り動作及び、前記ユーザの進行方向を基準として前記ユーザの視線を第1角度範囲に含まれる方向に動かした後、所定時間以内に前記進行方向を基準として前記第1角度範囲と反対側の第2角度範囲に含まれる方向に動かす視線の動きの少なくともいずれかを、前記ユーザが空間を認識しようと反応したことを示す見回し動作とし、当該見回し動作の検出状況を示す検出情報を生成する検出情報生成部と、
を有し、
前記情報出力装置は、
前記検出情報生成部が生成した前記検出情報を取得する取得部と、
前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンを特定し、前記見回し動作の複数の検出パターンのそれぞれに対応するユーザの感情を示す情報を記憶する記憶部において、特定した検出パターンに対応づけられている前記ユーザの感情を示す情報と、前記所定空間を示す情報と、前記取得部が取得した検出情報とを関連付けて出力する出力部と、
を有する、
設計支援システム。 - コンピュータが実行する、
実際の空間又は設計対象の空間に対応するバーチャルリアリティ空間又は拡張現実空間である所定空間をユーザが視認した場合における、前記ユーザが地面と水平の方向であって進行方向に対して垂直方向に首を振る首振り動作及び、前記ユーザの進行方向を基準として前記ユーザの視線を第1角度範囲に含まれる方向に動かした後、所定時間以内に前記進行方向を基準として前記第1角度範囲と反対側の第2角度範囲に含まれる方向に動かす視線の動きの少なくともいずれかを、前記ユーザが空間を認識しようと反応したことを示す見回し動作とし、当該見回し動作の検出状況を示す検出情報を取得するステップと、
前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンを特定し、前記見回し動作の複数の検出パターンのそれぞれに対応するユーザの感情を示す情報を記憶する記憶部において、特定した検出パターンに対応づけられている前記ユーザの感情を示す情報と、前記所定空間を示す情報と、取得された検出情報とを関連付けて出力するステップと、
を備える情報出力方法。 - コンピュータを、
実際の空間又は設計対象の空間に対応するバーチャルリアリティ空間又は拡張現実空間である所定空間をユーザが視認した場合における、前記ユーザが地面と水平の方向であって進行方向に対して垂直方向に首を振る首振り動作及び、前記ユーザの進行方向を基準として前記ユーザの視線を第1角度範囲に含まれる方向に動かした後、所定時間以内に前記進行方向を基準として前記第1角度範囲と反対側の第2角度範囲に含まれる方向に動かす視線の動きの少なくともいずれかを、前記ユーザが空間を認識しようと反応したことを示す見回し動作とし、当該見回し動作の検出状況を示す検出情報を取得する取得部、及び、
前記検出情報が示す前記見回し動作の検出状況に対応する前記見回し動作の検出パターンを特定し、前記見回し動作の複数の検出パターンのそれぞれに対応するユーザの感情を示す情報を記憶する記憶部において、特定した検出パターンに対応づけられている前記ユーザの感情を示す情報と、前記所定空間を示す情報と、前記取得部が取得した検出情報とを関連付けて出力する出力部、
として機能させる情報出力プログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018150679 | 2018-08-09 | ||
JP2018150679 | 2018-08-09 | ||
JP2020535906A JP7312465B2 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
PCT/JP2019/031576 WO2020032239A1 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020535906A Division JP7312465B2 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023123787A JP2023123787A (ja) | 2023-09-05 |
JP7479735B2 true JP7479735B2 (ja) | 2024-05-09 |
Family
ID=69414256
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020535906A Active JP7312465B2 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
JP2023109399A Active JP7479735B2 (ja) | 2018-08-09 | 2023-07-03 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020535906A Active JP7312465B2 (ja) | 2018-08-09 | 2019-08-09 | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11798597B2 (ja) |
JP (2) | JP7312465B2 (ja) |
WO (1) | WO2020032239A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023228342A1 (ja) * | 2022-05-26 | 2023-11-30 | 株式会社ジオクリエイツ | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172740A (ja) | 1998-12-10 | 2000-06-23 | Matsushita Electric Works Ltd | 視点情報表示機能付き設計支援システム |
JP2013250830A (ja) | 2012-06-01 | 2013-12-12 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 |
WO2016013272A1 (ja) | 2014-07-23 | 2016-01-28 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
JP2017167501A (ja) | 2016-03-16 | 2017-09-21 | 株式会社ジオクリエイツ | 位相特定装置、携帯端末、位相特定方法及びプログラム |
JP6298561B1 (ja) | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3971176B2 (ja) * | 2001-12-17 | 2007-09-05 | 日本電信電話株式会社 | コンテンツ紹介方法、コンテンツ紹介装置、コンテンツ紹介プログラム及びそのプログラムを記録した媒体 |
JP2009005094A (ja) * | 2007-06-21 | 2009-01-08 | Mitsubishi Electric Corp | 携帯端末 |
JP5319564B2 (ja) | 2010-01-18 | 2013-10-16 | 大成建設株式会社 | レイアウト設計支援装置および方法 |
US20150309316A1 (en) * | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
JP2012104037A (ja) * | 2010-11-12 | 2012-05-31 | Renesas Electronics Corp | コンテンツ再生システム、サーバ、コンテンツ再生方法、及びプログラム |
US9699433B2 (en) * | 2013-01-24 | 2017-07-04 | Yuchen Zhou | Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye |
EP3023864B1 (en) * | 2013-07-19 | 2022-12-21 | Sony Group Corporation | Detection device and method |
KR101741739B1 (ko) * | 2016-02-19 | 2017-05-31 | 광주과학기술원 | 브레인 컴퓨터 인터페이스를 위한 장치 및 방법 |
US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US11921921B2 (en) * | 2016-11-11 | 2024-03-05 | Matthew Hurst | Electroencephalograph-based user interface for virtual and augmented reality systems |
JP2018097437A (ja) * | 2016-12-08 | 2018-06-21 | 株式会社テレパシージャパン | ウェアラブル情報表示端末及びこれを備えるシステム |
-
2019
- 2019-08-09 WO PCT/JP2019/031576 patent/WO2020032239A1/ja active Application Filing
- 2019-08-09 JP JP2020535906A patent/JP7312465B2/ja active Active
-
2021
- 2021-02-04 US US17/167,604 patent/US11798597B2/en active Active
-
2023
- 2023-07-03 JP JP2023109399A patent/JP7479735B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172740A (ja) | 1998-12-10 | 2000-06-23 | Matsushita Electric Works Ltd | 視点情報表示機能付き設計支援システム |
JP2013250830A (ja) | 2012-06-01 | 2013-12-12 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 |
WO2016013272A1 (ja) | 2014-07-23 | 2016-01-28 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
JP2017167501A (ja) | 2016-03-16 | 2017-09-21 | 株式会社ジオクリエイツ | 位相特定装置、携帯端末、位相特定方法及びプログラム |
JP6298561B1 (ja) | 2017-05-26 | 2018-03-20 | 株式会社コロプラ | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020032239A1 (ja) | 2021-08-12 |
JP7312465B2 (ja) | 2023-07-21 |
JP2023123787A (ja) | 2023-09-05 |
WO2020032239A1 (ja) | 2020-02-13 |
US20210249050A1 (en) | 2021-08-12 |
US11798597B2 (en) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11810226B2 (en) | Systems and methods for utilizing a living entity as a marker for augmented reality content | |
US10209516B2 (en) | Display control method for prioritizing information | |
Li et al. | Emotion recognition using Kinect motion capture data of human gaits | |
CN103760968B (zh) | 数字标牌显示内容选择方法和装置 | |
WO2019234879A1 (ja) | 情報処理システム、情報処理方法およびコンピュータプログラム | |
JP6462059B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置 | |
JP2019522856A (ja) | バーチャルリアリティシーンに参加するための操作方法及びシステム | |
Cucchiara et al. | Visions for augmented cultural heritage experience | |
JP7479735B2 (ja) | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム | |
CN105872452A (zh) | 浏览摘要图像的系统及方法 | |
CN109478267A (zh) | 基于观察的事件跟踪 | |
JP2018085571A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6728863B2 (ja) | 情報処理システム | |
CN108028906A (zh) | 信息处理系统和信息处理方法 | |
JP7438653B2 (ja) | 感情情報管理サーバ装置、感情情報管理方法、プログラム及び情報通信システム | |
JPWO2017068925A1 (ja) | 情報処理装置及び情報処理装置の制御方法、並びにコンピュータ・プログラム | |
WO2013024667A1 (ja) | 関心地点抽出装置、関心地点抽出方法、及びコンピュータ読み取り可能な記録媒体 | |
JP7266984B2 (ja) | サーバ装置 | |
KR20180088005A (ko) | Vr 영상 저작 도구 및 vr 영상 저작 장치 | |
CN111279410B (zh) | 显示设备和显示设备控制方法 | |
WO2023037845A1 (ja) | 情報処理システム及び情報処理方法 | |
JP2017167501A (ja) | 位相特定装置、携帯端末、位相特定方法及びプログラム | |
WO2021152834A1 (ja) | ライフログ管理装置、制御方法及び記憶媒体 | |
JPWO2020032239A5 (ja) | ||
US20240004471A1 (en) | Information processing device, information processing method, program, and information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230714 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230714 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7479735 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |