JP7376616B2 - ヘッドマウント型情報出力装置 - Google Patents
ヘッドマウント型情報出力装置 Download PDFInfo
- Publication number
- JP7376616B2 JP7376616B2 JP2021566727A JP2021566727A JP7376616B2 JP 7376616 B2 JP7376616 B2 JP 7376616B2 JP 2021566727 A JP2021566727 A JP 2021566727A JP 2021566727 A JP2021566727 A JP 2021566727A JP 7376616 B2 JP7376616 B2 JP 7376616B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- head
- image
- information output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 claims description 28
- 238000012544 monitoring process Methods 0.000 claims description 23
- 238000010586 diagram Methods 0.000 description 41
- 238000000034 method Methods 0.000 description 15
- 230000000007 visual effect Effects 0.000 description 10
- 239000003550 marker Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 235000001674 Agaricus brunnescens Nutrition 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 210000003323 beak Anatomy 0.000 description 3
- 231100000614 poison Toxicity 0.000 description 3
- 230000007096 poisonous effect Effects 0.000 description 3
- 241000287459 Pelecaniformes Species 0.000 description 2
- 241001466532 Pelecanus erythrorhynchos Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 235000008331 Pinus X rigitaeda Nutrition 0.000 description 1
- 235000011613 Pinus brutia Nutrition 0.000 description 1
- 241000018646 Pinus brutia Species 0.000 description 1
- 241000422846 Sequoiadendron giganteum Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Description
また、上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
情報サーバ160は、情報生成部161、メモリ部162、制御部163、通信部164、送受信アンテナ165を用いて構成され、各構成部はバス166を介して相互に接続されている。
(a)はユーザ10の目の前の視界の景色画像の例で、(b)はカメラ111により景色画像を撮影して取り込んだカメラ画像である。(c)は透明なタッチパネル112で、ユーザ10はタッチパネル112を介して(a)の景色画像を視認することができる。(c)のタッチパネル112の入力領域は、(b)のカメラ画像の領域と対応付けて割り付けられている(マッピング処理)。
図4Aから図4Fは、1本の指で所望画像を指定入力する場合の動作を示す図である。
図5Aは、目の前の視界の景色画像501の例であり、噴水502、子供503、大きな木504などがある公園内の風景である。図5Bはタッチパネル112で、タッチパネル112を介して目の前の景色画像501が見えている。ユーザは複数の指12で、所望画像である噴水502、子供503、および大きな木504を囲むようにタッチパネル112上の位置を指定する(指定された位置の景色画像を点線で示す)。
なお、対象物情報に対象物までの距離を含める場合には、例えば「10メートル前方の位置に大きな木があり、その前の3メートル前方の位置に噴水があり、その左側2メートル前方の位置に子供がいます」といった情報になる。
図6Aは、目の前の視界の景色画像601の例であり、花壇602、噴水603、ベンチ604などがある公園内の風景である。図6Bはタッチパネル112で、タッチパネル112を介して目の前の景色画像601が見えている。タッチパネル112上でユーザは指11をスワイプ(矢印13で示す)することで、スワイプした範囲に存在する花壇602、噴水603、ベンチ604を指定する(指定された位置の景色画像を点線で示す)。
なお、対象物情報に対象物までの距離を含める場合には、例えば「左4メートル前方の位置に花壇、真ん中3メートル前方の位置に噴水、右2メートル前方の位置にベンチがあります」といった情報になる。
S302:ユーザにより対象物指定部121(タッチパネル112など)にて所望の画像の選択指定入力が行われたかを判定する。指定入力が行われないときは、指定入力が行われるまで待機し、その間、S301の撮影を継続して最新のカメラ画像を取り込む。
S307:対象物情報取得部115は、検出した距離情報を、S304で取得生成した対象物情報に追加する。
S309:選択指定入力が終了するまで、上述のシーケンスを繰り返す。
(a)はユーザ10の目の前の視界の景色画像の例で、(b1)は3Dマップ取得部201が外部の情報サーバ160から取得した3Dマップである。この3Dマップ上で、位置センサ203が検出したユーザが居る位置と、距離センサ120で検出したユーザが居る場所の地面からの高さ位置を基点に、地磁気センサ204で検出したユーザが向いている方角を定める。
図10Aは、HMD100’を装着したユーザ10が小山700に位置し、周辺の景色を見ている状態である。周辺の景色画像701には、タワー702、建物703、704などが存在している。このときHMD100’は、外部の地図提供サーバ180から3Dマップを取得する。そして、ユーザ10の位置とユーザ10の向いている方角705をもとに、ユーザの見ている景色画像701に対応する視界地図画像を生成する。ただし、生成した視界地図画像は表示されないので、ユーザ10には見えない。
なお、上記説明では3Dマップの地図データを利用するものとしたが、2Dマップすなわち2次元の地図データを利用しても、類似の動作を実現できる。
(a)はユーザ10の目の前の視界の景色画像の例で、(b)は視界監視映像取得部211が監視映像サーバ190から取得した視界監視映像である。この視界監視映像は、ユーザ10の位置、高さ、向いている方角をもとに、各監視カメラの映像から切り出したものである。よって、ユーザの見る(a)の景色画像と(b)の視界監視映像とは、画像内位置が対応したものとなる。ただし、ユーザの位置と監視カメラの位置は異なることから、ユーザには見えないが監視カメラには写る物体、あるいはその逆に、ユーザには見えても監視カメラには写らない物体が存在する場合がある。
図13Aは、ユーザ10が見ている前方の景色映像801で、ビル802や走行している自動車803が存在している。このときHMD100”は、外部の監視映像サーバ190に、監視カメラ映像を要求する。これに対し情報サーバ160は、保有している監視カメラ映像からユーザの前方に見える景色に対応する視界監視映像を切り出し生成して提供する。ただし、HMD100”では受け取った視界監視映像は表示しないので、ユーザには見えない。
Claims (8)
- ユーザが頭部に装着し現実空間や仮想空間の画像を視認するヘッドマウント型情報出力装置において、
前記ユーザの視界内の前記現実空間の画像を撮影するカメラと、
前記ヘッドマウント型情報出力装置がユーザの頭部に装着されたときに前記ユーザの視線方向となる面に透明なタッチパネルを設け、前記カメラで撮影される撮影画像の領域と対応した位置座標が割り付けられた入力領域を有し、前記ユーザが前記タッチパネルを透過して視認した前記現実空間にある所望の対象物の位置を指定する対象物指定部と、
前記カメラが撮影した撮影画像内で、前記対象物指定部によりユーザが指定した位置に対応する画像部分を解析して、前記ユーザが指定した対象物を識別する対象物識別部と、
前記対象物識別部が識別した対象物に関する対象物情報を取得生成する対象物情報取得部と、
前記対象物情報取得部が取得した対象物情報を、情報表示部からテキスト文字で、あるいは音声出力部から音声で出力する情報出力部と、を備え、
前記対象物指定部では、前記カメラが撮影した撮影画像をユーザに表示することなく、前記ユーザは視界内の前記現実空間を視認した状態で前記対象物の位置を指定することを特徴とするヘッドマウント型情報出力装置。 - 請求項1に記載のヘッドマウント型情報出力装置であって、
前記対象物指定部は、ユーザが複数の指で接触あるいは近接して、複数の指で囲まれた範囲内の対象物を指定することを特徴とするヘッドマウント型情報出力装置。 - 請求項1に記載のヘッドマウント型情報出力装置であって、
前記対象物指定部は、ユーザが指を滑らしスワイプし、スワイプした範囲内の対象物を指定することを特徴とするヘッドマウント型情報出力装置。 - 請求項1に記載のヘッドマウント型情報出力装置であって、
前記対象物指定部に対し、ユーザが同じ位置を繰り返し指定した場合、あるいは同じ位置を所定時間より長く指定した場合には、前記対象物情報取得部では、対象物に関するより詳しい対象物情報を取得生成することを特徴とするヘッドマウント型情報出力装置。 - 請求項1に記載のヘッドマウント型情報出力装置であって、
さらに、ユーザの視界内の対象物までの距離を検出する距離センサを有し、
ユーザから対象物までの距離情報の要求があったときには、前記対象物情報取得部では、前記距離センサで検出した対象物までの距離情報を含めた対象物情報を取得生成することを特徴とするヘッドマウント型情報出力装置。 - 請求項1に記載のヘッドマウント型情報出力装置であって、
さらに、外部の情報サーバと情報の送受信を行う通信部を有し、
前記対象物情報取得部は、対象物に関する対象物情報を、前記通信部を介して前記情報サーバから取得して生成することを特徴とするヘッドマウント型情報出力装置。 - ユーザが頭部に装着し現実空間や仮想空間の画像を視認するヘッドマウント型情報出力装置において、
平面地図に高さ方向の3次元情報を加えた地図データである3Dマップを取得する3Dマップ取得部と、
前記取得した3Dマップから前記ユーザの視界内の地図データを切り出して視界地図画像を生成する視界地図画像生成部と、
前記ヘッドマウント型情報出力装置の現在位置を検出する位置センサと、
前記ヘッドマウント型情報出力装置の向いている方角を検出する地磁気センサと、
前記ヘッドマウント型情報出力装置の地面からの高さを検出する距離センサと、
前記ヘッドマウント型情報出力装置がユーザの頭部に装着されたときに前記ユーザの視線方向となる面に透明なタッチパネルを設け、前記視界地図画像生成部で生成された視界地図画像の画像領域と対応した位置座標が割り付けられた入力領域を有し、前記ユーザが前記タッチパネルを透過して視認した前記現実空間にある所望の対象物の位置を指定する対象物指定部と、
前記視界地図画像生成部で生成された視界地図画像の画像内で、前記対象物指定部によりユーザが指定した位置に対応する画像部分を解析して、前記ユーザが指定した対象物を識別する対象物識別部と、
前記対象物識別部が識別した対象物に関する対象物情報を取得生成する対象物情報取得部と、
前記対象物情報取得部が取得した対象物情報を、情報表示部からテキスト文字で、あるいは音声出力部から音声で出力する情報出力部と、を備え、
前記視界地図画像生成部では、前記3Dマップ取得部で取得した3Dマップから、前記位置センサにより検出された現在位置、および前記距離センサにより検出された地面からの高さにあって、前記地磁気センサにより検出された方角に向かって見える範囲の地図データを切り出して視界地図画像を生成し、
前記対象物指定部では、前記視界地図画像生成部が生成した視界地図画像をユーザに表示することなく、前記ユーザは視界内の前記現実空間を視認した状態で前記対象物の位置を指定することを特徴とするヘッドマウント型情報出力装置。 - 監視カメラ映像を保有する監視映像サーバに接続し、ユーザが頭部に装着して現実空間や仮想空間の画像を視認するヘッドマウント型情報出力装置において、
前記監視映像サーバと情報の送受信を行う通信部と、
前記監視映像サーバから視界監視映像を取得する視界監視映像取得部と、
前記ヘッドマウント型情報出力装置の現在位置を検出する位置センサと、
前記ヘッドマウント型情報出力装置の向いている方角を検出する地磁気センサと、
前記ヘッドマウント型情報出力装置の地面からの高さを検出する距離センサと、
前記ヘッドマウント型情報出力装置がユーザの頭部に装着されたときに前記ユーザの視線方向となる面に透明なタッチパネルを設け、前記視界監視映像取得部で取得された視界監視映像と対応した位置座標が割り付けられた入力領域を有し、前記ユーザが前記タッチパネルを透過して視認した前記現実空間にある所望の対象物の位置を指定する対象物指定部と、
前記視界監視映像取得部で取得された視界監視映像内で、前記対象物指定部によりユーザが指定した位置に対応する映像部分を解析して、前記ユーザが指定した対象物を識別する対象物識別部と、
前記対象物識別部が識別した対象物に関する対象物情報を取得生成する対象物情報取得部と、
前記対象物情報取得部が取得した対象物情報を、情報表示部からテキスト文字で、あるいは音声出力部から音声で出力する情報出力部と、を備え、
前記視界監視映像取得部は、前記監視映像サーバに、前記位置センサ、前記地磁気センサ、前記距離センサで検出されたユーザの位置、方角、高さの情報を送信するとともに、前記監視映像サーバから、前記監視映像サーバが保有する監視カメラ映像から切り出して生成したユーザの視界内の視界監視映像を取得し、
前記対象物指定部では、前記視界監視映像取得部が取得した視界監視映像をユーザに表示することなく、前記ユーザは視界内の前記現実空間を視認した状態で前記対象物の位置を指定することを特徴とするヘッドマウント型情報出力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023183635A JP2024012379A (ja) | 2019-12-27 | 2023-10-26 | ヘッドマウント型情報出力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/051450 WO2021131023A1 (ja) | 2019-12-27 | 2019-12-27 | ヘッドマウント型情報出力装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023183635A Division JP2024012379A (ja) | 2019-12-27 | 2023-10-26 | ヘッドマウント型情報出力装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021131023A1 JPWO2021131023A1 (ja) | 2021-07-01 |
JP7376616B2 true JP7376616B2 (ja) | 2023-11-08 |
Family
ID=76573824
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021566727A Active JP7376616B2 (ja) | 2019-12-27 | 2019-12-27 | ヘッドマウント型情報出力装置 |
JP2023183635A Pending JP2024012379A (ja) | 2019-12-27 | 2023-10-26 | ヘッドマウント型情報出力装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023183635A Pending JP2024012379A (ja) | 2019-12-27 | 2023-10-26 | ヘッドマウント型情報出力装置 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7376616B2 (ja) |
WO (1) | WO2021131023A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023199468A1 (ja) * | 2022-04-14 | 2023-10-19 | 日本電信電話株式会社 | 重畳表示装置、重畳表示方法及び重畳表示プログラム |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011198304A (ja) | 2010-03-24 | 2011-10-06 | Brother Industries Ltd | ヘッドマウントディスプレイ |
JP2012068481A (ja) | 2010-09-24 | 2012-04-05 | Asia Air Survey Co Ltd | 拡張現実表現システムおよび方法 |
JP2013054661A (ja) | 2011-09-06 | 2013-03-21 | Nec Biglobe Ltd | 情報表示システム、情報表示方法、及び情報表示用プログラム |
JP2014082668A (ja) | 2012-10-17 | 2014-05-08 | Sony Corp | 通信システムおよびプログラム |
JP2014164003A (ja) | 2013-02-21 | 2014-09-08 | Nec Networks & System Integration Corp | 仮想屋内空間表示装置 |
WO2016021252A1 (ja) | 2014-08-05 | 2016-02-11 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
JP2017004457A (ja) | 2015-06-16 | 2017-01-05 | 株式会社ファイン | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム |
JP2017091433A (ja) | 2015-11-17 | 2017-05-25 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2018018291A (ja) | 2016-07-28 | 2018-02-01 | カシオ計算機株式会社 | 表示制御装置、表示制御方法及びプログラム |
JP2018116165A (ja) | 2017-01-19 | 2018-07-26 | 株式会社デンソー | 情報提供システム、情報提供方法 |
JP2019510993A (ja) | 2016-01-12 | 2019-04-18 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 複数の詳細レベルをレンダリングするためのシステムおよび方法 |
-
2019
- 2019-12-27 JP JP2021566727A patent/JP7376616B2/ja active Active
- 2019-12-27 WO PCT/JP2019/051450 patent/WO2021131023A1/ja active Application Filing
-
2023
- 2023-10-26 JP JP2023183635A patent/JP2024012379A/ja active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011198304A (ja) | 2010-03-24 | 2011-10-06 | Brother Industries Ltd | ヘッドマウントディスプレイ |
JP2012068481A (ja) | 2010-09-24 | 2012-04-05 | Asia Air Survey Co Ltd | 拡張現実表現システムおよび方法 |
JP2013054661A (ja) | 2011-09-06 | 2013-03-21 | Nec Biglobe Ltd | 情報表示システム、情報表示方法、及び情報表示用プログラム |
JP2014082668A (ja) | 2012-10-17 | 2014-05-08 | Sony Corp | 通信システムおよびプログラム |
JP2014164003A (ja) | 2013-02-21 | 2014-09-08 | Nec Networks & System Integration Corp | 仮想屋内空間表示装置 |
WO2016021252A1 (ja) | 2014-08-05 | 2016-02-11 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
JP2017004457A (ja) | 2015-06-16 | 2017-01-05 | 株式会社ファイン | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム |
JP2017091433A (ja) | 2015-11-17 | 2017-05-25 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2019510993A (ja) | 2016-01-12 | 2019-04-18 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 複数の詳細レベルをレンダリングするためのシステムおよび方法 |
JP2018018291A (ja) | 2016-07-28 | 2018-02-01 | カシオ計算機株式会社 | 表示制御装置、表示制御方法及びプログラム |
JP2018116165A (ja) | 2017-01-19 | 2018-07-26 | 株式会社デンソー | 情報提供システム、情報提供方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2021131023A1 (ja) | 2021-07-01 |
JPWO2021131023A1 (ja) | 2021-07-01 |
JP2024012379A (ja) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10955674B2 (en) | Energy-harvesting beacon device | |
US10255726B2 (en) | Systems and methods for augmented reality representations of networks | |
KR101591579B1 (ko) | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 | |
KR101303948B1 (ko) | 비가시 객체에 대한 증강 현실 정보 제공 장치 및 방법 | |
US20180322784A1 (en) | Method and device for selecting and transmitting sensor data from a first motor vehicle to a second motor vehicle | |
JP5843340B2 (ja) | 3次元環境共有システム及び3次元環境共有方法 | |
US20200106818A1 (en) | Drone real-time interactive communications system | |
JP6647433B1 (ja) | 点群データ通信システム、点群データ送信装置および点群データ送信方法 | |
JP2024012379A (ja) | ヘッドマウント型情報出力装置 | |
JP2012048597A (ja) | 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム | |
KR101769852B1 (ko) | 드론을 이용한 부동산 거래 중개 시스템 | |
CN110132129B (zh) | 基于增强现实的检查系统及方法 | |
KR102243903B1 (ko) | 복합재난 사고대응 지원용 지휘통제시스템 | |
WO2015125210A1 (ja) | 情報表示装置及び情報表示プログラム | |
JP2016122277A (ja) | コンテンツ提供サーバ、コンテンツ表示端末、コンテンツ提供システム、コンテンツ提供方法、および、コンテンツ表示プログラム | |
WO2022176450A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20160012646A (ko) | 영상 표시 장치 및 그 제어 방법 | |
KR102468685B1 (ko) | 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법 | |
WO2018008096A1 (ja) | 情報表示装置およびプログラム | |
US11076097B2 (en) | Method for street view service and apparatus for performing same method | |
JP2023531849A (ja) | オーディオ認識を行う拡張現実デバイスおよびその制御方法 | |
WO2022269887A1 (ja) | ウェアラブル端末装置、プログラムおよび画像処理方法 | |
JP6433015B2 (ja) | ナビゲーション装置及びナビゲーション方法 | |
JP7163257B2 (ja) | 移動可能な画像生成元の画像を用いて多視点画像を生成する方法、装置及びプログラム | |
WO2022003912A1 (ja) | 情報処理システムおよび情報処理端末 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7376616 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |