JP2023024540A - 表示端末 - Google Patents
表示端末 Download PDFInfo
- Publication number
- JP2023024540A JP2023024540A JP2022197561A JP2022197561A JP2023024540A JP 2023024540 A JP2023024540 A JP 2023024540A JP 2022197561 A JP2022197561 A JP 2022197561A JP 2022197561 A JP2022197561 A JP 2022197561A JP 2023024540 A JP2023024540 A JP 2023024540A
- Authority
- JP
- Japan
- Prior art keywords
- display
- virtual object
- display terminal
- color image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 13
- 239000000463 material Substances 0.000 claims description 9
- 230000010365 information processing Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 18
- 238000011022 operating instruction Methods 0.000 abstract 1
- 238000012937 correction Methods 0.000 description 44
- 238000012986 modification Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 240000006108 Allium ampeloprasum Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Architecture (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
図2(a)は、HMD200のハードウェア構成図である。また、図2(b)は、本実施形態のHMD200の外観図である。
次に、本実施形態のコントローラ210が実現する、仮想オブジェクト表示に関連する機能を説明する。図3は、本実施形態のHMD200の、仮想オブジェクト表示処理に関連する機能の機能ブロック図である。本図に示すように、本実施形態のコントローラ210は、画像取得部228と、表示制御部220と、音声出力制御部229と、の機能を実現する。また、表示制御部220は、空間認識部221と、指示受付部222と、表示データ生成部223と、表示補正部224と、を備える。
なお、一部に背面領域101のある仮想オブジェクト100の表示は、上記に限定されない。例えば、表示補正部224は、仮想オブジェクト100を、背面領域101と、それ以外の領域(以下、前面領域と呼ぶ。)102と、を区別可能なように表示してもよい。
また、付加オブジェクト400は、強調表示されてもよい。強調表示される付加オブジェクト400の一例を図10に示す。付加オブジェクト400の強調表示態様は、予め付加オブジェクトデータ235に登録しておいてもよい。また、各種の画像加工ソフトウェアを用いて、表示補正部224が登録されている付加オブジェクト400を強調表示態様に加工し、表示させてもよい。
また、付加オブジェクトデータ235として、仮想オブジェクト100が押し込まれる構造物300の材質および/または種類に応じて異なるテクスチャのものが用意されていてもよい。この場合、表示補正部224は、空間認識部221による空間認識データ233を参照し、構造物300の材質および/または種類を特定する。そして、表示補正部224は、特定した材質および/または種類に応じたテクスチャの付加オブジェクトデータ235を抽出し、付加オブジェクト400として表示させる。
また、表示補正部224は、付加オブジェクト400として、カラー画像データ231の一部を切り取って用いてもよい。特に、図12に示すように、仮想オブジェクト100が押し込まれる構造物300の、さらに背後の構造物301と同じテクスチャの画像を用いてもよい。この場合、表示補正部224は、付加オブジェクト400の配置位置に応じて、空間認識データ233を用いて、付加オブジェクトデータ235を加工する。そして、表示補正部224は、加工後の付加オブジェクトデータ235を配置する。
なお、上記実施形態では、仮想オブジェクト100が、全てが背面領域101になるような位置に移動操作された場合、仮想オブジェクト100の表示を消去するよう構成しているが、これに限定されない。全体が背面領域101となる場合であっても、仮想オブジェクト100および/または操作ポイント110を表示させてもよい。
また、ディスプレイ215は、非透過型であってもよい。この場合、図14に示すように、表示補正部224は、カラー画像カメラ214aで取得したカラー画像(スルー画像500)に、仮想オブジェクト100および付加オブジェクト400を重畳表示させる。
また、操作指示の入力は、視線、ジェスチャだけに限定されない。音声、モーションコントローラ等を用いてもよい。
なお、上記実施形態では、仮想オブジェクト100の全ての操作ポイント110が表示されるよう、表示補正部224は、仮想オブジェクト100の表示を補正しているが、これに限定されない。表示する操作ポイント110は、背面領域101の一部の操作ポイント110であってもよい。すなわち、背面領域101の、少なくとも1つの操作ポイント110が表示されてもよい。
200:HMD、201:ユーザ、202:手指、203:矢印、210:コントローラ、211:CPU、212:RAM、213:ROM、214:カメラ、214a:カラー画像カメラ、214b:距離画像カメラ、214c:視線検出装置、215:ディスプレイ、215a:枠内、216:音声I/F、217:通信I/F、218:センサ、218a:GPS受信機、218b:ジャイロセンサ、218c:加速度センサ、218d:地磁気センサ、218e:タッチセンサ、219:バス、
220:表示制御部、221:空間認識部、222:指示受付部、223:表示データ生成部、224:表示補正部、228:画像取得部、229:音声出力制御部、
230:記憶装置、231:カラー画像データ、232:距離画像データ、233:空間認識データ、234:仮想オブジェクトデータ、235:付加オブジェクトデータ、236:音声データ、237:擬音語データ、
241:フレーム、
300:構造物、301:構造物、400:付加オブジェクト、401:ミニチュア仮想オブジェクト、402:付加オブジェクト、500:スルー画像
Claims (10)
- 表示端末であって、
ディスプレイと、
予め定めた撮影範囲のカラー画像を取得するカラー画像カメラと、
前記撮影範囲の距離画像を取得する距離画像カメラと、
前記カラー画像と前記距離画像とを用いて前記撮影範囲内の構造物の3次元マップを生成する空間認識部と、
制御部と、を備え、
前記制御部は、前記空間認識部により生成された3元マップを用いて、仮想オブジェクトと前記仮想オブジェクトのミニチュアオブジェクトとを前記カラー画像に重畳して、前記ディスプレイに表示させるように制御することを特徴とする表示端末。 - 請求項1に記載の表示端末であって、
前記ミニチュアオブジェクトは、前記表示端末のユーザが前記仮想オブジェクトを操作するための操作オブジェクトであることを特徴とする表示端末。 - 表示端末であって、
ディスプレイと、
予め定めた撮影範囲のカラー画像を取得するカラー画像カメラと、
前記撮影範囲の距離画像を取得する距離画像カメラと、
前記表示端末のユーザの視線方向を検出する検出部と、
前記カラー画像と前記距離画像とを用いて前記撮影範囲内の構造物の3次元マップを生成する空間認識部と、
仮想オブジェクトを前記ディスプレイに表示させるように制御する制御部と、を備え、
前記制御部は、前記3次元マップと前記仮想オブジェクトの実空間上の配置位置データとに基づいて、前記検出部により検出された視線方向に関して前記仮想オブジェクトが前記構造物の背後になる背面領域を特定したとき、前記表示端末のユーザが前記仮想オブジェクトを操作するための操作オブジェクトを前記仮想オブジェクトとは異なる位置に表示するように制御することを特徴とする表示端末。 - 表示端末であって、
ディスプレイと、
予め定めた撮影範囲のカラー画像を取得するカラー画像カメラと、
前記撮影範囲の距離画像を取得する距離画像カメラと、
前記表示端末のユーザの視線方向を検出する検出部と、
前記カラー画像と前記距離画像とを用いて前記撮影範囲内の構造物の3次元マップを生成する空間認識部と、
仮想オブジェクトを前記ディスプレイに表示させるように制御する制御部と、を備え、
前記制御部は、前記3次元マップと前記仮想オブジェクトの実空間上の配置位置データとに基づいて、前記検出部により検出された視線方向に関して前記構造物の背後になる前記仮想オブジェクトの領域として特定された背面領域を表示するとき、前記構造物が割れた状態または前記仮想オブジェクトが沈みこむことにより前記構造物が変化した状態を示す付加オブジェクトを前記仮想オブジェクトの周囲に表示させるとともに、前記表示端末のユーザが前記仮想オブジェクトを操作するための操作オブジェクトを前記ディスプレイに表示させるように制御することを特徴とする表示端末。 - 表示端末であって、
ディスプレイと、
予め定めた撮影範囲のカラー画像を取得するカラー画像カメラと、
前記撮影範囲の距離画像を取得する距離画像カメラと、
前記表示端末のユーザの視線方向を検出する検出部と、
前記カラー画像と前記距離画像とを用いて前記撮影範囲内の構造物の3次元マップを生成する空間認識部と、
仮想オブジェクトを前記ディスプレイに表示させるように制御する制御部と、を備え、
前記制御部は、前記3次元マップと前記仮想オブジェクトの実空間上の配置位置データとに基づいて、前記検出部により検出された視線方向に関して前記構造物の背後になる前記仮想オブジェクトの領域として特定された背面領域を表示するとき、前記構造物が突き破られている様子または前記構造物に穴が開いた様子を示す付加オブジェクトを前記仮想オブジェクトの周囲に表示させるとともに、前記表示端末のユーザが前記仮想オブジェクトを操作するための操作オブジェクトを前記ディスプレイに表示させるように制御することを特徴とする表示端末。 - 請求項4または5に記載の表示端末はさらに、
複数の付加オブジェクトを記憶する記憶部を備え、
前記制御部は、空間認識部により認識した構造物の種類または材質に応じて、前記記憶部から抽出した付加オブジェクトを表示することを特徴とする表示端末。 - 請求項4または5に記載の表示端末であって、
前記制御部は、前記撮影範囲内に、前記構造物よりも大きい第二の構造物が前記構造物の背後にある場合、前記第二の構造物のカラー画像を用いて前記付加オブジェクトを表示させることを特徴とする表示端末。 - 請求項3から5いずれか1項に記載の表示端末であって、
前記操作オブジェクトは、前記仮想オブジェクトのミニチュアオブジェクトであることを特徴とする表示端末。 - 請求項1から5いずれか1項に記載の表示端末であって、
前記表示端末は、ヘッドマウントディスプレイであることを特徴とする表示端末。 - 請求項1から5いずれか1項に記載の表示端末であって、
前記表示端末は、携帯型情報処理装置であることを特徴とする表示端末。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022197561A JP7496403B2 (ja) | 2022-12-12 | 表示端末 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020559642A JP7194752B2 (ja) | 2018-12-13 | 2018-12-13 | 表示端末、表示制御システムおよび表示制御方法 |
PCT/JP2018/045883 WO2020121483A1 (ja) | 2018-12-13 | 2018-12-13 | 表示端末、表示制御システムおよび表示制御方法 |
JP2022197561A JP7496403B2 (ja) | 2022-12-12 | 表示端末 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020559642A Division JP7194752B2 (ja) | 2018-12-13 | 2018-12-13 | 表示端末、表示制御システムおよび表示制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023024540A true JP2023024540A (ja) | 2023-02-16 |
JP7496403B2 JP7496403B2 (ja) | 2024-06-06 |
Family
ID=
Also Published As
Publication number | Publication date |
---|---|
US11651567B2 (en) | 2023-05-16 |
WO2020121483A1 (ja) | 2020-06-18 |
JP7194752B2 (ja) | 2022-12-22 |
JPWO2020121483A1 (ja) | 2021-10-28 |
CN113168820A (zh) | 2021-07-23 |
US20230245407A1 (en) | 2023-08-03 |
US20220044483A1 (en) | 2022-02-10 |
US11972532B2 (en) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210056765A1 (en) | Information processing apparatus, information processing method, and program | |
EP3624066A2 (en) | Location-based virtual element modality in three-dimensional content | |
US11972532B2 (en) | Display terminal, display control system and display control method | |
CN110554770A (zh) | 静态遮挡物 | |
JP7078234B2 (ja) | 拡張現実空間に配置される3dオブジェクトを生成する方法 | |
JP7480388B2 (ja) | ヘッドマウント情報処理装置 | |
JP2024026103A (ja) | 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース | |
US20210048680A1 (en) | Small field of view display mitigation using transitional visuals | |
EP4235381A2 (en) | Virtual paper | |
JP6262283B2 (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP6306083B2 (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
JP2023065528A (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム | |
JP7496403B2 (ja) | 表示端末 | |
JP2017228322A (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
KR102312601B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
JP6999822B2 (ja) | 端末装置および端末装置の制御方法 | |
JP2017201524A (ja) | 仮想空間を提供する方法、プログラム、および記録媒体 | |
US20230065077A1 (en) | Displaying a Rendered Volumetric Representation According to Different Display Modes | |
KR20220043106A (ko) | 정보 처리 장치, 정보 처리 방법, 및 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231121 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240312 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240415 |