JP2023081278A - 立体視画像に対する対話操作方法および立体視画像表示システム - Google Patents
立体視画像に対する対話操作方法および立体視画像表示システム Download PDFInfo
- Publication number
- JP2023081278A JP2023081278A JP2022130752A JP2022130752A JP2023081278A JP 2023081278 A JP2023081278 A JP 2023081278A JP 2022130752 A JP2022130752 A JP 2022130752A JP 2022130752 A JP2022130752 A JP 2022130752A JP 2023081278 A JP2023081278 A JP 2023081278A
- Authority
- JP
- Japan
- Prior art keywords
- stereoscopic image
- gesture
- stereoscopic
- image display
- previous state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000008859 change Effects 0.000 claims description 30
- 238000005516 engineering process Methods 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 21
- 230000001133 acceleration Effects 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 32
- 230000009471 action Effects 0.000 description 10
- 238000007667 floating Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/56—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Position Input By Displaying (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
10:立体視画像表示装置
101:光学素子
102:表示パネル
103:立体視画像
105:ジェスチャーセンサー
20:立体視画像表示装置
201:入力インターフェース
203:画像処理装置
204:表示駆動部
205:表示ユニット
206:メモリーユニット
22:ジェスチャーセンサー
221:センサー素子
222:制御ユニット
223:インターフェースユニット
24:立体視画像サーバ
30:ネットワーク
301:立体視画像サーバ
303:画像データベース
60:手
601, 601’:キーポジション
62:デプスマップ
64:画像
70、80:ハンドヘルドツール
13:手
131, 131’ , 131”:ボール
141、151、163、173:手
14:フォトセンサー
140, 150, 160, 170:処理ユニット
15:音感センサー
161:第1のフォトセンサー
162:第2のフォトセンサー
171:構造光発光素子
172:構造光センサー
185:立体視画像
181:ジェスチャーセンサー
183:手
180:有効感知ゾーン
191、192:ジェスチャーセンサー
190:有効感知ゾーン
208:ジェスチャーセンサー
209:センシングエリア
200:有効感知ゾーン
210:立体視画像
211:立体視画像サーバ
212:立体視画像表示装置
213:ジェスチャーセンサー
Claims (15)
- 立体視画像データに基づいて、立体視画像を立体視画像表示装置で表示し、
ジェスチャーセンサーでジェスチャーを感知し、前記ジェスチャーの現時点の状態をジェスチャーの現状態として取得し、
前記立体視画像の現時点の直前状態を立体視画像の前状態として取得し、
前記ジェスチャーの現時点の直前状態をジェスチャーの前状態として取得し、
前記ジェスチャーの現状態と前記ジェスチャーの前状態とに基づいて、ジェスチャーを反映した立体座標の変動を計算し、
前記立体視画像の前状態と前記立体座標の変動とに基づいて、新立体視画像データを取得し、
前記新立体視画像データに基づいて、前記立体視画像を更新し立体視画像表示装置で表示する、
ことを特徴とする立体視画像に対する対話操作方法。 - 前記ジェスチャーセンサーを使用して、前記ジェスチャーを行う身体部分または指示装置の画像およびデプスマップを取得し、前記画像および前記デプスマップに従って前記ジェスチャーの複数のキーポジションの立体座標を計算し、前記ジェスチャーの前状態に基づいて、前記ジェスチャーを反映した立体座標の変動を取得する、請求項1に記載の立体視画像に対する対話操作方法。
- 前記ジェスチャーセンサーは、前記デプスマップを形成するように、飛行時間検出技術、音響波検出技術、両眼視差検出技術、又は構造化光検出技術によって前記ジェスチャーの深度情報を取得する、請求項2に記載の立体視画像に対する対話操作方法。
- 前記ジェスチャーを反映した立体座標の変動に基づいて、インタラクティブ・コマンドを決定し、前記インタラクティブ・コマンドは、クリックコマンド、スワイプコマンド、回転コマンド、またはズームコマンドであることを特徴とする、請求項2に記載の立体視画像に対する対話操作方法。
- 前記立体視画像の前状態および前記ジェスチャーを反映した立体座標の変動を用いて、前記立体視画像の速度、加速度、期間内の位置変化およびサイズ変化を含むジェスチャー動作データを計算し、これによって前記立体視画像表示装置が変化中の新しい立体視画像を表示する、請求項4に記載の立体視画像に対する対話操作方法。
- 前記ジェスチャーの前状態は、ストレージに格納されている前記ジェスチャーの前時点による複数の重要な位置の立体座標と移動データを表し、前記立体視画像の前状態は、ストレージに格納されている前記立体視画像の前時点による立体座標と移動データを表す、請求項1に記載の立体視画像に対する対話操作方法。
- 立体視画像サーバを備え、前記立体視画像サーバは、ジェスチャーを反映した立体座標データを受信すると、前記立体視画像の前状態および前記ジェスチャーの前状態の取得を開始し、前記立体視画像サーバは、前記ジェスチャーの現状態および前記ジェスチャーの前状態に基づいて、前記ジェスチャーを反映した立体座標の変動を算出し、前記立体視画像の前状態およびジェスチャーを反映した立体座標の変動に応じて、新立体視画像データを取得する、請求項1乃至6のいずれか1項に記載の立体視画像に対する対話操作方法。
- 立体視画像表示装置、及び前記立体視画像表示装置に接続されたジェスチャーセンサーを具備する、立体視画像表示システムであって、
前記立体視画像表示システムは、
立体視画像データに基づいて、立体視画像を立体視画像表示装置で表示し、
ジェスチャーセンサーでジェスチャーを感知し、前記ジェスチャーの現時点の状態をジェスチャーの現状態として取得し、
前記立体視画像の現時点の直前状態を立体視画像の前状態として取得し、
前記ジェスチャーの現時点の直前状態をジェスチャーの前状態として取得し、
前記ジェスチャーの現状態と前記ジェスチャーの前状態とに基づいて、ジェスチャーを反映した立体座標の変動を計算し、
前記立体視画像の前状態と前記立体座標の変動とに基づいて、新立体視画像データを取得し、
前記新立体視画像データに基づいて、前記立体視画像を更新し立体視画像表示装置で表示する、
ことを特徴とする立体視画像表示システム。 - 前記ジェスチャーセンサーでは、前記ジェスチャーを行う身体部分または指示装置の画像およびデプスマップを取得するように使用され、前記画像および前記デプスマップに従って前記ジェスチャーの複数のキーポジションの立体座標を計算し、前記ジェスチャーの前状態に基づいて、前記ジェスチャーを反映した立体座標の変動を取得する、請求項8に記載の立体視画像表示システム。
- 前記ジェスチャーセンサーは、前記デプスマップを形成するように、飛行時間検出技術、音響波検出技術、両眼視差検出技術、又は構造化光検出技術によって前記ジェスチャーの深度情報を取得する、請求項9に記載の立体視画像表示システム。
- 前記ジェスチャーを反映した立体座標の変動に基づいて、インタラクティブ・コマンドを決定し、前記インタラクティブ・コマンドは、クリックコマンド、スワイプコマンド、回転コマンド、またはズームコマンドであることを特徴とする、請求項9に記載の立体視画像表示システム。
- 前記立体視画像の前状態および前記ジェスチャーを反映した立体座標の変動を用いて、前記立体視画像の速度、加速度、期間内の位置変化およびサイズ変化を含むジェスチャー動作データを計算し、これによって前記立体視画像表示装置が変化中の新しい立体視画像を表示する、請求項11に記載の立体視画像表示システム。
- 前記ジェスチャーの前状態は、ストレージに格納されている前記ジェスチャーの前時点による複数の重要な位置の立体座標と移動データを表し、前記立体視画像の前状態は、ストレージに格納されている前記立体視画像の前時点による立体座標と移動データを表す、請求項8に記載の立体視画像表示システム。
- 立体視画像サーバを備え、前記立体視画像サーバは、ジェスチャーを反映した立体座標データを受信すると、前記立体視画像の前状態および前記ジェスチャーの前状態の取得を開始し、前記立体視画像サーバは、前記ジェスチャーの現状態および前記ジェスチャーの前状態に基づいて、前記ジェスチャーを反映した立体座標の変動を算出し、前記立体視画像の前状態およびジェスチャーを反映した立体座標の変動に応じて、新立体視画像データを取得する、請求項8に記載の立体視画像表示システム。
- 前記ジェスチャーセンサーは、前記立体視画像表示装置の側面に配置され、前記立体視画像表示装置によって表示される立体画像をカバーする有効感知ゾーンを設定し、前記有効感知ゾーン内で前記ジェスチャーが検知されることが可能である、請求項8乃至14のいずれか1項に記載の立体視画像表示システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW110144508A TWI796022B (zh) | 2021-11-30 | 2021-11-30 | 在立體影像上執行互動的方法與立體影像顯示系統 |
TW110144508 | 2021-11-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023081278A true JP2023081278A (ja) | 2023-06-09 |
JP7450289B2 JP7450289B2 (ja) | 2024-03-15 |
Family
ID=86499950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022130752A Active JP7450289B2 (ja) | 2021-11-30 | 2022-08-18 | 立体視画像に対する対話操作方法および立体視画像表示システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11934585B2 (ja) |
JP (1) | JP7450289B2 (ja) |
TW (1) | TWI796022B (ja) |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100776801B1 (ko) * | 2006-07-19 | 2007-11-19 | 한국전자통신연구원 | 화상 처리 시스템에서의 제스처 인식 장치 및 방법 |
JP5640680B2 (ja) * | 2010-11-11 | 2014-12-17 | ソニー株式会社 | 情報処理装置、立体視表示方法及びプログラム |
JP5703703B2 (ja) * | 2010-11-11 | 2015-04-22 | ソニー株式会社 | 情報処理装置、立体視表示方法及びプログラム |
JP5640681B2 (ja) * | 2010-11-11 | 2014-12-17 | ソニー株式会社 | 情報処理装置、立体視表示方法及びプログラム |
US20130226758A1 (en) * | 2011-08-26 | 2013-08-29 | Reincloud Corporation | Delivering aggregated social media with third party apis |
US9274595B2 (en) * | 2011-08-26 | 2016-03-01 | Reincloud Corporation | Coherent presentation of multiple reality and interaction models |
US20130232430A1 (en) * | 2011-08-26 | 2013-09-05 | Reincloud Corporation | Interactive user interface |
US20140063061A1 (en) * | 2011-08-26 | 2014-03-06 | Reincloud Corporation | Determining a position of an item in a virtual augmented space |
US20130249947A1 (en) * | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Communication using augmented reality |
KR20140125995A (ko) * | 2013-04-22 | 2014-10-30 | 네이버 주식회사 | 단말기의 스크롤 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
EP3019913A4 (en) | 2013-07-10 | 2017-03-08 | Real View Imaging Ltd. | Three dimensional user interface |
US9237338B1 (en) * | 2013-10-14 | 2016-01-12 | Simulated Percepts, Llc | Apparatus for image display with multi-focal length progressive lens or multiple discrete lenses each having different fixed focal lengths or a variable focal length |
TWI614533B (zh) * | 2016-02-01 | 2018-02-11 | 群睿股份有限公司 | 立體顯示裝置 |
US10866562B2 (en) * | 2016-07-09 | 2020-12-15 | Doubleme, Inc. | Vehicle onboard holographic communication system |
CN107483915B (zh) * | 2017-08-23 | 2020-11-13 | 京东方科技集团股份有限公司 | 三维图像的控制方法及装置 |
US10732725B2 (en) | 2018-09-25 | 2020-08-04 | XRSpace CO., LTD. | Method and apparatus of interactive display based on gesture recognition |
TWI700516B (zh) * | 2019-06-10 | 2020-08-01 | 幻景啟動股份有限公司 | 互動式立體顯示裝置與互動感應方法 |
TWI754899B (zh) | 2020-02-27 | 2022-02-11 | 幻景啟動股份有限公司 | 漂浮影像顯示裝置、互動方法與其系統 |
US20210286502A1 (en) | 2020-03-16 | 2021-09-16 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences |
US11194402B1 (en) * | 2020-05-29 | 2021-12-07 | Lixel Inc. | Floating image display, interactive method and system for the same |
US11087557B1 (en) * | 2020-06-03 | 2021-08-10 | Tovy Kamine | Methods and systems for remote augmented reality communication for guided surgery |
-
2021
- 2021-11-30 TW TW110144508A patent/TWI796022B/zh active
-
2022
- 2022-02-21 US US17/676,659 patent/US11934585B2/en active Active
- 2022-08-18 JP JP2022130752A patent/JP7450289B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11934585B2 (en) | 2024-03-19 |
TWI796022B (zh) | 2023-03-11 |
US20230168742A1 (en) | 2023-06-01 |
TW202325013A (zh) | 2023-06-16 |
JP7450289B2 (ja) | 2024-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3997552B1 (en) | Virtual user interface using a peripheral device in artificial reality environments | |
TWI722280B (zh) | 用於多個自由度之控制器追蹤 | |
CN110603509B (zh) | 计算机介导的现实环境中直接和间接交互的联合 | |
CN109313500B (zh) | 纤细形状因子的无源光学和惯性跟踪 | |
US20190228584A1 (en) | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking | |
CN110753898B (zh) | 沉浸式环境内与虚拟对象的基于悬停的用户交互 | |
EP3584682B1 (en) | Three-dimensional tracking of a user control device in a volume | |
US20140168261A1 (en) | Direct interaction system mixed reality environments | |
TWI700516B (zh) | 互動式立體顯示裝置與互動感應方法 | |
CA2981206A1 (en) | Method and system for receiving gesture input via virtual control objects | |
US11714540B2 (en) | Remote touch detection enabled by peripheral device | |
JPWO2014141504A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
KR102147430B1 (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
US20210373671A1 (en) | Floating image display, interactive method and system for the same | |
JP3242079U (ja) | 浮遊画像表示装置、及び浮遊画像表示システム | |
US20240062489A1 (en) | Indicating a Position of an Occluded Physical Object | |
JP7450289B2 (ja) | 立体視画像に対する対話操作方法および立体視画像表示システム | |
US11144194B2 (en) | Interactive stereoscopic display and interactive sensing method for the same | |
CN112130659A (zh) | 互动式立体显示装置与互动感应方法 | |
TWI719834B (zh) | 互動式立體顯示裝置與互動感應方法 | |
CN116243786A (zh) | 在立体影像上执行互动的方法与立体影像显示系统 | |
CN113377190A (zh) | 漂浮影像显示设备、互动方法与其系统 | |
JPH08315172A (ja) | 仮想物体表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220818 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7450289 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |