JP6367926B2 - 拡張現実(ar)キャプチャおよびプレイ - Google Patents
拡張現実(ar)キャプチャおよびプレイ Download PDFInfo
- Publication number
- JP6367926B2 JP6367926B2 JP2016514052A JP2016514052A JP6367926B2 JP 6367926 B2 JP6367926 B2 JP 6367926B2 JP 2016514052 A JP2016514052 A JP 2016514052A JP 2016514052 A JP2016514052 A JP 2016514052A JP 6367926 B2 JP6367926 B2 JP 6367926B2
- Authority
- JP
- Japan
- Prior art keywords
- objects
- target objects
- image
- target
- editing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
101 バス
103 バスインターフェース
111 画像キャプチャモジュール
121 画像処理モジュール
131 ワイヤレストランシーバ
152 アンテナ
154 ワイヤレス信号
161 メモリ
171 全地球航法衛星システム(GNSS)受信機
172 GNSSアンテナ
174 GNSS信号
181 ディスプレイモジュール
191 ユーザ入力モジュール
205 モバイルARアプリケーション
210 これまでのARブラウザのモバイルアプリケーション
215 リアルタイムARスケッチアプリケーション
220 仮想ARスケッチ
225 紙ARスケッチ
230 ARスケッチおよびプレイ
305 トラッキングエリア
310 物理的なコンテンツ
315 AR物体
400 方法
405 スケッチ物体
505 人の姿
805 棒線画
905 車両
1005 おもちゃの車
1105 第1の物体
1110 第2の物体
1115 画像
1120 背景差分画像
1125 キャプチャされた物体の画像
1410 寸法モード
1411 基本編集
1412 押し出し編集
1413 深度編集
1414 回転編集
1415 複数パーツ編集
1416 スケルトン化編集
1417 シンボル編集
1418 準3D編集
1420 位置モード
1421 回転編集
1422 移動編集
1430 アニメーションモード
1431 基本編集
1432 経路編集1432
1433 ストップモーション編集
1440 特性モード
1441 音声編集
1442 物理的挙動編集
1450 プレイモード
1451 スケルトン編集
1452 ハンドジェスチャ編集
1453 スナップショット
1454 動画シーケンスエクスポート
1505 L字形マーカ構成
1510 水平トラッキングエリア
1515 垂直トラッキングエリア
1600 方法
1700 コンピュータシステム
1705 バス
1710 プロセッサ
1725 非一時的ストレージデバイス
1730 通信サブシステム
1735 作業メモリ
1740 オペレーティングシステム
1745 アプリケーション
1810 抽出モジュール
1815 AR物体
1820 挿入モジュール
1825 拡張された画像/動画
1830 編集モジュール
Claims (15)
- モバイルデバイスによって1つまたは複数の拡張現実(AR)物体を生成するための方法であって、
1つまたは複数の目標の物体からの情報をキャプチャするステップであって、前記1つまたは複数の目標の物体が、予め定義された背景上に配置され、前記1つまたは複数の目標の物体は物理的スケッチまたは物理的な物である、ステップと、
前記キャプチャされた前記予め定義された背景との比較により前記1つまたは複数の目標の物体を決定するステップと、
前記決定された1つまたは複数の目標の物体に対応する1つまたは複数のエリアと前記予め定義された背景に対応する1つまたは複数のエリアとに画像を分割するステップと、
前記1つまたは複数の目標の物体に対応する前記1つまたは複数のエリアをデジタル画像に変換するステップと、
前記デジタル画像に少なくとも部分的に基づいて前記1つまたは複数の目標の物体に対応する1つまたは複数のAR物体を生成するステップと、
ユーザ入力に応じて前記1つまたは複数のAR物体を編集するステップと、
を含む、方法。 - 前記画像を分割するステップが、前記画像から前記予め定義された背景を取り去るステップをさらに含む請求項1に記載の方法。
- 前記編集するステップが、
前記1つまたは複数のAR物体のうちの少なくとも1つを複数のARパーツに分けるステップと、
前記複数のARパーツの中の指定されたARパーツに関連するユーザ入力を受け取るステップと、
受け取られたユーザ入力に基づいて前記指定されたARパーツを操作するステップとをさらに含む請求項1に記載の方法。 - 前記受け取られたユーザ入力に基づいて前記指定されたARパーツを操作するステップが、
前記モバイルデバイスのディスプレイ上で行われたユーザのジェスチャに基づいて前記指定されたARパーツを回転させるステップ、
前記指定されたARパーツを1つもしくは複数のレイヤのうち1つへと組み立てるステップ、
前記モバイルデバイスの前記ディスプレイ上に表示可能な1つもしくは複数の位置のうち1つへと前記指定されたARパーツを動かすステップ、または
前記指定されたARパーツを押し出すステップ
のうちの少なくとも1つを含む請求項3に記載の方法。 - 前記1つまたは複数の目標の物体のうちの1つが、2次元(2D)のスケッチを含む請求項1に記載の方法。
- 前記1つまたは複数の目標の物体のうちの1つが、3次元(3D)の物体を含む請求項1に記載の方法。
- 前記1つまたは複数の目標の物体のうちの1つが、前記予め定義された背景と同一平面上にある請求項1に記載の方法。
- 前記予め定義された背景が物体追跡領域を定義する、請求項1に記載の方法。
- 前記1つまたは複数の目標の物体に対応する前記1つまたは複数のエリアのうちの1つを改善するステップをさらに含む請求項1に記載の方法。
- 前記1つまたは複数のAR物体が、キャプチャされた画像内の2次元(2D)ブロッブの検出に基づいて生成され、前記2Dブロッブの前記検出が、前記予め定義された背景上に配置された前記1つまたは複数の目標の物体に関連する表面の反射率に基づく請求項1に記載の方法。
- 前記モバイルデバイスのディスプレイ上に前記1つまたは複数のAR物体をリアルタイムで表示するステップをさらに含む請求項1に記載の方法。
- 1つまたは複数の拡張現実(AR)物体を生成するための装置であって、
メモリと、
1つまたは複数の目標の物体からの情報をキャプチャするように構成された画像キャプチャモジュールであって、前記1つまたは複数の目標の物体が、予め定義された背景上に配置され、前記1つまたは複数の目標の物体は物理的スケッチまたは物理的な物である、画像キャプチャモジュールと、
前記キャプチャされた前記予め定義された背景との比較により前記1つまたは複数の目標の物体を決定し、前記決定された1つまたは複数の目標の物体に対応する1つまたは複数のエリアと前記予め定義された背景に対応する1つまたは複数のエリアとに画像を分割するように構成された画像処理モジュールと、
前記メモリ、前記画像キャプチャモジュール、および前記画像処理モジュールに結合されたプロセッサであって、
前記1つまたは複数の目標の物体に対応する前記1つまたは複数のエリアをデジタル画像に変換し、
前記デジタル画像に少なくとも部分的に基づいて前記1つまたは複数の目標の物体に対応する1つまたは複数のAR物体を生成し、
ユーザ入力に応答して前記1つまたは複数のAR物体を編集する
ように構成される、プロセッサとを含む、装置。 - 実行されるときに、モバイルデバイスに含まれる1つまたは複数のコンピューティングデバイスに、
1つまたは複数の目標の物体からの情報をキャプチャすることであって、前記1つまたは複数の目標の物体が、予め定義された背景上に配置され、前記1つまたは複数の目標の物体は物理的スケッチまたは物理的な物である、キャプチャすることと、
前記キャプチャされた前記予め定義された背景との比較により前記1つまたは複数の目標の物体を決定することと、
前記決定された1つまたは複数の目標の物体に対応する1つまたは複数のエリアと前記予め定義された背景に対応する1つまたは複数のエリアとに画像を分割することと、
前記1つまたは複数の目標の物体に対応する前記1つまたは複数のエリアをデジタル画像に変換することと、
前記デジタル画像に少なくとも部分的に基づいて前記1つまたは複数の目標の物体に対応する1つまたは複数の拡張現実(AR)物体を生成することと、
ユーザ入力に応答して前記1つまたは複数のAR物体を編集することと、
を行わせる1つまたは複数のAR物体を生成するためのコンピュータが実行可能な命令を記憶する1つまたは複数の非一時的コンピュータ可読媒体。 - 前記コンピュータが実行可能な命令が、実行されるときに、前記モバイルデバイスに含まれる前記1つまたは複数のコンピューティングデバイスに、さらに、
前記1つまたは複数のAR物体のうちの少なくとも1つを複数のARパーツに分けさせ、
前記複数のARパーツの中の指定されたARパーツに関連するユーザ入力を受け取らせ、
受け取られたユーザ入力に基づいて前記指定されたARパーツを操作させる、
請求項13に記載の非一時的コンピュータ可読媒体。 - 前記1つまたは複数のAR物体は1つまたは複数の2次元AR物体であり、
前記方法は、
前記1つまたは複数のAR物体の少なくとの1つのパーツに深度を加えるステップと、
前記加えられた深度を備えた前記1つまたは複数の2次元AR物体を用いてターゲット画像を拡張するステップと、
をさらに備える請求項1に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361823295P | 2013-05-14 | 2013-05-14 | |
US61/823,295 | 2013-05-14 | ||
US14/275,523 | 2014-05-12 | ||
US14/275,523 US10509533B2 (en) | 2013-05-14 | 2014-05-12 | Systems and methods of generating augmented reality (AR) objects |
PCT/US2014/037932 WO2014186420A2 (en) | 2013-05-14 | 2014-05-13 | Augmented reality (ar) capture & play |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016524221A JP2016524221A (ja) | 2016-08-12 |
JP2016524221A5 JP2016524221A5 (ja) | 2017-06-22 |
JP6367926B2 true JP6367926B2 (ja) | 2018-08-01 |
Family
ID=51896865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016514052A Active JP6367926B2 (ja) | 2013-05-14 | 2014-05-13 | 拡張現実(ar)キャプチャおよびプレイ |
Country Status (6)
Country | Link |
---|---|
US (3) | US10509533B2 (ja) |
EP (2) | EP2997548A2 (ja) |
JP (1) | JP6367926B2 (ja) |
KR (1) | KR102190721B1 (ja) |
CN (1) | CN105210117B (ja) |
WO (1) | WO2014186420A2 (ja) |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9696867B2 (en) | 2013-01-15 | 2017-07-04 | Leap Motion, Inc. | Dynamic user interactions for display control and identifying dominant gestures |
WO2014200589A2 (en) | 2013-03-15 | 2014-12-18 | Leap Motion, Inc. | Determining positional information for an object in space |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
US9436288B2 (en) | 2013-05-17 | 2016-09-06 | Leap Motion, Inc. | Cursor mode switching |
US10620775B2 (en) | 2013-05-17 | 2020-04-14 | Ultrahaptics IP Two Limited | Dynamic interactive objects |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US20160217699A1 (en) * | 2013-09-02 | 2016-07-28 | Suresh T. Thankavel | Ar-book |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9607437B2 (en) * | 2013-10-04 | 2017-03-28 | Qualcomm Incorporated | Generating augmented reality content for unknown objects |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
US20160171739A1 (en) * | 2014-12-11 | 2016-06-16 | Intel Corporation | Augmentation of stop-motion content |
US9242379B1 (en) * | 2015-02-09 | 2016-01-26 | The Trustees Of The University Of Pennysylvania | Methods, systems, and computer readable media for producing realistic camera motion for stop motion animation |
AU2016250773A1 (en) | 2015-04-23 | 2017-10-12 | Hasbro, Inc. | Context-aware digital play |
US10146414B2 (en) | 2015-06-09 | 2018-12-04 | Pearson Education, Inc. | Augmented physical and virtual manipulatives |
US20170124890A1 (en) * | 2015-10-30 | 2017-05-04 | Robert W. Soderstrom | Interactive table |
US10197998B2 (en) | 2015-12-27 | 2019-02-05 | Spin Master Ltd. | Remotely controlled motile device system |
US10665019B2 (en) * | 2016-03-24 | 2020-05-26 | Qualcomm Incorporated | Spatial relationships for integration of visual images of physical environment into virtual reality |
US10949882B2 (en) * | 2016-04-03 | 2021-03-16 | Integem Inc. | Real-time and context based advertisement with augmented reality enhancement |
CN109074679A (zh) * | 2016-04-14 | 2018-12-21 | 英特吉姆公司股份有限公司 | 具有增强现实强化的基于场景的实时广告 |
CN105854296A (zh) * | 2016-04-21 | 2016-08-17 | 苏州探寻文化科技有限公司 | 一种基于增强现实的互动体验系统 |
WO2017188863A1 (ru) * | 2016-04-30 | 2017-11-02 | Виталий Витальевич АВЕРЬЯНОВ | Устройство для воздействия на виртуальные объекты дополненной реальности |
US10074205B2 (en) | 2016-08-30 | 2018-09-11 | Intel Corporation | Machine creation of program with frame analysis method and apparatus |
US10720082B1 (en) | 2016-09-08 | 2020-07-21 | Ctskh, Llc | Device and system to teach stem lessons using hands-on learning method |
CN106362400A (zh) * | 2016-10-12 | 2017-02-01 | 大连文森特软件科技有限公司 | 具有在线编辑功能的vr游戏系统 |
CN107992188B (zh) * | 2016-10-26 | 2021-12-07 | 宏达国际电子股份有限公司 | 虚拟现实交互方法、装置与系统 |
US10853651B2 (en) | 2016-10-26 | 2020-12-01 | Htc Corporation | Virtual reality interaction method, apparatus and system |
EP3316080B1 (en) * | 2016-10-26 | 2021-08-25 | HTC Corporation | Virtual reality interaction method, apparatus and system |
EP3340187A1 (en) | 2016-12-26 | 2018-06-27 | Thomson Licensing | Device and method for generating dynamic virtual contents in mixed reality |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
US11176712B2 (en) * | 2017-01-18 | 2021-11-16 | Pcms Holdings, Inc. | System and method for selecting scenes for browsing histories in augmented reality interfaces |
CN106803921A (zh) * | 2017-03-20 | 2017-06-06 | 深圳市丰巨泰科电子有限公司 | 基于ar技术的即时音视频通信方法及装置 |
WO2018191720A1 (en) * | 2017-04-14 | 2018-10-18 | Penrose Studios, Inc. | System and method for spatial and immersive computing |
WO2019040539A1 (en) | 2017-08-21 | 2019-02-28 | Flow Immersive, Inc. | INCREASED VIRTUAL REALITY |
US10430658B2 (en) | 2017-10-06 | 2019-10-01 | Steve Rad | Augmented reality system and kit |
EP3692520A4 (en) | 2017-10-06 | 2021-07-28 | Rad, Steve | AUGMENTED REALITY SYSTEM AND KIT |
CN108063936B (zh) * | 2017-12-29 | 2020-11-03 | 光锐恒宇(北京)科技有限公司 | 增强现实ar的实现方法、装置和计算机可读存储介质 |
KR20190101620A (ko) | 2018-02-23 | 2019-09-02 | 주식회사 로로아트플랜 | 증강현실 기술을 이용한 무빙 트릭아트 구현 방법 |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
CN108874471B (zh) * | 2018-05-30 | 2022-06-07 | 如你所视(北京)科技有限公司 | 一种房源的功能间附加元素添加方法及系统 |
US10984596B2 (en) | 2018-05-30 | 2021-04-20 | Ke.com (Beijing)Technology Co., Ltd. | Systems and methods for enriching a virtual reality tour |
US10825223B2 (en) * | 2018-05-31 | 2020-11-03 | Microsoft Technology Licensing, Llc | Mixed reality animation |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
CN111723806A (zh) * | 2019-03-19 | 2020-09-29 | 北京京东尚科信息技术有限公司 | 增强现实方法和装置 |
WO2020250110A1 (en) * | 2019-06-08 | 2020-12-17 | Pankaj Raut | A system and a method for generating a 3d visualization using mixed reality-based hmd |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
US11308669B1 (en) | 2019-09-27 | 2022-04-19 | Apple Inc. | Shader for graphical objects |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
GB2607226A (en) * | 2020-02-14 | 2022-11-30 | Vika Books Ltd | Instruction of a sign language |
KR20220167323A (ko) * | 2020-04-13 | 2022-12-20 | 스냅 인코포레이티드 | 메시징 시스템 내의 3d 데이터를 포함하는 증강 현실 콘텐츠 생성기들 |
KR20210134229A (ko) * | 2020-04-30 | 2021-11-09 | 삼성전자주식회사 | 이미지 증강을 위한 방법 및 전자 장치 |
US20220051050A1 (en) * | 2020-08-12 | 2022-02-17 | Micron Technology, Inc. | Presentation of digitized images from user drawings |
US20220165024A1 (en) * | 2020-11-24 | 2022-05-26 | At&T Intellectual Property I, L.P. | Transforming static two-dimensional images into immersive computer-generated content |
CN112672185B (zh) * | 2020-12-18 | 2023-07-07 | 脸萌有限公司 | 基于增强现实的显示方法、装置、设备及存储介质 |
WO2022244948A1 (en) | 2021-05-18 | 2022-11-24 | Samsung Electronics Co., Ltd. | System and method of controlling brightness on digital displays for optimum visibility and power consumption |
CN113577766B (zh) * | 2021-08-05 | 2024-04-02 | 百度在线网络技术(北京)有限公司 | 对象处理方法及装置 |
CN113886775A (zh) * | 2021-09-10 | 2022-01-04 | 上海阿吉必信息技术有限公司 | 数字权益证明的生成方法和装置 |
CN115002442B (zh) * | 2022-05-24 | 2024-05-10 | 北京字节跳动网络技术有限公司 | 一种图像展示方法、装置、电子设备及存储介质 |
KR20240051400A (ko) * | 2022-10-12 | 2024-04-22 | 한국전자기술연구원 | 실시간 3d ar 객체 획득 장치, 시스템 및 방법 |
Family Cites Families (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05344314A (ja) | 1992-06-05 | 1993-12-24 | Konica Corp | 画像処理装置 |
WO1999019840A1 (en) * | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | A system and method for generating an animatable character |
JP2001014421A (ja) * | 1999-06-28 | 2001-01-19 | Matsushita Electric Ind Co Ltd | バーコード読み取り装置 |
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US7050625B2 (en) * | 2002-10-21 | 2006-05-23 | Hewlett-Packard Development Company, L.P. | Method and digital camera for indicating when image data has been captured for a three-dimensional target object |
JP2004145448A (ja) | 2002-10-22 | 2004-05-20 | Toshiba Corp | 端末装置、サーバ装置および画像加工方法 |
JP2005063225A (ja) | 2003-08-15 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム |
JP4318580B2 (ja) | 2004-03-31 | 2009-08-26 | 独立行政法人科学技術振興機構 | 3次元樹木形状生成装置 |
KR20060066340A (ko) * | 2004-12-13 | 2006-06-16 | 삼성전자주식회사 | 3차원 구조 스케치 제작장치와 방법 및 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록매체 |
US7852317B2 (en) * | 2005-01-12 | 2010-12-14 | Thinkoptics, Inc. | Handheld device for handheld vision based absolute pointing system |
RU2008110056A (ru) | 2005-08-15 | 2009-09-27 | Конинклейке Филипс Электроникс Н.В. (Nl) | Система, устройство и способ для очков расширенной реальности для программирования конечным пользователем |
FR2911707B1 (fr) | 2007-01-22 | 2009-07-10 | Total Immersion Sa | Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video. |
US20080215994A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Virtual world avatar control, interactivity and communication interactive messaging |
US20090141023A1 (en) * | 2007-11-29 | 2009-06-04 | Brian Mark Shuster | Selective filtering of user input data in a multi-user virtual environment |
US8396296B2 (en) * | 2007-12-31 | 2013-03-12 | Intel Corporation | Brand image detection |
TWI348120B (en) * | 2008-01-21 | 2011-09-01 | Ind Tech Res Inst | Method of synthesizing an image with multi-view images |
FR2933218B1 (fr) | 2008-06-30 | 2011-02-11 | Total Immersion | Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee |
JP2010049323A (ja) | 2008-08-19 | 2010-03-04 | Kawai Musical Instr Mfg Co Ltd | 演出画像作成装置、演出画像作成方法、演出画像作成プログラム及び記録媒体 |
WO2010029553A1 (en) | 2008-09-11 | 2010-03-18 | Netanel Hagbi | Method and system for compositing an augmented reality scene |
US8624962B2 (en) | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
JP5581002B2 (ja) | 2009-04-20 | 2014-08-27 | 株式会社タイトー | ゲーム機、ゲームプログラム |
US8886206B2 (en) * | 2009-05-01 | 2014-11-11 | Digimarc Corporation | Methods and systems for content processing |
KR101585245B1 (ko) * | 2009-06-19 | 2016-01-13 | 엘지전자 주식회사 | 이미지 처리 방법 및 이를 적용한 이미지 표시 장치 |
KR20120089452A (ko) | 2009-08-04 | 2012-08-10 | 아이큐 비젼 테크놀로지즈 리미티드 | 물체 추출 시스템 및 방법 |
DE102009037835B4 (de) | 2009-08-18 | 2012-12-06 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer realen Umgebung |
TWI434227B (zh) | 2009-12-29 | 2014-04-11 | Ind Tech Res Inst | 動畫產生系統及方法 |
KR101082487B1 (ko) * | 2010-01-29 | 2011-11-11 | 키위플 주식회사 | 객체 인식시스템 및 이를 이용하는 객체 인식 방법 |
US8213680B2 (en) * | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US20110248995A1 (en) | 2010-04-09 | 2011-10-13 | Fuji Xerox Co., Ltd. | System and methods for creating interactive virtual content based on machine analysis of freeform physical markup |
US8405680B1 (en) | 2010-04-19 | 2013-03-26 | YDreams S.A., A Public Limited Liability Company | Various methods and apparatuses for achieving augmented reality |
US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
US20110304629A1 (en) * | 2010-06-09 | 2011-12-15 | Microsoft Corporation | Real-time animation of facial expressions |
US9684989B2 (en) * | 2010-06-16 | 2017-06-20 | Qualcomm Incorporated | User interface transition between camera view and map view |
US8417058B2 (en) | 2010-09-15 | 2013-04-09 | Microsoft Corporation | Array of scanning sensors |
KR101788046B1 (ko) | 2010-11-03 | 2017-10-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
WO2012072617A1 (en) * | 2010-11-29 | 2012-06-07 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Computer-implemented method and apparatus for tracking and re-shaping a human shaped figure in a digital video |
KR101269773B1 (ko) * | 2010-12-13 | 2013-05-30 | 주식회사 팬택 | 증강 현실 제공 단말기 및 방법 |
KR101669119B1 (ko) | 2010-12-14 | 2016-10-25 | 삼성전자주식회사 | 다층 증강 현실 시스템 및 방법 |
US10109065B2 (en) | 2011-01-25 | 2018-10-23 | Qualcomm Incorporated | Using occlusions to detect and track three-dimensional objects |
US8509483B2 (en) | 2011-01-31 | 2013-08-13 | Qualcomm Incorporated | Context aware augmentation interactions |
US9116616B2 (en) * | 2011-02-10 | 2015-08-25 | Blackberry Limited | Portable electronic device and method of controlling same |
US9329469B2 (en) | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
JP5724543B2 (ja) | 2011-03-31 | 2015-05-27 | ソニー株式会社 | 端末装置、オブジェクト制御方法及びプログラム |
KR101824005B1 (ko) * | 2011-04-08 | 2018-01-31 | 엘지전자 주식회사 | 이동 단말기 및 그의 영상 깊이감 조절방법 |
US8510166B2 (en) * | 2011-05-11 | 2013-08-13 | Google Inc. | Gaze tracking system |
JP6074170B2 (ja) * | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US20130063487A1 (en) | 2011-09-12 | 2013-03-14 | MyChic Systems Ltd. | Method and system of using augmented reality for applications |
US20130104087A1 (en) * | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
JP5821526B2 (ja) | 2011-10-27 | 2015-11-24 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US8855366B2 (en) * | 2011-11-29 | 2014-10-07 | Qualcomm Incorporated | Tracking three-dimensional objects |
EP2813069A4 (en) * | 2012-02-08 | 2016-12-07 | Intel Corp | CREATING AN ADVANCED REALITY WITH A REAL SCENE |
US9552673B2 (en) | 2012-10-17 | 2017-01-24 | Microsoft Technology Licensing, Llc | Grasping virtual objects in augmented reality |
CN102929391B (zh) | 2012-10-23 | 2015-11-04 | 中国石油化工股份有限公司 | 增强现实的分布式控制系统人机交互设备及方法 |
GB2507314B (en) | 2012-10-25 | 2018-05-23 | Sony Interactive Entertainment Europe Ltd | Apparatus and method of augmented reality |
CN103177468A (zh) | 2013-03-29 | 2013-06-26 | 渤海大学 | 一种基于无标记的三维运动物体增强现实注册方法 |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
CN103729885B (zh) | 2014-01-21 | 2016-08-24 | 北京邮电大学 | 多视角投影与三维注册联合的手绘场景三维建模方法 |
JP5916248B2 (ja) * | 2014-02-25 | 2016-05-11 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法、プログラムおよびコンピュータ読取り可能な情報記憶媒体 |
-
2014
- 2014-05-12 US US14/275,523 patent/US10509533B2/en active Active
- 2014-05-13 CN CN201480025675.XA patent/CN105210117B/zh active Active
- 2014-05-13 EP EP14729816.0A patent/EP2997548A2/en not_active Ceased
- 2014-05-13 WO PCT/US2014/037932 patent/WO2014186420A2/en active Application Filing
- 2014-05-13 EP EP21180415.8A patent/EP3907704A1/en active Pending
- 2014-05-13 KR KR1020157033591A patent/KR102190721B1/ko active IP Right Grant
- 2014-05-13 JP JP2016514052A patent/JP6367926B2/ja active Active
-
2019
- 2019-11-18 US US16/687,623 patent/US11112934B2/en active Active
-
2021
- 2021-08-13 US US17/445,081 patent/US11880541B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN105210117A (zh) | 2015-12-30 |
EP3907704A1 (en) | 2021-11-10 |
CN105210117B (zh) | 2019-06-14 |
WO2014186420A3 (en) | 2015-04-23 |
EP2997548A2 (en) | 2016-03-23 |
US11112934B2 (en) | 2021-09-07 |
US10509533B2 (en) | 2019-12-17 |
US20140344762A1 (en) | 2014-11-20 |
JP2016524221A (ja) | 2016-08-12 |
KR102190721B1 (ko) | 2020-12-14 |
WO2014186420A2 (en) | 2014-11-20 |
KR20160010475A (ko) | 2016-01-27 |
US20200089389A1 (en) | 2020-03-19 |
US11880541B2 (en) | 2024-01-23 |
US20210373743A1 (en) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11880541B2 (en) | Systems and methods of generating augmented reality (AR) objects | |
KR102376390B1 (ko) | 메타버스 서비스를 제공하는 방법 및 장치 | |
US10331222B2 (en) | Gesture recognition techniques | |
KR101135186B1 (ko) | 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체 | |
US9659381B2 (en) | Real time texture mapping for augmented reality system | |
US10133342B2 (en) | Human-body-gesture-based region and volume selection for HMD | |
US11461950B2 (en) | Object creation using body gestures | |
KR20180121494A (ko) | 단안 카메라들을 이용한 실시간 3d 캡처 및 라이브 피드백을 위한 방법 및 시스템 | |
ES2688643T3 (es) | Aparato y método de realidad aumentada | |
KR20230107844A (ko) | 개인화된 아바타 실시간 모션 캡처 | |
KR20150130483A (ko) | 평면의 자연스러운 특성 타겟들의 인시츄 생성 | |
KR20230107654A (ko) | 보철 림을 위한 실시간 모션 전달 | |
CN116897375A (zh) | 扩展现实环境中的图像捕获 | |
CN113129411A (zh) | 一种仿生动画生成方法及电子设备 | |
TW202311815A (zh) | 在實體表面上顯示數位媒體內容 | |
CN117173756A (zh) | 一种增强现实ar系统、计算机设备及存储介质 | |
KR102635477B1 (ko) | 증강현실 기반의 공연 콘텐츠 제공장치 및 방법 | |
US20240073402A1 (en) | Multi-perspective augmented reality experience | |
US20230410441A1 (en) | Generating user interfaces displaying augmented reality graphics | |
Ucchesu | A Mixed Reality application to support TV Studio Production | |
KR20240006814A (ko) | 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템 | |
Shiratori | User Interfaces for Character Animation and Character Interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170428 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6367926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |