JP2013061978A - 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 - Google Patents
画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 Download PDFInfo
- Publication number
- JP2013061978A JP2013061978A JP2012268486A JP2012268486A JP2013061978A JP 2013061978 A JP2013061978 A JP 2013061978A JP 2012268486 A JP2012268486 A JP 2012268486A JP 2012268486 A JP2012268486 A JP 2012268486A JP 2013061978 A JP2013061978 A JP 2013061978A
- Authority
- JP
- Japan
- Prior art keywords
- image
- real scene
- sensor
- virtual object
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【解決手段】少なくとも1のビデオカメラ及び少なくとも1の表示装置に接続され、画像ストリームからの少なくとも1の第1画像を受信し、実シーンの位置・方向データを使って、実シーンの表示における少なくとも1の仮想オブジェクトの位置・方向を決めるための情報を受信し、少なくとも1の仮想オブジェクトの位置・方向に基づいて、少なくも1の仮想オブジェクトの前記少なくとも1の前記3次元表示の第2画像を抽出し、少なくとも1の抽出された第2画像を、少なくとも1のオブジェクトの前記位置に基づいて、前記少なくとも1の第1画像に挿入する。
【選択図】図1
Description
−前記実シーンの位置・方向データを使って、実シーンの表示における少なくとも1の仮想オブジェクトの位置・方向を決めるための情報を受信するステップ、但し、少なくとも1の前記データ部分は前記実シーンにおける少なくとも1のセンサから受信されたものである;
−前記少なくとも1の抽出された第2画像を、少なくとも1のオブジェクトの前記位置に基づいて、前記少なくとも1の第1画像に挿入するステップ。
−取得される前記第1画像のセグメント化するステップ;
−前記セグメント化された第1画像から少なくとも特異な幾何学的構成要素の輪郭を抽出するステップ;及び
−前記セグメント化された第1画像から抽出された輪郭に基づいて、特異な幾何学的構成要素の位置を決めるステップ。
−少なくとも1の仮想オブジェクトの3次元表示を記憶する手段;
−前記実シーンの位置・方向データを使って、実シーンの表示における少なくとも1の仮想オブジェクトの位置・方向を決めるための情報を受信する手段;但し、少なくとも1の前記データ部分は前記実シーンにおける少なくとも1のセンサから受信されたものである;
−少なくとも1の仮想オブジェクトの位置・方向に基づいて、少なくも1の仮想オブジェクトの前記少なくとも1の前記3次元表示の第2画像を抽出する手段;及び
−前記少なくとも1の抽出された第2画像を、少なくとも1のオブジェクトの前記位置に基づいて、前記少なくとも1の第1画像に挿入する手段。
第1実施例において、センサ135は6の自由度を持つセンサであって、同センサにより、実シーン120における位置及び方向(X、Y、Z、cap方位角、tangage:縦揺れ,roulis:横揺れ)を決定することができる。例として、このセンサはPolhemus社のセンサ《Fastrack》(Fastrackは出願商標)であってよい。第2実施例において、センサ135は3の自由度を持つセンサであって、同センサ135により、方向(cap、tangage,roulis)を決定することができ、センサの位置(X、Y、Z)はカメラ125の出力画像の視覚解析により決定される。
− 表示装置(例えば、LCD表示装置、プラズマ表示装置、又はビデオプロジェクション表示装置);
− 3の自由度に基づいて方向を決定することができるセンサ、及び選択的に、3の自由度に基づいて位置を決定することができるセンサ;
− ビデオカメラ;両眼視差(effets de parallaxe)を回避するために、表示装置近くに、表示装置の軸において設けられることが好ましい。
−次の操作を行うコンピュータ(例えばパーソナルコンピュータ)。
−カメラから送られて来るビデオ信号のリアルタイムのビデオ取得。(但し、ビデオ信号は、例えば、PAL(Phase Alternted Line)フォーマット信号、NTSC(National Television System Committee)、YUV (Luminance-Bandwidth-Chrominance)、YUV-HD(Luminance-Bandwidth-Chrominance High Definition Interface)、SDI (Seriai Digital Interface)又はHD- SDI (High Definition Seriai Digital Interface)である。これらは、例えば、HDMI(High Definition Multimedia Interface)又はUSB/USB2(Universsal Serial Bus)に基づいて送信される;
−動きセンサから来るデータストリームのリアルタイム収集、及び実施例によっては、位置センサから来るデータストリームのリアルタイム収集;
−コンピュータのグラフィックカードの出力を介したリアリティ向上画像の生成(前記出力は、例えば、VGA(Video Graphics Arrays)、DVI(Digital Visual Interface)、HDMI,SDI,HD−SDI,YUV,YUV−HDである);及び
−《鏡》効果を構成するために画像の左側が右側になるように最終画像に対しシンメトリ操作を行うことが好ましい。
−動きデータのストリームのリアルタイム収集;
−カメラから出力されるビデオストリームに、3D合成オブジェクトの2次元表示をリアルタイムで追加すること、及び、表示装置に修正ビデオストリームを送信すること。
− 中央処理ユニット又はマイクロプロセッサ204(CPU、Central Processing Unit);
− オペレーティングシステム及び“Prog”のようなプログラムを含むことができる固定メモリ(ROM,Read Only Memory)206;
− 前記プログラム実行中に生成された及び修正された変数及びパラメータを登録するように構成されたレジスタを持つ動的メモリ又はキャッシュメモリ(RAM,Random Access Memory)208;
− カメラ212に接続されたビデオキャプチャカード210;
− センサ(図示していない)に接続されたデータ収集カード214;及び
− 表示装置又はプロジェクタ218に接続されたグラフィックカード216。
− 前記プログラム“Prog”及び本発明に基づいて処理された又は処理すべきデータを有することができるハードディスク220;
− キー222及びマウス224又は別の全てのポインタ装置(光学ペン、タッチ表示装置)又はリモートコントローラ(ユーザは本発明に基づくプログラムを使って対話することができる);
− 通信ネットワーク(例えばインターネット)228に接続された通信インターフェース226。このインターフェースはデータを送受信することができる;
− 本発明に基づいて処理された又は処理すべきデータを読み書きできるメモリカードリーダ(図示しない)。
−RGB画像をHS′Lタイプの色空間(HSL(Hue−Situation−Luminance)タイプの色空間から導出される)へ変換する(ステップ805)、及び、幾何学的構成要素の色に対応するピクセル領域の画像をセグメント化することによりサーチする(ステップ810);
−これら領域の輪郭を再構成する、及び、追跡すべき幾何学的構成要素の形状に最も類似するものをサーチする(ステップ815);
−初期に測定された大きさに応じてその奥行きを決めるために、画像におけるオブジェクトの大きさの評価し、画像における幾何学的構成要素の中心位置をサーチし、計算する(ステップ820)。
ei=(axi+b)−yi
E=a2sx+2absx+b2n-2asxy+2bsy+sy2
105 ユーザ
110 周囲環境
115 表示装置
120 実シーン
125 ビデオカメラ
130 コンピュータ
135 センサ
200 装置
204 プロセッサ
206 固定メモリ
208 動的メモリ
210 ビデオキャプチャカード
212 カメラ
214 通信ポート
216 グラフィックカード
218 プロジェクタ
220 ハードディスク
222 キーボード
224 マウス
226 通信インターフェース
228 通信ネットワーク
300 把持部
305 センサボックス
310 スイッチ
315 センサモジュール
320 オーディオカード
500 装置
600 把持部
605 画像処理モジュール
610 レンダリングモジュール
615 球
700 バッテリー
705 無線通信モジュール
710 光源
715 支持部
720 スイッチ
725 電線カバー
Claims (16)
- 実シーン(120)を表す画像ストリームの少なくとも1の画像(第1画像という)に、リアルタイムで、少なくも1の仮想オブジェクトの3次元表示から抽出した、少なくとも1の画像(第2画像という)を挿入するための方法であって、次のステップを含むことを特徴とする方法。
−画像ストリームからの少なくとも1の第1画像を受信するステップ;
−前記実シーンの位置・方向データを使って、実シーンの表示における少なくとも1の仮想オブジェクトの位置・方向を決めるための情報を受信するステップ、但し、少なくとも1の前記データ部分は前記実シーンにおける少なくとも1のセンサ(135)から受信されたものである;
−少なくとも1の仮想オブジェクトの位置・方向に基づいて、少なくも1の仮想オブジェクトの前記少なくとも1の前記3次元表示の第2画像を抽出するステップ;及び
−前記少なくとも1の抽出された第2画像を、少なくとも1のオブジェクトの前記位置に基づいて、前記少なくとも1の第1画像に挿入するステップ(610)。 - 前記少なくとも第1画像はカメラから出力され、前記少なくとも1のセンサは前記カメラに対して可動的であることを特徴とする請求項1に記載の方法。
- 前記少なくとも1の方向データは、実シーンに存在する角度センサ(135′、135″)から受け取られることを特徴とする請求項1又は2に記載の方法。
- 前記少なくとも1の位置データは、実シーンに存在する位置センサ(135′)から受け取られることを特徴とする請求項1乃至3のいずれか1項に記載の方法。
- 前記位置・方向データの一部分が実シーンに存在するセンサから受け取られ、前記位置・方向データの別の部分は取得された第1画像から抽出される(605)ことを特徴とする請求項1又は2に記載の方法。
- 前記少なくとも1の位置・方向データは、前記センサに関係する特異な幾何学的構成要素(615)から取得される前記第1画像から抽出されることを特徴とする請求項5に記載の方法。
- −取得される前記第1画像のセグメント化するステップ(810);
−前記セグメント化された第1画像から少なくとも1の特異な幾何学的構成要素の輪郭を抽出するステップ(815);及び
−前記セグメント化された第1画像から抽出された輪郭に基づいて、特異な幾何学的構成要素の位置を決めるステップ(820)
を更に含むことを特徴とする請求項6に記載の方法。 - 実シーンにおける特異な幾何学的構成要素の位置が、前記第1画像における前記幾何学的構成要素の位置により及び前記第1画像における特異な構成要素の大きさにより決められることを特徴とする請求項7に記載の方法。
- 更に、前記仮想オブジェクトの位置の推定ステップ(825)を有していることを特徴とする請求項7又は8に記載の方法。
- 前記仮想オブジェクトの位置推定ステップが低域パスフィルタを使うことを特徴とする請求項9に記載の方法。
- 請求項1乃至10のいずれか1項の方法に基づく方法の各ステップを実行する命令を含むコンピュータプログラム。
- 請求項1乃至10のいずれか1項に記載の方法の各ステップを実行するためのコンピュータプログラムのコード命令を有するコンピュータ又はマイクロプロセッサにより部分的に又は全体的に読み取り可能である情報の格納手段。
- 少なくとも1のビデオカメラ及び少なくとも1の表示装置に接続され、請求項1乃至10のいずれか1項に記載尾方法の各ステップを実施する手段を含むリアリティ向上装置。
- 実シーン(120)を表す画像ストリームの少なくとも1の画像(第1画像という)に、リアルタイムで、少なくも1の仮想オブジェクトの3次元表示から抽出した少なくとも1の画像(第2画像という)を挿入するための装置であって、次の手段を含む点を特徴とする装置。
−画像ストリームからの少なくとも1の第1画像を受信する手段(210);
−少なくとも1の仮想オブジェクトの3次元表示を記憶する手段;
−前記実シーンの位置・方向データを使って、実シーンの表示における少なくとも1の仮想オブジェクトの位置・方向を決めるための情報を受信する手段(210,214)、但し、少なくとも1の前記データ部分は前記実シーンにおける少なくとも1のセンサ(135′,135″)から受信されたものである;
−少なくとも1の仮想オブジェクトの位置・方向に基づいて、少なくも1の仮想オブジェクトの前記少なくとも1の前記3次元表示の第2画像を抽出する手段;及び
−前記少なくとも1の抽出された第2画像を、少なくとも1のオブジェクトの前記位置に基づいて、前記少なくとも1の第1画像に挿入する手段(610)。 - 更に、取得された前記第1画像の少なくとも1の前記位置・方向データを抽出するための手段(605)を有することを特徴とする請求項14に記載の装置。
- 少なくとも1の可視の特異な幾何学的構成要素(615)と、請求項13乃至15のいずれかの1に基づく装置に位置及び/又は方向の情報を送信するセンサ(135″)とを備える装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0752547A FR2911211B1 (fr) | 2007-01-05 | 2007-01-05 | Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images |
FR0752547 | 2007-01-05 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009544431A Division JP5204126B2 (ja) | 2007-01-05 | 2008-01-03 | 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013061978A true JP2013061978A (ja) | 2013-04-04 |
Family
ID=38161918
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009544431A Expired - Fee Related JP5204126B2 (ja) | 2007-01-05 | 2008-01-03 | 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 |
JP2012268486A Pending JP2013061978A (ja) | 2007-01-05 | 2012-12-07 | 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009544431A Expired - Fee Related JP5204126B2 (ja) | 2007-01-05 | 2008-01-03 | 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20100060632A1 (ja) |
EP (2) | EP2237231B1 (ja) |
JP (2) | JP5204126B2 (ja) |
KR (1) | KR101320134B1 (ja) |
FR (1) | FR2911211B1 (ja) |
WO (1) | WO2008099080A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8817045B2 (en) | 2000-11-06 | 2014-08-26 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
JP5038307B2 (ja) * | 2005-08-09 | 2012-10-03 | トタル イメルシオン | 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム |
EP2764899A3 (en) * | 2005-08-29 | 2014-12-10 | Nant Holdings IP, LLC | Interactivity via mobile image recognition |
US8339418B1 (en) * | 2007-06-25 | 2012-12-25 | Pacific Arts Corporation | Embedding a real time video into a virtual environment |
WO2010029553A1 (en) * | 2008-09-11 | 2010-03-18 | Netanel Hagbi | Method and system for compositing an augmented reality scene |
WO2010073432A1 (ja) * | 2008-12-24 | 2010-07-01 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法 |
FR2947348B1 (fr) * | 2009-06-25 | 2011-08-19 | Immersion | Dispositif pour manipuler et visualiser un objet virtuel |
KR101642000B1 (ko) * | 2009-11-20 | 2016-07-22 | 엘지전자 주식회사 | 이동 단말기, dtv 및 dtv의 제어 방법 |
KR101487944B1 (ko) | 2010-02-24 | 2015-01-30 | 아이피플렉 홀딩스 코포레이션 | 시각 장애인들을 지원하는 증강 현실 파노라마 |
JP5574852B2 (ja) * | 2010-06-30 | 2014-08-20 | キヤノン株式会社 | 情報処理装置、情報処理方法、システム及びプログラム |
US9514654B2 (en) | 2010-07-13 | 2016-12-06 | Alive Studios, Llc | Method and system for presenting interactive, three-dimensional learning tools |
KR101705122B1 (ko) * | 2010-07-19 | 2017-02-23 | 주식회사 비즈모델라인 | 증강현실을 이용한 오디오객체 운영 방법 |
US20120182313A1 (en) * | 2011-01-13 | 2012-07-19 | Pantech Co., Ltd. | Apparatus and method for providing augmented reality in window form |
US8570320B2 (en) * | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
USD648796S1 (en) | 2011-01-31 | 2011-11-15 | Logical Choice Technologies, Inc. | Educational card |
USD648390S1 (en) | 2011-01-31 | 2011-11-08 | Logical Choice Technologies, Inc. | Educational card |
USD648391S1 (en) | 2011-01-31 | 2011-11-08 | Logical Choice Technologies, Inc. | Educational card |
USD675648S1 (en) | 2011-01-31 | 2013-02-05 | Logical Choice Technologies, Inc. | Display screen with animated avatar |
USD654538S1 (en) | 2011-01-31 | 2012-02-21 | Logical Choice Technologies, Inc. | Educational card |
USD647968S1 (en) | 2011-01-31 | 2011-11-01 | Logical Choice Technologies, Inc. | Educational card |
US8488011B2 (en) | 2011-02-08 | 2013-07-16 | Longsand Limited | System to augment a visual data stream based on a combination of geographical and visual information |
US9285874B2 (en) | 2011-02-09 | 2016-03-15 | Apple Inc. | Gaze detection in a 3D mapping environment |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8493353B2 (en) | 2011-04-13 | 2013-07-23 | Longsand Limited | Methods and systems for generating and joining shared experience |
US9262950B2 (en) | 2011-04-20 | 2016-02-16 | Microsoft Technology Licensing, Llc | Augmented reality extrapolation techniques |
KR101620777B1 (ko) * | 2012-03-26 | 2016-05-12 | 애플 인크. | 증강된 가상 터치패드 및 터치스크린 |
US9430876B1 (en) | 2012-05-10 | 2016-08-30 | Aurasma Limited | Intelligent method of determining trigger items in augmented reality environments |
US9064326B1 (en) | 2012-05-10 | 2015-06-23 | Longsand Limited | Local cache of augmented reality content in a mobile computing device |
US9466121B2 (en) | 2012-09-11 | 2016-10-11 | Qualcomm Incorporated | Devices and methods for augmented reality applications |
US9595083B1 (en) * | 2013-04-16 | 2017-03-14 | Lockheed Martin Corporation | Method and apparatus for image producing with predictions of future positions |
US10043319B2 (en) | 2014-11-16 | 2018-08-07 | Eonite Perception Inc. | Optimizing head mounted displays for augmented reality |
US9916002B2 (en) | 2014-11-16 | 2018-03-13 | Eonite Perception Inc. | Social applications for augmented reality technologies |
US9754419B2 (en) | 2014-11-16 | 2017-09-05 | Eonite Perception Inc. | Systems and methods for augmented reality preparation, processing, and application |
EP3695888B1 (en) | 2015-05-14 | 2021-12-29 | Magic Leap, Inc. | Privacy-sensitive consumer cameras coupled to augmented reality systems |
US11017712B2 (en) | 2016-08-12 | 2021-05-25 | Intel Corporation | Optimized display image rendering |
US9928660B1 (en) | 2016-09-12 | 2018-03-27 | Intel Corporation | Hybrid rendering for a wearable display attached to a tethered computer |
EP3599544A1 (en) * | 2018-07-25 | 2020-01-29 | Nokia Technologies Oy | An apparatus, method, computer program for enabling access to mediated reality content by a remote user |
CN112750204B (zh) * | 2019-10-30 | 2022-04-05 | 广东致创数字科技有限公司 | 数据内容实时更新系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000102036A (ja) * | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法 |
JP2004212163A (ja) * | 2002-12-27 | 2004-07-29 | Kazuyoshi Tsukamoto | バーチャルスポーツシステム |
JP2004287699A (ja) * | 2003-03-20 | 2004-10-14 | Tama Tlo Kk | 画像合成装置及びその合成方法 |
JP2005251118A (ja) * | 2004-03-08 | 2005-09-15 | Canon Inc | 画像処理方法、画像処理装置 |
JP2005267094A (ja) * | 2004-03-17 | 2005-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2006285788A (ja) * | 2005-04-01 | 2006-10-19 | Canon Inc | 複合現実感情報生成装置および方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6351659B1 (en) * | 1995-09-28 | 2002-02-26 | Brainlab Med. Computersysteme Gmbh | Neuro-navigation system |
JP4974319B2 (ja) * | 2001-09-10 | 2012-07-11 | 株式会社バンダイナムコゲームス | 画像生成システム、プログラム及び情報記憶媒体 |
JP4032776B2 (ja) * | 2002-03-04 | 2008-01-16 | ソニー株式会社 | 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム |
JP2003264740A (ja) * | 2002-03-08 | 2003-09-19 | Cad Center:Kk | 展望鏡 |
JP2003281504A (ja) * | 2002-03-22 | 2003-10-03 | Canon Inc | 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム |
JP2003346190A (ja) * | 2002-05-29 | 2003-12-05 | Canon Inc | 画像処理装置 |
FR2842977A1 (fr) | 2002-07-24 | 2004-01-30 | Total Immersion | Procede et systeme permettant a un utilisateur de melanger en temps reel des images de synthese avec des images video |
US7071970B2 (en) * | 2003-03-10 | 2006-07-04 | Charles Benton | Video augmented orientation sensor |
US20080267450A1 (en) * | 2005-06-14 | 2008-10-30 | Maki Sugimoto | Position Tracking Device, Position Tracking Method, Position Tracking Program and Mixed Reality Providing System |
FR2889761A3 (fr) * | 2005-08-09 | 2007-02-16 | Total Immersion | Systeme permettant a un utilisateur de localiser une camera afin de pouvoir inserer, rapidement de maniere ajustee, des images d'elements virtuels dans des images video d'elements reels captees par la camera |
JP5038307B2 (ja) * | 2005-08-09 | 2012-10-03 | トタル イメルシオン | 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム |
KR101465668B1 (ko) * | 2008-06-24 | 2014-11-26 | 삼성전자주식회사 | 단말 및 그의 블로깅 방법 |
US20110107216A1 (en) * | 2009-11-03 | 2011-05-05 | Qualcomm Incorporated | Gesture-based user interface |
-
2007
- 2007-01-05 FR FR0752547A patent/FR2911211B1/fr not_active Expired - Fee Related
-
2008
- 2008-01-03 WO PCT/FR2008/000011 patent/WO2008099080A1/fr active Application Filing
- 2008-01-03 EP EP10165722.9A patent/EP2237231B1/fr not_active Not-in-force
- 2008-01-03 EP EP08761735.3A patent/EP2104925B1/fr not_active Not-in-force
- 2008-01-03 US US12/522,256 patent/US20100060632A1/en not_active Abandoned
- 2008-01-03 KR KR1020097016349A patent/KR101320134B1/ko active IP Right Grant
- 2008-01-03 JP JP2009544431A patent/JP5204126B2/ja not_active Expired - Fee Related
-
2012
- 2012-12-07 JP JP2012268486A patent/JP2013061978A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000102036A (ja) * | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法 |
JP2004212163A (ja) * | 2002-12-27 | 2004-07-29 | Kazuyoshi Tsukamoto | バーチャルスポーツシステム |
JP2004287699A (ja) * | 2003-03-20 | 2004-10-14 | Tama Tlo Kk | 画像合成装置及びその合成方法 |
JP2005251118A (ja) * | 2004-03-08 | 2005-09-15 | Canon Inc | 画像処理方法、画像処理装置 |
JP2005267094A (ja) * | 2004-03-17 | 2005-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2006285788A (ja) * | 2005-04-01 | 2006-10-19 | Canon Inc | 複合現実感情報生成装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2010515189A (ja) | 2010-05-06 |
JP5204126B2 (ja) | 2013-06-05 |
KR20090100436A (ko) | 2009-09-23 |
FR2911211B1 (fr) | 2009-06-12 |
WO2008099080A1 (fr) | 2008-08-21 |
KR101320134B1 (ko) | 2013-10-23 |
EP2237231A1 (fr) | 2010-10-06 |
EP2104925B1 (fr) | 2013-04-24 |
EP2237231B1 (fr) | 2013-05-01 |
EP2104925A1 (fr) | 2009-09-30 |
FR2911211A1 (fr) | 2008-07-11 |
US20100060632A1 (en) | 2010-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5204126B2 (ja) | 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置 | |
JP5424373B2 (ja) | 画像処理装置、画像処理プログラム、画像処理システム、および画像処理方法 | |
US10092220B2 (en) | System and method for motion capture | |
JP5084052B2 (ja) | コンピュータプログラムとのインタフェース時に方向検出を可能にするための方法およびシステム | |
US8970624B2 (en) | Entertainment device, system, and method | |
TWI517881B (zh) | 決定附球控制器的位置與移動 | |
US9658695B2 (en) | Systems and methods for alternative control of touch-based devices | |
JP7051315B2 (ja) | ボールの回転を測定するための方法、システム、及び非一時的なコンピュータ読み取り可能な記録媒体 | |
US20170068326A1 (en) | Imaging surround system for touch-free display control | |
US20110109617A1 (en) | Visualizing Depth | |
US20090318228A1 (en) | Apparatus and method of interaction with a data processor | |
JP5778967B2 (ja) | 情報処理プログラム、情報処理方法、情報処理装置および情報処理システム | |
US8699749B2 (en) | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method | |
CN104364733A (zh) | 注视位置检测装置、注视位置检测方法和注视位置检测程序 | |
JP5756322B2 (ja) | 情報処理プログラム、情報処理方法、情報処理装置および情報処理システム | |
WO2019161576A1 (en) | Apparatus and method for performing real object detection and control using a virtual reality head mounted display system | |
CN110489027B (zh) | 手持输入设备及其指示图标的显示位置控制方法和装置 | |
CN114578952B (zh) | 人机交互方法、系统、处理设备和计算机可读存储介质 | |
WO2014111947A1 (en) | Gesture control in augmented reality | |
JP6788129B2 (ja) | ズーム装置及び関連する方法 | |
KR101395237B1 (ko) | 이미지 내 형상의 블루밍 보상 | |
CN108401452B (zh) | 使用虚拟现实头戴式显示器系统来执行真实目标检测和控制的装置和方法 | |
TWI460683B (zh) | The way to track the immediate movement of the head | |
CN102375541B (zh) | 将用户运动转换成多个对象响应 | |
TWM453888U (zh) | 使用無線體感偵測裝置判別姿勢的擴增實境投影裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140422 |