JP2009187550A - 拡張現実におけるハプティックインタラクション方法およびそのシステム - Google Patents
拡張現実におけるハプティックインタラクション方法およびそのシステム Download PDFInfo
- Publication number
- JP2009187550A JP2009187550A JP2009023350A JP2009023350A JP2009187550A JP 2009187550 A JP2009187550 A JP 2009187550A JP 2009023350 A JP2009023350 A JP 2009023350A JP 2009023350 A JP2009023350 A JP 2009023350A JP 2009187550 A JP2009187550 A JP 2009187550A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- haptic
- augmented reality
- unit
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/06—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed using colour palettes, e.g. look-up tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/28—Force feedback
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/10—Special adaptations of display systems for operation with variable images
- G09G2320/103—Detection of image changes, e.g. determination of an index representative of the image change
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
Abstract
【解決手段】現実環境に対する映像の入力を受け、マーカーを検出するマーカー検出部と、マーカーの位置を抽出するマーカー位置抽出部と、マーカーの位置情報からノイズを除去するノイズ除去部と、マーカーに対応する仮想オブジェクトをマーカーの位置に増強させて出力する仮想オブジェクト増強部と、を含む視覚レンダリング部およびノイズ除去部から伝達されたマーカーの位置情報に基づき、ハプティックレンダリングのための時間間隔に応じてマーカーの動きを推定する動き推定部と、マーカーの位置に対応する仮想オブジェクトとハプティック装置のエンドポイント間の衝突有無を検出する衝突検出部と、ハプティック装置から提供される反力を計算する反力計算部と、を含むハプティックレンダリング部を含む。
【選択図】図2
Description
図1による視覚ベースの拡張現実システム100は、ARマーカー110、映像獲得装置120、主処理装置130、視覚ディスプレイ装置140、およびハプティック装置150を含む。
映像獲得装置120はARマーカー110を始めとする実際環境の映像を獲得する機能を行うものであり、代表的な例としてはカメラが挙げられる。
視覚ディスプレイ装置140は主処理装置によって処理された映像を視覚的に出力し、実際環境に対する映像と共にARマーカー110に対応する仮想オブジェクトの映像を2次元または3次元で出力する。
ハプティック装置150は仮想環境の仮想オブジェクトとのハプティックインタラクションを行い、仮想オブジェクトとの衝突による反力をユーザに提供し、ユーザが仮想オブジェクトを操作できるようにする。
好ましくは、前記マーカーの位置情報は前記マーカーの3次元位置情報および方位情報を含む。
また、前記拡張カルマンフィルタは、前記状態ベクトルの先験的予測値と誤差共分散の先験的予測値を初期条件から予測した後、カルマン利得を求め、前記実際測定値と前記カルマン利得を利用して前記状態ベクトルの先験的予測値を補正して前記状態ベクトルの経験的予測値を求めることを特徴とする。
また、前記視覚レンダリング部と前記ハプティックレンダリング部のうちのいずれか1つは、視覚レンダリングのための視覚座標系とハプティックレンダリングのためのハプティック座標系の同期化を行う座標系同期化部をさらに含むことを特徴とする。
本発明の好ましい実施形態による拡張現実システム200は、マーカー110を含む実際環境を撮影する映像獲得装置120から入力された映像に基づき、マーカー110に対応する仮想オブジェクト202を視覚的に増強して視覚ディスプレイ装置140に出力するための視覚レンダリング部210と、仮想オブジェクト202とハプティック装置150とのハプティックインタラクションを可能にするハプティックレンダリング部260とを含む。
視覚レンダリング部210は、マーカー検出部220、マーカー位置抽出部230、ノイズ除去部240、および仮想オブジェクト増強部250を含む。
動き推定部270は、ノイズ除去部240から伝達されたマーカーの位置および方位情報に基づいてハプティックレンダリングを行うために、ハプティックレンダリングの更新率に応じてマーカーの動き、すなわちマーカーの位置および方位を推定する機能を行う。このような動き推定部270のマーカーの動き推定方式は補間法(interpolation)または外挿法(extrapolation)によってなされ得るが、本発明では後述する適応的外挿法(apative extrapolation)によってなされることがより好ましい。
以上で説明した本発明に係る拡張現実システムの主な特徴はノイズ除去部240と動き推定部270とから把握することができ、ノイズ除去部240と動き推定部270の作動については以下にてより詳細に説明する。
そのために、ノイズ除去部240はノイズの除去と動きの予測を同時に行うことができるように次の予測技法を用いることができる。
2)最小平均二乗予測器(Minimum Mean Squared Estimator、MMSE):関心のあるパラメータのエラーを最小化するために用いる方法であり、エラー二乗平均を最小化して最適解(optimal solution)を探す予測器である。
4)Maximum A Posteriori(MAP):最大尤度予測器と類似するが、事前確率(prior probability)を考慮するという点で異なる。この予測器は事後確率(posterior probability)を設定し、それに基づいて最適パラメータを推定する。
9)最小分散不偏予測器(Minimum Variance Unbiased Estimator、MVUE):不偏性(unbiasedness)を満足する推定量(estimator)のうちの最も小さい分散を有する推定量を付与する予測器をいう。
ステップ毎に、拡張カルマンフィルタは次の数学式6と7を利用して、以前ステップに対する現在ステップにおけるシステムの状態および不確実性に対する予測値を計算する。
拡張カルマンフィルタは、次の補正方程式を利用して、以前状態の予測値を測定値ykに修正する。補正方程式は次の通りである。
カルマン利得(Kk)は数学式8のように表すことができ、経験的予測(posteriori estimate)誤差共分散(Pk/k)は数学式9のようであり、状態ベクトルの経験的予測値
は数学式10のようである。
測定ノイズ共分散を測定するために、先ずマーカー変換行列(TMARKER)を利用してマーカー110の位置および方位を次の数学式11によって計算する。
映像レンダリングは通常30Hz内外で更新されるのに反し、ハプティックレンダリングは1KHz程度で更新されなければユーザに安定したハプティックインタラクションを提供することができない。しかし、映像に基づいて行われるハプティックレンダリングにおいて、前記のような更新比率の差によって映像フレームが変わる瞬間に反力が急に変わる問題が発生し得る。大韓民国特許第761022号(深さ映像ベースのハプティックレンダリング方法と装置、およびそれを用いた触覚放送システム)の場合には、補間(interpolation)法を利用しての上記のような問題点を解決しようとした。しかし、実際には、映像フレームとハプティックフレームの更新率(refresh rate)が一定ではなく若干の誤差を有しており、依然として不連続的な力が生じる。このような更新率の変動はハプティック装置150で増強された仮想オブジェクトを触る時にさらに増加し得る。
図3はハプティックフレームと映像フレームの更新率の不一致による不連続的な反力フィードバックを示す図であり、図4は従来の補間法による反力フィードバックにおけるジャーク(jerk)を示す図であり、図5は従来の外挿法による反力フィードバックにおけるジャークを示す図である。
図3を参照すれば、仮想オブジェクト300が以前位置から未来位置に移動する時、反力計算のための中間地点がなく、ユーザがハプティック装置150によって仮想オブジェクト300とインタラクションするにおいて、突然の反力変化を感じる(点線円弧内の反力参照)。
このような問題点を解決するための方法として、本発明では反力の不連続性を最小化するための適応的外挿法を提案する。
図6において、tvおよびthは映像レンダリングおよびハプティックレンダリングの時間間隔を示し、Tt−Δt、Tt、Tt+△tとRt−Δt、Rt、Rt+△tは各々仮想オブジェクト300の以前、現在、未来の位置と回転角を示す。LEPt−Δtは以前時間ステップにおいて最終的に外挿法によって予測された位置を示し、δTとδRはLEPt−Δtと現在のオブジェクト位置300間の距離および角度差を示す。これらの関係は次の数学式14のように表すことができる。
これにより、ハプティックレンダリングにおける仮想オブジェクト300の位置および角度に対する増加分は次の数学式15によって決定され得る。
以上で説明した拡張現実システムを用いたハプティックインタラクションを含む拡張現実提供方法を説明すれば次の通りである。
拡張現実の提供のためにマーカー110を含む実際環境の映像が映像獲得装置120を介して入力される(S700)。
映像獲得装置のマーカー検出部220は実際環境に対する映像からマーカー110を検出する(S702)。
マーカー110の位置および方位情報には映像獲得装置120そのもののノイズを始めとする様々な環境要因によるノイズが含まれ得るため、ノイズ除去部240はマーカー110の位置および方位情報からノイズを除去し、好ましくは、マーカー110の位置および方位情報を連続的に予測する(S706)。ノイズが除去されたマーカーの位置および方位情報は仮想オブジェクト202の増強および仮想オブジェクト202とハプティック装置150のインタラクションのために用いられる。
一方、ノイズ除去部240ではノイズが除去されたマーカー110の位置および方位情報をハプティックレンダリング部260に伝達し、ハプティックレンダリング部260の動き推定部270はハプティックレンダリングのためにハプティックレンダリング時間間隔に応じたマーカー110の動きを推定する(S712)。本発明において、好ましくは、動き推定部270は適応的外挿法によりマーカー110の動きを推定することによって、新しい映像フレームの更新時に生じ得る反力ジャークを除去できるようにする。
反力計算部290は仮想オブジェクト202とハプティック装置150のエンドポイント間に衝突が発生する場合、反力を計算し、それをハプティック装置150に伝達し(S716)、ハプティック装置150はこのような反力をユーザに提供する(S718)。
このような視覚レンダリングとハプティックレンダリング時の座標系の不一致を解決するために、映像に対する座標系をハプティックレンダリングに対する座標系と一致するように回転させる。このような回転はマーカー変換行列を活用して行うことができる。マーカー変換行列は、マーカー110に対応する仮想オブジェクト202が実際環境に対する映像のマーカー110の位置に増強されるように変換させる。それにより、視覚レンダリング時に用いられる座標系を次の数学式16のように座標系同期化行列(T’MARKER)を利用して変換させれば、視覚レンダリングに対する座標系とハプティックレンダリングに対する座標系を同期化することができる。数学式16におけるTMARKERはマーカー変換行列を示す。
一方、上記説明では視覚座標系を変換させてハプティック座標系と同期化させる構成を説明したが、本発明の実施においては逆にハプティック座標系を変換させて視覚座標系と同期化させることもできることは言うまでもない。
110:マーカー
120:映像獲得装置
130:主処理装置
140:視覚ディスプレイ装置
150:ハプティック装置
200:拡張現実システム
202,300:仮想オブジェクト
210:視覚レンダリング部
220:マーカー検出部
230:マーカー位置抽出部
240:ノイズ除去部
250:仮想オブジェクト増強部
260:ハプティックレンダリング部
270:動き推定部
280:衝突検出部
290:反力計算部
Claims (11)
- ハプティックインタラクションを含む拡張現実システムであって、
視覚レンダリング部とハプティックレンダリング部とを備え、
前記視覚レンダリング部は、
マーカーを含む現実環境に対する映像の入力を受け、前記映像中に含まれた前記マーカーを検出するマーカー検出部と、
検出された前記マーカーの位置を抽出するマーカー位置抽出部と、
前記マーカー位置抽出部によって抽出されたマーカーの位置情報からノイズを除去するノイズ除去部と、
前記マーカーに対応する仮想オブジェクトを前記マーカーの位置に増強させて出力する仮想オブジェクト増強部とを含み、
前記ハプティックレンダリング部は、
前記ノイズ除去部から伝達された前記マーカーの位置情報に基づき、ハプティックレンダリングのための時間間隔に応じて前記マーカーの動きを推定する動き推定部と、
前記動き推定部により推定された前記マーカーの位置に対応する仮想オブジェクトとハプティック装置のエンドポイント間の衝突有無を検出する衝突検出部と、
前記衝突検出部の判断に応じ前記ハプティック装置を介して提供される反力を計算する反力計算部とを含んでなる拡張現実システム。 - 前記ノイズ除去部は、
初期値から連続的な予測と補正により、前記マーカーの位置情報からノイズをフィルタリングして予測する拡張カルマンフィルタである請求項1に記載の拡張現実システム。 - 前記拡張カルマンフィルタにおいて、
前記マーカートラッキングに対するモデルは、位置、速度、および加速度を含む状態ベクトルとマーカートラッキング過程で流入されるシステムノイズで表され、実際測定値に基づいて連続的に予測される請求項2に記載の拡張現実システム。 - 前記拡張カルマンフィルタは、
前記状態ベクトルの先験的予測値と誤差共分散の先験的予測値を初期条件から予測した後、カルマン利得を求め、前記実際測定値と前記カルマン利得を利用して前記状態ベクトルの先験的予測値を補正して前記状態ベクトルの経験的予測値を求める請求項2または3に記載の拡張現実システム。 - 前記動き推定部は、
以前時間映像に基づいて外挿法を適用して最終的に推定された前記マーカーの位置と、現在時間映像における前記マーカーの実際位置との差に基づいて現在時間以後のハプティックレンダリングのための前記マーカーの位置増加分を決定する適応的外挿法によって前記マーカーの動きを推定する請求項1乃至3のいずれか一項に記載の拡張現実システム。 - 前記以前時間映像に基づいて最終的に推定された前記マーカーの位置は、映像フレーム毎に連続的にモニターされる請求項5に記載の拡張現実システム。
- 前記視覚レンダリング部と前記ハプティックレンダリング部のうちのいずれか一つは、視覚レンダリングのための視覚座標系とハプティックレンダリングのためのハプティック座標系の同期化を行う座標系同期化部をさらに含む請求項5に記載の拡張現実システム。
- ハプティックインタラクションを含む拡張現実提供方法であって、
(a)マーカーを含む実際環境の映像が入力されるステップと;
(b)前記映像から前記マーカーを検出し、前記マーカーの位置を抽出するステップと;
(c)前記マーカーの位置情報に含まれたノイズを除去するステップと;
(d)前記マーカーの位置情報に基づいてハプティックレンダリングのための時間間隔に応じて前記マーカーの動きを推定するステップと;
(e)前記マーカーに対応する仮想オブジェクトとハプティック装置のエンドポイント間の衝突有無を検出し反力を計算してハプティック装置に出力するステップ;および
(f)前記実際映像の前記マーカー位置に前記仮想オブジェクトを増強して視覚ディスプレイ装置に出力するステップ
を含む拡張現実提供方法。 - 前記ステップ(c)は、初期値から連続的な予測と補正により、前記マーカーの位置情報からノイズをフィルタリングし予測する拡張カルマンフィルタによって行われる請求項8に記載の拡張現実提供方法。
- 前記ステップ(c)は、
(c1)前記マーカーの位置、速度、加速度を含む状態ベクトルに対する先験的予測値と誤差共分散の先験的予測値を初期条件から予測するステップと、
(c2)カルマン利益を求め、実際測定値と前記カルマン利得を利用して前記状態ベクトルの先験的予測値を補正して前記状態ベクトルの経験的予測値を求めるステップとを含む請求項8に記載の拡張現実提供方法。 - 前記ステップ(d)は、
以前時間映像に基づいて外挿法を適用して最終的に推定された前記マーカーの位置と、現在時間映像における前記マーカーの実際位置との差に基づいて現在時間以後のハプティックレンダリングのための前記マーカーの位置増加分を決定する適応的外挿法によって前記マーカーの動きを推定する請求項8乃至10のいずれか一項に記載の拡張現実提供方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080011300A KR100927009B1 (ko) | 2008-02-04 | 2008-02-04 | 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템 |
KR10-2008-0011300 | 2008-02-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009187550A true JP2009187550A (ja) | 2009-08-20 |
JP4977725B2 JP4977725B2 (ja) | 2012-07-18 |
Family
ID=40931211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009023350A Expired - Fee Related JP4977725B2 (ja) | 2008-02-04 | 2009-02-04 | 拡張現実におけるハプティックインタラクション方法およびそのシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8243099B2 (ja) |
JP (1) | JP4977725B2 (ja) |
KR (1) | KR100927009B1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014119383A1 (ja) * | 2013-01-29 | 2014-08-07 | 日本電気株式会社 | 触力覚提示装置、触力覚提示システム、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体 |
KR101900859B1 (ko) * | 2017-07-20 | 2018-09-20 | (주)프리뉴 | 드론 게임 시스템 |
JP2019503218A (ja) * | 2016-01-12 | 2019-02-07 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 制御状態同士の間の段階的な力フィードバック移行 |
JP2022058756A (ja) * | 2014-12-16 | 2022-04-12 | ソマティクス, インコーポレイテッド | ジェスチャベースの行動を監視し、それに影響を与える方法およびシステム |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9147213B2 (en) * | 2007-10-26 | 2015-09-29 | Zazzle Inc. | Visualizing a custom product in situ |
KR100927009B1 (ko) * | 2008-02-04 | 2009-11-16 | 광주과학기술원 | 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템 |
JP5158006B2 (ja) * | 2009-04-23 | 2013-03-06 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
KR101133055B1 (ko) * | 2009-09-08 | 2012-04-04 | 광주과학기술원 | 햅틱 데이터를 동기화하는 방법 및 햅틱 시스템 |
KR101642000B1 (ko) * | 2009-11-20 | 2016-07-22 | 엘지전자 주식회사 | 이동 단말기, dtv 및 dtv의 제어 방법 |
KR101135186B1 (ko) * | 2010-03-03 | 2012-04-16 | 광주과학기술원 | 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체 |
US9158777B2 (en) * | 2010-03-30 | 2015-10-13 | Gravity Jack, Inc. | Augmented reality methods and apparatus |
KR101640043B1 (ko) * | 2010-04-14 | 2016-07-15 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
KR101108145B1 (ko) * | 2010-05-07 | 2012-02-06 | 광주과학기술원 | 고해상도 타일드 디스플레이를 지원하는 햅틱기반 네트워크 가상환경 구현 장치 및 방법 |
JP4971483B2 (ja) | 2010-05-14 | 2012-07-11 | 任天堂株式会社 | 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法 |
US9213920B2 (en) | 2010-05-28 | 2015-12-15 | Zazzle.Com, Inc. | Using infrared imaging to create digital images for use in product customization |
EP2395474A3 (en) | 2010-06-11 | 2014-03-26 | Nintendo Co., Ltd. | Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method |
US8442295B2 (en) * | 2010-06-29 | 2013-05-14 | Analogic Corporation | Anti-counterfeiting / authentication |
JP5377768B2 (ja) | 2010-06-30 | 2013-12-25 | 富士フイルム株式会社 | 画像処理方法及び装置 |
US8593535B2 (en) | 2010-09-10 | 2013-11-26 | Apple Inc. | Relative positioning of devices based on captured images of tags |
US8611594B2 (en) * | 2010-09-10 | 2013-12-17 | Apple Inc. | Dynamic display of virtual content on several devices using reference tags |
KR101221513B1 (ko) * | 2010-12-13 | 2013-01-21 | 가천대학교 산학협력단 | 시각 장애인에게 시각 정보를 촉각 정보로 전달하는 그래픽 햅틱전자보드 및 방법 |
USRE48083E1 (en) | 2011-01-17 | 2020-07-07 | Stc.Unm | System and methods for random parameter filtering |
US9582707B2 (en) * | 2011-05-17 | 2017-02-28 | Qualcomm Incorporated | Head pose estimation using RGBD camera |
KR101845231B1 (ko) | 2011-06-14 | 2018-04-04 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
JP5145444B2 (ja) * | 2011-06-27 | 2013-02-20 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、及びプログラム |
EP3678054A1 (en) | 2011-08-31 | 2020-07-08 | Zazzle Inc. | Product options framework and accessories |
US8217945B1 (en) * | 2011-09-02 | 2012-07-10 | Metric Insights, Inc. | Social annotation of a single evolving visual representation of a changing dataset |
US9030428B2 (en) * | 2012-07-11 | 2015-05-12 | Immersion Corporation | Generating haptic effects for dynamic events |
US9779550B2 (en) | 2012-10-02 | 2017-10-03 | Sony Corporation | Augmented reality system |
US8947216B2 (en) | 2012-11-02 | 2015-02-03 | Immersion Corporation | Encoding dynamic haptic effects |
US9898084B2 (en) | 2012-12-10 | 2018-02-20 | Immersion Corporation | Enhanced dynamic haptic effects |
US20140198130A1 (en) * | 2013-01-15 | 2014-07-17 | Immersion Corporation | Augmented reality user interface with haptic feedback |
US8712566B1 (en) | 2013-03-14 | 2014-04-29 | Zazzle Inc. | Segmentation of a product markup image based on color and color differences |
US9367136B2 (en) * | 2013-04-12 | 2016-06-14 | Microsoft Technology Licensing, Llc | Holographic object feedback |
US9098934B2 (en) * | 2013-06-27 | 2015-08-04 | Hcl Technologies Limited | Augmented reality system with correlation among multiple markers |
US9626737B2 (en) | 2013-11-15 | 2017-04-18 | Canon Information And Imaging Solutions, Inc. | Devices, systems, and methods for examining the interactions of objects in an enhanced scene |
JP6323040B2 (ja) | 2014-02-12 | 2018-05-16 | 株式会社リコー | 画像処理装置、画像処理方法およびプログラム |
US9690370B2 (en) | 2014-05-05 | 2017-06-27 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
US9330306B2 (en) * | 2014-06-11 | 2016-05-03 | Panasonic Intellectual Property Management Co., Ltd. | 3D gesture stabilization for robust input control in mobile environments |
KR101651889B1 (ko) * | 2014-11-12 | 2016-08-29 | 고려대학교 산학협력단 | 극저조도 영상의 화질 개선 장치 및 방법 |
US20160189427A1 (en) * | 2014-12-31 | 2016-06-30 | Immersion Corporation | Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications |
KR101656618B1 (ko) * | 2015-01-15 | 2016-09-09 | 한양대학교 산학협력단 | 물리 객체에 대한 증강 현실 제공 방법 및 장치 |
US9911232B2 (en) | 2015-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Molding and anchoring physically constrained virtual environments to real-world environments |
EP3099030A1 (en) * | 2015-05-26 | 2016-11-30 | Thomson Licensing | Method and device for encoding/decoding a packet comprising data representative of a haptic effect |
US9836117B2 (en) | 2015-05-28 | 2017-12-05 | Microsoft Technology Licensing, Llc | Autonomous drones for tactile feedback in immersive virtual reality |
US9898864B2 (en) | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
KR101688957B1 (ko) * | 2015-09-21 | 2016-12-22 | 광주과학기술원 | 인카운터-타입 햅틱 상호작용을 위한 가상 객체의 포즈 조정시스템 및 포즈 조정방법 |
RU2617557C1 (ru) * | 2015-11-18 | 2017-04-25 | Виталий Витальевич Аверьянов | Способ воздействия на виртуальные объекты дополненной реальности |
JP6362631B2 (ja) * | 2016-01-15 | 2018-07-25 | 株式会社meleap | 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ |
US10296088B2 (en) * | 2016-01-26 | 2019-05-21 | Futurewei Technologies, Inc. | Haptic correlated graphic effects |
WO2017196404A1 (en) * | 2016-05-10 | 2017-11-16 | Google Llc | Methods and apparatus to use predicted actions in virtual reality environments |
CN107687932B (zh) * | 2016-08-05 | 2020-08-04 | 成都理想境界科技有限公司 | 头戴式显示设备延迟的检测方法及装置 |
CN106340056B (zh) * | 2016-09-07 | 2019-06-18 | 讯飞幻境(北京)科技有限公司 | 一种全景渲染方法和装置 |
KR102531542B1 (ko) | 2016-12-05 | 2023-05-10 | 매직 립, 인코포레이티드 | 혼합 현실 환경의 가상 사용자 입력 콘트롤들 |
US10922583B2 (en) | 2017-07-26 | 2021-02-16 | Magic Leap, Inc. | Training a neural network with representations of user interface devices |
US10444840B2 (en) | 2017-08-30 | 2019-10-15 | Disney Enterprises, Inc. | Systems and methods to synchronize visual effects and haptic feedback for interactive experiences |
DE102017216953A1 (de) * | 2017-09-25 | 2019-03-28 | Siemens Healthcare Gmbh | Anzeige eines mit einem realen Objekt verknüpften virtuellen Objekts in einer Augmented-Reality-Anzeigevorrichtung |
CN108399638B (zh) * | 2018-02-08 | 2021-07-20 | 重庆爱奇艺智能科技有限公司 | 一种基于标记的增强现实交互方法、装置及电子设备 |
CN111612915B (zh) * | 2019-02-25 | 2023-09-15 | 苹果公司 | 渲染对象以匹配相机噪声 |
CN110379017B (zh) * | 2019-07-12 | 2023-04-28 | 北京达佳互联信息技术有限公司 | 一种场景构建方法、装置、电子设备及存储介质 |
US11100672B2 (en) * | 2019-09-27 | 2021-08-24 | Myntra Designs Private Limited | System and method for reducing jitter in augmented reality |
CN112180373B (zh) * | 2020-09-18 | 2024-04-19 | 纵目科技(上海)股份有限公司 | 一种多传感器融合的智能泊车系统和方法 |
WO2023011711A1 (en) | 2021-08-04 | 2023-02-09 | Telefonaktiebolaget Lm Ericsson (Publ) | Adaptation of senses datastreams |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61169786A (ja) * | 1985-01-22 | 1986-07-31 | Mitsubishi Electric Corp | 追尾フィルタ |
JPH11272157A (ja) * | 1998-03-19 | 1999-10-08 | Dainippon Printing Co Ltd | 物体の把持動作シミュレーション装置 |
JP2000501033A (ja) * | 1995-11-30 | 2000-02-02 | ヴァーチャル テクノロジーズ インコーポレイテッド | 触覚をフィードバックする人間/機械インターフェース |
JP2003038851A (ja) * | 2001-07-27 | 2003-02-12 | Namco Ltd | ゲーム情報、情報記憶媒体、及びゲーム装置 |
JP2005303983A (ja) * | 2004-01-06 | 2005-10-27 | Sony Corp | 画像処理装置および方法、プログラム並びに記録媒体 |
JP2005535022A (ja) * | 2002-07-27 | 2005-11-17 | 株式会社ソニー・コンピュータエンタテインメント | 変形可能な装置を使用したマンマシンインターフェース |
JP2007071600A (ja) * | 2005-09-05 | 2007-03-22 | Nec Corp | 航跡生成システム、その誤差共分散行列初期値設定装置、航跡生成方法およびその誤差共分散行列初期値設定方法 |
JP2007163425A (ja) * | 2005-12-16 | 2007-06-28 | Toshiba Corp | レーダ情報処理装置、レーダ画面表示プログラム |
JP2007293412A (ja) * | 2006-04-21 | 2007-11-08 | Canon Inc | 情報処理方法および装置 |
WO2008072756A1 (ja) * | 2006-12-13 | 2008-06-19 | National Institute Of Advanced Industrial Science And Technology | 反力提示方法、および力覚提示システム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6270414B2 (en) * | 1997-12-31 | 2001-08-07 | U.S. Philips Corporation | Exoskeletal platform for controlling multi-directional avatar kinetics in a virtual environment |
US6329986B1 (en) * | 1998-02-21 | 2001-12-11 | U.S. Philips Corporation | Priority-based virtual environment |
US6396509B1 (en) * | 1998-02-21 | 2002-05-28 | Koninklijke Philips Electronics N.V. | Attention-based interaction in a virtual environment |
US6429846B2 (en) * | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
DE20080209U1 (de) * | 1999-09-28 | 2001-08-09 | Immersion Corp | Steuerung von haptischen Empfindungen für Schnittstellenvorrichtungen mit Vibrotaktiler Rückkopplung |
US6839663B1 (en) * | 1999-09-30 | 2005-01-04 | Texas Tech University | Haptic rendering of volumetric soft-bodies objects |
US7196688B2 (en) * | 2000-05-24 | 2007-03-27 | Immersion Corporation | Haptic devices using electroactive polymers |
US6930590B2 (en) * | 2002-06-10 | 2005-08-16 | Ownway Biotronics, Inc. | Modular electrotactile system and method |
US7336266B2 (en) * | 2003-02-20 | 2008-02-26 | Immersion Corproation | Haptic pads for use with user-interface devices |
KR100542370B1 (ko) * | 2004-07-30 | 2006-01-11 | 한양대학교 산학협력단 | 보이지 않는 마커를 이용하는 비전기반 증강현실 시스템 |
WO2006081198A2 (en) * | 2005-01-25 | 2006-08-03 | The Board Of Trustees Of The University Of Illinois | Compact haptic and augmented virtual reality system |
US20070165019A1 (en) * | 2005-07-12 | 2007-07-19 | Hale Kelly S | Design Of systems For Improved Human Interaction |
CA2654261C (en) * | 2006-05-19 | 2017-05-16 | Mako Surgical Corp. | Method and apparatus for controlling a haptic device |
KR100787952B1 (ko) * | 2006-08-11 | 2007-12-24 | 광주과학기술원 | 지역 점유맵 인스턴스를 이용한 햅틱 렌더링 방법과 장치,및 이를 이용한 햅틱 시스템 |
US9823833B2 (en) * | 2007-06-05 | 2017-11-21 | Immersion Corporation | Method and apparatus for haptic enabled flexible touch sensitive surface |
US9881520B2 (en) * | 2008-01-08 | 2018-01-30 | Immersion Medical, Inc. | Virtual tool manipulation system |
KR100927009B1 (ko) * | 2008-02-04 | 2009-11-16 | 광주과학기술원 | 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템 |
-
2008
- 2008-02-04 KR KR1020080011300A patent/KR100927009B1/ko active IP Right Grant
-
2009
- 2009-02-03 US US12/365,016 patent/US8243099B2/en not_active Expired - Fee Related
- 2009-02-04 JP JP2009023350A patent/JP4977725B2/ja not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61169786A (ja) * | 1985-01-22 | 1986-07-31 | Mitsubishi Electric Corp | 追尾フィルタ |
JP2000501033A (ja) * | 1995-11-30 | 2000-02-02 | ヴァーチャル テクノロジーズ インコーポレイテッド | 触覚をフィードバックする人間/機械インターフェース |
JPH11272157A (ja) * | 1998-03-19 | 1999-10-08 | Dainippon Printing Co Ltd | 物体の把持動作シミュレーション装置 |
JP2003038851A (ja) * | 2001-07-27 | 2003-02-12 | Namco Ltd | ゲーム情報、情報記憶媒体、及びゲーム装置 |
JP2005535022A (ja) * | 2002-07-27 | 2005-11-17 | 株式会社ソニー・コンピュータエンタテインメント | 変形可能な装置を使用したマンマシンインターフェース |
JP2005303983A (ja) * | 2004-01-06 | 2005-10-27 | Sony Corp | 画像処理装置および方法、プログラム並びに記録媒体 |
JP2007071600A (ja) * | 2005-09-05 | 2007-03-22 | Nec Corp | 航跡生成システム、その誤差共分散行列初期値設定装置、航跡生成方法およびその誤差共分散行列初期値設定方法 |
JP2007163425A (ja) * | 2005-12-16 | 2007-06-28 | Toshiba Corp | レーダ情報処理装置、レーダ画面表示プログラム |
JP2007293412A (ja) * | 2006-04-21 | 2007-11-08 | Canon Inc | 情報処理方法および装置 |
WO2008072756A1 (ja) * | 2006-12-13 | 2008-06-19 | National Institute Of Advanced Industrial Science And Technology | 反力提示方法、および力覚提示システム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014119383A1 (ja) * | 2013-01-29 | 2014-08-07 | 日本電気株式会社 | 触力覚提示装置、触力覚提示システム、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体 |
JP2022058756A (ja) * | 2014-12-16 | 2022-04-12 | ソマティクス, インコーポレイテッド | ジェスチャベースの行動を監視し、それに影響を与える方法およびシステム |
JP7336549B2 (ja) | 2014-12-16 | 2023-08-31 | ソマティクス, インコーポレイテッド | ジェスチャベースの行動を監視し、それに影響を与える方法およびシステム |
JP2019503218A (ja) * | 2016-01-12 | 2019-02-07 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 制御状態同士の間の段階的な力フィードバック移行 |
US11357587B2 (en) | 2016-01-12 | 2022-06-14 | Intuitive Surgical Operations, Inc. | Staged force feedback transitioning between control states |
US11701194B2 (en) | 2016-01-12 | 2023-07-18 | Intuitive Surgical Operations, Inc. | Staged force feedback transitioning between control states |
KR101900859B1 (ko) * | 2017-07-20 | 2018-09-20 | (주)프리뉴 | 드론 게임 시스템 |
Also Published As
Publication number | Publication date |
---|---|
JP4977725B2 (ja) | 2012-07-18 |
KR20090085419A (ko) | 2009-08-07 |
US8243099B2 (en) | 2012-08-14 |
KR100927009B1 (ko) | 2009-11-16 |
US20090195538A1 (en) | 2009-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4977725B2 (ja) | 拡張現実におけるハプティックインタラクション方法およびそのシステム | |
KR101865655B1 (ko) | 증강현실 상호 작용 서비스 제공 장치 및 방법 | |
Qian et al. | Developing a gesture based remote human-robot interaction system using kinect | |
US20160364912A1 (en) | Augmented reality-based hand interaction apparatus and method using image information | |
US20170140552A1 (en) | Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same | |
EP2814000B1 (en) | Image processing apparatus, image processing method, and program | |
KR101410273B1 (ko) | 증강현실 응용을 위한 환경 모델링 방법 및 장치 | |
EP2893422A1 (en) | Absolute and relative positioning sensor fusion in an interactive display system | |
KR101441882B1 (ko) | 포인터를 사용하지 않는 가상 터치 장치에서의 디스플레이 표시면 둘레의 가상 평면을 사용하여 전자기기를 제어하는 방법 | |
Jia et al. | 3D image reconstruction and human body tracking using stereo vision and Kinect technology | |
EP2909701A1 (en) | Motion compensation in an interactive display system | |
CN108028904B (zh) | 移动设备上光场增强现实/虚拟现实的方法和系统 | |
JP2013037454A (ja) | 姿勢判定方法、プログラム、装置、システム | |
Bunnun et al. | OutlinAR: an assisted interactive model building system with reduced computational effort | |
TWI648556B (zh) | 同步定位與地圖建構及手勢辨識方法 | |
WO2023120770A1 (ko) | 3차원 공간에서 생성한 인지적 매쉬 정보와 가상 객체들간의 상호작용 방법 및 그 장치 | |
JP2016162425A (ja) | 骨格姿勢推定装置、方法、及びプログラム | |
Kim et al. | Method for user interface of large displays using arm pointing and finger counting gesture recognition | |
Halim et al. | Designing ray-pointing using real hand and touch-based in handheld augmented reality for object selection | |
Lee | Ryu | |
JP2013167938A (ja) | 情報入力装置 | |
Michael et al. | A new approach for tracking human body movements by kinect sensor | |
Chen et al. | Three-dimensional ego-motion estimation from motion fields observed with multiple cameras | |
Tran et al. | A hand gesture recognition library for a 3D viewer supported by kinect's depth sensor | |
XuXiao | Eliminating the latency using different Kalman filters: for a virtual reality based teleoperation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111108 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120208 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120321 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4977725 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |