JP2016100024A - 3次元相互作用のためのコンピュータ装置及び方法 - Google Patents

3次元相互作用のためのコンピュータ装置及び方法 Download PDF

Info

Publication number
JP2016100024A
JP2016100024A JP2015229079A JP2015229079A JP2016100024A JP 2016100024 A JP2016100024 A JP 2016100024A JP 2015229079 A JP2015229079 A JP 2015229079A JP 2015229079 A JP2015229079 A JP 2015229079A JP 2016100024 A JP2016100024 A JP 2016100024A
Authority
JP
Japan
Prior art keywords
coordinate value
pointing
user
identification element
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015229079A
Other languages
English (en)
Other versions
JP6777391B2 (ja
Inventor
東 ▲きょん▼ 南
Dong Kyung Nam
東 ▲きょん▼ 南
孝 錫 黄
Hyo Seok Huang
孝 錫 黄
珍 九 許
Jin Gu Heo
珍 九 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016100024A publication Critical patent/JP2016100024A/ja
Application granted granted Critical
Publication of JP6777391B2 publication Critical patent/JP6777391B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】3次元相互作用的なユーザー体験を提供するコンピュータ装置を提供する。【解決手段】装置は、立体映像のオブジェクトの第1ポイントがユーザに認識される位置である第1座標を算出するオブジェクト位置推定部110を含む。装置のポインティング判断部120は、ポインティング位置に対応する第2座標を前記第1座標と比較して前記第1ポイントにユーザのポインティングがなされているかを判断する。【選択図】図1

Description

デバイスとユーザとの間の3次元(3D)相互作用(3−dimensional interaction)の効果を提供する装置及び方法等が提供される。より詳細には、3Dディスプレイデバイスから出力される映像に対するユーザのポインティング入力及び操作を処理する装置及び方法等が提供される。
3次元相互作用的な技術の活用の一例としてユーザが立体映像のオブジェクトを選択して動かすなどのユーザー体験(UX:User Experience)を提供する技術がある。
本発明の目的は、3次元相互作用的なユーザー体験を提供するコンピュータ装置を提供することにある。
本発明の一実施形態によると、第1オブジェクトポイントが映像で表示される位置及びユーザの両目の位置を用いて、ユーザに前記第1オブジェクトポイントの位置として認識される第1座標値を算出するオブジェクト位置推定部と、ユーザのポインティング位置である第2座標値を前記第1座標値と比較して前記ポインティング位置が前記第1オブジェクトポイントに対応するか否かを判断するポインティング判断部(pointing determiner)を含むコンピュータ装置が提供される。前記映像は、左映像と右映像とを含む立体映像であってもよい。前記ポインティング判断部は、前記第2座標値と前記第1座標値との距離が閾値未満である場合、前記ポインティング位置が前記第1オブジェクトポイントであるものとして決定してもよい。
一実施形態によると、前記オブジェクト位置推定部は、前記左映像における前記第1オブジェクトポイントが表示される位置から前記両目のうち左目の位置への第1直線と、前記右映像における前記第1オブジェクトポイントが表示される位置から前記両目のうち右目の位置への第2直線との交点の座標を前記第1座標値として算出する。一方、前記交点が生じない場合に、前記オブジェクト位置推定部は前記第1直線に直交し、前記第2直線に直交する線分の中点座標を前記第1座標値として算出してもよい。
一実施形態に係るコンピュータ装置は、ユーザデバイスに関連する少なくとも1つの識別要素の位置を用いてポインティング位置である前記第2座標値を算出するポインティング位置推定部をさらに含む。前記少なくとも1つの識別要素は、複数のマーカに対応してもよい。それにより、前記ポインティング位置推定部は、映像認識された前記複数のマーカの方向及び前記複数のマーカ相互間の変位情報を利用して前記第2座標値を算出する。一実施形態に係る前記ポインティング位置推定部は、少なくとも1つの前フレームで入力された前記少なくとも1つの識別要素の位置を用いて、現フレームで入力される前記少なくとも1つの識別要素の位置を補正し、前記補正された前記少なくとも1つの識別要素の位置を用いて前記第2座標値を算出する。別の一実施形態によると、前記ポインティング位置推定部は、現フレームに先行する少なくとも1つの前フレームに対応して算出された第2座標値を利用して、現フレームで算出される第2座標値を補正する。そして、ポインティング位置推定部が前記補正された第2座標値を前記ポインティング位置として決定してもよい。
一実施形態に係るコンピュータ装置は、ユーザデバイスに関連にする少なくとも1つの識別要素が映像認識された第1形状を、予め与えられた前記識別要素の形状の第2形状と比較してポインティング位置の前記第2座標値を算出するポインティング位置推定部をさらに含んでもよい。この実施形態で、前記少なくとも1つの識別要素は、光源又は光源によって光を出す発光要素を含む。光源又は発光要素は、前記ユーザデバイスに備えられるスイッチのオン・オフの変更によって、ついたり又は消えてもよい。従って、このようなオン・オフの状態により識別要素は認識可能な状態であってもよく、又は認識不可能な状態であってもよい。
別の一実施形態に係るコンピュータ装置は、ユーザデバイスに関連する少なくとも1つの識別要素の位置を算出し、前記少なくとも1つの識別要素とポインティング位置の相対的変位とを用いて前記第2座標値を算出するポインティング位置推定部をさらに含む。相対的変位は、設定される値であってもよく、ユーザ操作によって変更されてもよい。例示的に、しかし、限定されないように、前記相対的変位を変更する前記ユーザ操作は、前記ユーザデバイスに備えられるホイール(wheel)の操作によって識別されてもよい。また、前記相対的変位を変更する前記ユーザ操作は、前記ユーザデバイスに備えられる圧力センサのセンシング値によって識別されてもよい。
別の一実施形態によると、ユーザの両目の位置を用いて、グローバル座標系における第1オブジェクトポイントの座標値をユーザ認識座標系(user recognition coordinate system)における座標値である第1座標値に変換する変換関数を決定するオブジェクト位置推定部と、ポインティング位置の第2座標値を前記第1座標値と比較して前記ポインティング位置が前記第1オブジェクトポイントに対応するか否かの可否を判断するポインティング判断部とを含むコンピュータ装置が提供される。前記ポインティング判断部は、前記第2座標値と前記第1座標値との距離が閾値未満である場合、前記ポインティング位置を前記第1オブジェクトポイントとして決定してもよい。
また別の一実施形態によると、ユーザの両目の位置を用いて、グローバル座標系における第1オブジェクトポイントの座標値をユーザ認識座標系における座標値である第1座標値に変換する変換関数を決定するオブジェクト位置推定部と、ポインティング位置の第2座標値に前記変換関数の逆関数を適用してグローバル座標系の第3座標値を決定し、前記第3座標値を前記第1座標値と比較して前記ポインティング位置が前記第1オブジェクトポイントに対応するか否かの可否を判断するポインティング判断部とを含むコンピュータ装置が提供される。
また別の一実施形態によると、少なくとも1つのプロセッサを含むコンピュータ装置が3次元相互作用的なユーザー体験を提供するコンピュータ方法が提供される。前記方法は、第1オブジェクトポイントが映像で表示される位置及びユーザの両目の位置を用いて、ユーザに前記第1オブジェクトポイントの位置として認識される第1座標値を算出するステップと、ユーザのポインティング位置である第2座標値を算出するステップと、前記第1座標値と前記第2座標値とを比較して前記ポインティング位置が前記第1オブジェクトポイントに対応するか否かの可否を判断するステップとを含む。一実施形態によると、前記ユーザの両目の位置及び前記ユーザのポインティング位置は、1つのカメラの映像から算出されてもよい。一方、前記第2座標値を算出するステップは、ユーザデバイスに関連する少なくとも1つの識別要素の位置を用いてポインティング位置の前記第2座標値を算出してもよい。この場合、前記第2座標値を算出するステップは、少なくとも1つの前フレームで入力された前記少なくとも1つの識別要素の位置を用いて、現フレームで入力される前記少なくとも1つの識別要素の位置を補正し、前記補正された前記少なくとも1つの識別要素の位置を用いて前記第2座標値を算出してもよい。
3次元相互作用的なユーザー体験を提供するコンピュータ装置を提供することができる。
一実施形態に係るコンピュータ装置を示すブロック図である。 一実施形態に係るユーザー体験を提供する装置の応用を説明するための図である。 一実施形態によりオブジェクトの位置を推定する方法を説明するための図である。 オブジェクトの位置を推定する過程を説明するための図である。 オブジェクトの位置を推定する過程を説明するための図である。 一実施形態に係るコンピュータ装置を示すブロック図である。 ポインティング位置を推定する過程を説明するための図である。 一実施形態に係るポインティングデバイスの構造と動作を示す。 一実施形態に係るポインティングデバイスの構造と動作を示す。 一実施形態に係るポインティングデバイスの構造と動作を示す。 一実施形態に係るポインティングデバイスの構造と動作を示す。 ポインティング位置を算出する過程を説明するための図である。 ポインティング位置を算出する過程を説明するための図である。 別の一実施形態に係るポインタデバイス構造と動作を示す。 別の一実施形態に係るポインタデバイス構造と動作を示す。 ポインティング位置を算出する過程を説明するための図である。 ポインティング位置を算出する過程を説明するための図である。 別の一実施形態に係るポインタデバイス構造及び応用を示す。 別の一実施形態に係るポインタデバイス構造及び応用を示す。 一実施形態に係るコンピュータ方法を示すフローチャートである。
以下、実施形態に添付の図面を参照しながら詳細に説明する。しかし、このような実施形態によって権利範囲が制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。
以下、説明で用いられる用語は、関連する技術分野において、一般的、且つ普遍的であるものとして選択されたが、技術の発達及び/又は変化、慣例、技術者の選好などにより他の用語があってもよい。従って、以下、説明で用いられる用語は技術的思想を限定するものと理解されなければならず、実施形態を説明するための例示的用語として理解されなければならない。
また、特定の場合は出願人が任意に選定した用語もあり、この場合、該当する説明の部分で詳細なその意味を記載する。従って、以下、説明で用いられる用語は、単純な用語の名称ではないその用語が有する意味と明細書全般にわたった内容を基に理解されなければならない。
図1は、一実施形態に係るコンピュータ装置を示すブロック図である。
装置100はオブジェクト位置推定部110を含む。オブジェクト位置推定部110は、オブジェクトポイントが映像で表示される位置及びユーザの両目の位置を用いて、ユーザに自覚されるオブジェクトの位置を算出する。例示的に、前記映像は、立体映像であってもよい。オブジェクトポイントが映像で表示される位置は、特定ポイントが立体映像の左映像と右映像とにおいてそれぞれ表示される位置に対応する。そして、ユーザの両目の位置は、カメラによって人の目を撮影した映像から算出され得る。一実施形態における装置100は、ユーザの両目の位置を推定する推定部(図示せず)をさらに含んでもよい。オブジェクト位置推定に関しては、図3〜図4Bを参照してより詳細に後述する。
そして、ポインティング判断部120は、ユーザのポインティング位置を前記オブジェクトの位置と比較して、どこがポインティングされているのか算出する。例示的に、空間座標値を考慮して、オブジェクトポイントのうち第1ポイントとポインティング位置の第2ポイントとが閾値未満の距離にある時、前記第1ポイントがポインティングされているものとして決定することができる。一実施形態によると、ユーザのポインティング位置は別途に算出されて装置100に与えられる値であってもよい。そして、ユーザのポインティング位置はユーザが握ったり、手に着用する(wearable)ポインタデバイスを映像認識することによって推定してもよい。これについては、図5A〜図9Bを参照して詳細に後述する。
一方、立体映像で提供されるオブジェクト座標がユーザの視点でどのように自覚(認識)されるかを判断することは、座標移動又は座標変換として理解されてもよい。固定された座標をグローバル座標としてもよい。例えば、表示画面の中心を原点として中心における法線方向をz軸とする固定された座標を考えてみることができる。ある一瞬の立体映像におけるオブジェクトの位置は、このグローバル座標において一定の座標値を有する。ところが、ユーザの視聴位置によりユーザが認識するオブジェクトの座標値は変わることができる。これをユーザ認識座標系として表してもよい。それにより、オブジェクト位置推定部110の役割は、グローバル座標系におけるオブジェクトポイントの座標値をユーザ認識座標系における座標値に座標変換することと理解することができる。そして、ポインティング判断部120は、ユーザ認識座標系に座標変換されたオブジェクトポイントを、ポインティング位置の座標と比較してポインティング位置を判断するものと理解することができる。
また、オブジェクト位置推定部110が前記座標変換に対応する変換関数を決定するものと見ると、ポインティング判断部120は、ユーザ認識座標におけるポインティング位置に前記変換関数の逆関数を適用してグローバル座標系におけるポインティング位置を探すことができる。そして、グローバル座標系内におけるオブジェクトポイントとポインティング位置とを比較することによってポインティングの可否を判断することができる。以下では具体的な実施形態を説明する。
図2は、一実施形態に係るユーザー体験を提供する装置の応用を説明するための図である。
ディスプレイ200によって立体映像が提供されてもよく、立体映像を提供する方式は多様なものであってもよい。例えば、立体式(stereoscopic type)、多視点式(multi−view type)などの様々な方式が可能である。また、立体映像を提供する方式は、メガネ式又は裸眼式のうちいずれも可能である。このようなディスプレイ200によって提供される3D映像にオブジェクト210が含まれている。
実施形態によると、ユーザ220は、ポインティングデバイス230を用いてオブジェクト210の特定ポイント211をポインティングすることができる。このようなポインティング入力の認識は、オブジェクト210を選択し、動かしたり回したり、オブジェクト210に図を描写するなどの応用に用いられてもよい。例えば、医療分野における応用において、心臓の特定血管を指定したり、マーキングをしておいたり、遠隔にある(remote)手術装備で心臓を切開するなどのインターフェース接続が可能である。このような応用が活性化され、様々な分野に適用されるためには、ユーザ220がポインティングする場所がどこであるかを正確かつ精巧に認識することが重要である。
ところが、同一の入力3D映像と視差情報とによって立体映像が提供されても、ユーザ220が自覚するオブジェクト210の位置は変わる。例えば、提供される映像が変わらなくてもユーザの目の位置221が上下左右に変わることによってユーザ220にはオブジェクト210の位置も変わるように認知される。ユーザは、自身が認知するオブジェクト210の位置に基づいて、特定のポイント211をポインティングしようとするが、この部分が実際のオブジェクト210のどの部分であるかを把握することが必要である。一実施形態によると、1つのカメラ201によって識別されるユーザの両目の位置とポインタ230の位置とに基づいて、ユーザがオブジェクト210のどの部分をポインティングするかを判断する。具体的な内容は図3以下を参照して説明する。
図3は、一実施形態によりオブジェクトの位置を推定する方法を説明するための図である。
ここに示された例は、図2の立体映像に対応し、表示された座標軸は表示画面の中心を原点とする3次元座標系に関連する。位置300のカメラからユーザの両目の位置ベクトルが認識されてもよい。ベクトルeは左目321の位置ベクトルであり、ベクトルeは右目322の位置ベクトルである。ポイント311は、左映像に位置301で示され、右映像に位置302で示される点である。iは位置301の位置ベクトルであり、iは位置302の位置ベクトルである。ベクトルiのポイント301が左目に見え、ベクトルiにポイント302が右目に見えることによって、ユーザは空間上の位置311にオブジェクトがあるものと自覚する。oは、このポイント311の位置ベクトルである。ポイント311は、オブジェクト310の一部であってもよい。そして、pは、ユーザがポインティングデバイス330を用いて入力するポインティング位置331の位置ベクトルである。
実施形態によると、このポイント311の位置ベクトルoとポインティング位置331の位置ベクトルpとを推定する。また、推定されたベクトルoとベクトルpの相対的位置の差に基づいてユーザがポインティングする位置を決定する。一台のカメラが撮影し、撮影した映像から目の位置を識別して左目の位置ベクトルeと右目の位置ベクトルeが推定されてもよい。それにより、映像内に左目と右目の2次元座標が導き出される。人間の平均的な両目間の距離(Inter Pupil Distance:IPD)は、(性別や年齢及び人種により偏差があるが)概略6cm程度である。このIPD値が上記において導き出された左目及び右目の位置によって3次元位置ベクトルeとeとを決定するのに用いられてもよい。位置ベクトルeとeが求められれば、オブジェクトポイント311の位置ベクトルoを求めることができる。図4A及び4Bを参照してより詳細に説明する。
図4A及び4Bは、オブジェクトの位置を推定する過程を説明するための図である。
両目の位置411,412と映像にポイントの位置401,402が全て同一の平面上にある場合が図4Aに示される。このようにポイントと両目とが全て同一の平面にある場合には、ポイント401からポイント411への第1直線と、ポイント402からポイント412への第2直線は、一点で交差する。この点400が人によって認識されるオブジェクトポイントである。左目の位置411ベクトルeからポイント401の位置ベクトルiを引いて求めるベクトルLと、右目の位置412ベクトルeからポイント402の位置ベクトルiを引いて求めるベクトルRとを用いてオブジェクトポイントの位置ベクトルoを求めることは、以下の式(1)及び式(2)で提示された方程式を解くことで理解することができる。

しかし、上記のようにポイントと両目とが全て同一の平面にある場合は珍しく、図4Bのように、一般的には両目の位置431,432と映像におけるポイントの位置421,422が同一の平面にない。それにより、拡大図405に見えるように、ポイント421からポイント431への第1直線と、ポイント422からポイント432への第2直線とは、捻れた位置になる。このような場合には、第1直線と第2直線とに最も近い点406を求めて、この点406をオブジェクトポイントとして推定する。例えば、第1直線にも直交して、第2直線にも直交する線分の中点がオブジェクトポイントとなる。このような過程によってオブジェクトポイントの位置ベクトルoは、以下の式(3)〜式(5)の方程式を解くことによって求めることができる。
このような過程によって、映像内のすべての点に対するオブジェクトポイントの位置ベクトルを求めれば、ユーザが認識する立体映像の正確な位置が分かる。これは、左映像と右映像によって決定されるオブジェクトの位置を、現在のユーザの両目の位置から認識される位置へ座標移動することと理解してもよい。このようにオブジェクトポイントの位置ベクトルoが推定されれば、ポインティング位置pと比較することによって、ユーザがオブジェクトポイントをポインティングするか否かの可否を判断することができる。例示的に、ポインティング位置の位置ベクトルpを求める過程を図5A以下を参照して説明する。
図5Aは、一実施形態に係るコンピュータ装置を示すブロック図である。
装置101は、オブジェクト位置推定部111及びポインティング判断部121の他に、ポインティング位置推定部131を含む。オブジェクト位置推定部111の動作や実施形態に関しては図1、図3〜図4Bを参照して上述したものと同一である。そして、ポインティング判断部121は、ユーザのポインティング位置を前記オブジェクトの位置と比較して、どこがポインティングされているかを算出する。ユーザがポインティングする場所がオブジェクトの中のどこであるかを正確に判断するものがポインティング判断部121である。例示的に、ポインティング判断部121は、認識されたポインティング位置と閾値との距離内にあるオブジェクトポイントを現在のポインティング位置として決定してもよい。ポインティング判断部121の動作は図1を参照して上述した。
本実施形態における装置101は、ポインティング位置推定部131を含む。ポインティング位置推定部131は、映像認識されるポインティングデバイスの識別要素を用いて、ユーザが現在ポインティングをしている位置を算出する。以下、ポインティングデバイスの多様な形態及びポインティング位置推定部131がポインティング位置を算出する内容を詳細に説明する。図5B以下を参照する。
図5Bは、ポインティング位置を推定する過程を説明するための図である。
上述したように、カメラの位置500からポインティングデバイス510を撮影すると、ポインティング位置511の位置ベクトルpがポインティング位置推定部131によって算出される。カメラがポインティングデバイス510を撮影すると、カメラの位置500からポインティング位置511に向かった方向ベクトルuが分かる。実施形態によると、方向ベクトルuを用いてポインティング位置511を算出し、カメラの位置ベクトルsを用いてポインティング位置ベクトルpを求める。カメラを2つ以上使えばポインタの三次元位置をすぐに把握することができるが、実現費用が高くなり、カメラ間の精巧なキャリブレーション問題(calibration issue)が生じ得る。以下では与えられたパラメータの位置ベクトルs、方向ベクトルuを用いてポインティング位置ベクトルpを求めるいくつかの実施形態が提示される。
図6A〜6Dは、一実施形態に係るポインティングデバイスの構造と動作を示す。
実施形態に係るデバイス600の側面図が図6Aに示された。このデバイス600は、ペンと類似した形である。マーカ611,612,613が取り付けられたリングが前端部に設置され、その先にはポインティングのためのニードル614が配置されている。このニードルの先端部分(tip)であるポインタ615がポインティング位置と認識されてもよい。マーカ及びニードルチップの位置のポインタは、発光ダイオード(LED)のような素子で実現されてもよい。又は、マーカやポインタが蛍光塗料を用いて識別されてもよい。マーカは互いに同一の距離dを保持するように構成されている。そして、マーカの中心にあるニードルはマーカを通過する平面に直交する方向に取り付けて、hの長さの先にポインタが位置する。
図6Bは、前端部からポインティングデバイス600を見た前面図であり、図6Cは、反対側からポインティングデバイスを見た背面図である。図6Bに示したように、マーカ611,612,613は互いに一定の間隔を有するようにリング630上に配置され、ポインタ位置615はこのマーカの位置からの変位によって算出されてもよい。算出過程は図7A及び7Bを参照してより詳細に後述する。
再度、図6Aを参照する。例示的に、ペンホルダ(pen holder)620の部分に1つ以上のボタン621が取り付けられてもよい。このボタン621は、クリックを検出する機械的なスイッチによって実現されてもよく、及び/又はタッチ感応入力モジュール(touch−sensitive input module)によって実現されてもよい。このボタン621によってユーザは3D空間上にあるオブジェクトを選択したり、マーキングしたり、動かしたり、回転させたり、又は、医療分野における切開などのインタラクション作業を行うことができる。一実施形態によると、デバイス600にはホイール形態のボタン622が含まれてもよい。このボタン622はマウスのように、画面の拡大や縮小、コンテンツスクロールなどのインタラクションを可能にする機能が割り当てられてもよい。
しかし、別の実施形態におけるボタン622は、ユーザがポインタ615の位置を調整できるように機能を割り当てることができる。このような位置調整は、h値をボタン622によって調整することと理解してもよいが、調整は、実際のニードル614の長さやポインタ615の位置と関係なく、マーカに対するポインティング位置の相対的変移を調整するソフトウェア的処理によって実現することができる。勿論、ボタン622で外部に突出したニードル614の物理的な長さを調整することも排除することはできない。このようにして、ユーザは応用や自身の好みに合うようにポインティングの位置と手の距離とを調整することができる。さらに、ボタン622も圧力を検出する圧力センサによって実現してもよい。ユーザが強く押すと、ポインティング位置がユーザから遠ざかるようなインタラクションを可能にしてもよい。図6Dでは、ユーザがオブジェクト605の位置606をポインティングする様子が示されている。
図7A及び7Bは、図6Aのポインティングデバイスに関する実施形態におけるポインティング位置を算出する過程を説明するための図である。
図7Aのカメラの位置700の位置ベクトルをs、位置700から第1マーカの位置710への方向ベクトルをu、第2マーカの位置720への方向ベクトルをu、第3マーカの位置730への方向ベクトルをuで表すと、各マーカの位置ベクトルp、p、及びpは、下の式のように表される。r、s、及びtは、カメラの位置700とマーカとの間の距離である。
それにより、r、s、及びtは、以下の式(7)の連立方程式を解いて求めることができる。
このようにマーカの位置ベクトルp、p、及びpが求められれば、ポインティング位置の位置ベクトルpが求められる。図7Bに示したように、ポインタ位置701は、マーカの位置の中心点702から、ノーマル(normal)方向にh程離れている。vは、マーカの位置が成し遂げる平面のノーマルベクトルである。そして、以下の式を参照すると、マーカの位置ベクトルp、p、及びpからポインティング位置のベクトルpを求めることができる。
上述した実施形態の他にポインティングデバイスは、異なる多様な形であってもよい。例えば、マーカの個数も3個ではなく、4個以上であってもよく、又は、1個や2個であってもよい。さらに、マーカレス(marker−less)画像認識ベースによってポインティングがなされてもよい。1個のマーカを備える例示的な別の実施形態が下記に提示される。
図8A及び8Bは、別の一実施形態に係るポインタデバイス構造と動作を示す。
図8Aに示されたポインティングデバイスもペンや手術用ナイフと類似の形態をしている。ペン後方の円形構造物810内に識別要素811が円形に配置されている。さらに配置され得る識別要素812は、円形の識別要素811と同一の平面に存在してもよい。ペンの前部にはニードル813が配置されている。本実施形態におけるボタン830は、ポインタのオン/オフを操作することができるように機能が付与される。ボタン830を押した状態がポインティングデバイスがオンになったものに、ボタン830を押さなかった状態がオフになったものに、それぞれ対応することができる。ボタン830を押してデバイスを活性化させることは、電波を用いて伝えてもよい。しかし、図示された実施形態においては、デバイスがオンになった場合、円形の識別要素811の部分にLED光が発光されることで、カメラによって認識され得る。ボタンによってデバイスがオフにされた場合、後の部分820に配置された識別要素821及び識別要素822の光が消えてもよい。図8Bにおいては、このような実施形態に係るユーザのポインティングデバイス850の操作が示されている。ポインティング位置830は、予め指定された識別要素からの相対的変位によって認識されてもよく、ユーザの操作によってオブジェクトの位置840がポインティングされたことを検出してもよい。このような実施形態に係るポインティング位置の算出については、図9A及び9Bを参照して後述する。
図9A及び図9Bは、前記図8Aのポインティングデバイスの実施形態によりポインティング位置を算出する過程を説明するための図である。識別要素の形(この例においては、一定の大きさを有する円及び/又は円と同一の平面にある直線)が用いられる。図9Aで示されたものを参照すると、大きさが分かっている円を用いて、円の中心の位置と法線ベクトルNが求められる。
まず、図9Aにおいて、大きさが分かっている空間上の円であるマーカが撮影されると、撮影された映像におけるマーカは、円又は楕円に投影される。ここで、空間上の円形のマーカを構成する点などの集合をPと定義し、その点などをカメラの中心に投影する時、映像の平面上に投影された点の逆に投射した集合を以下の式のようにPと定義する。
ここで、x、yは映像の平面に投影されたマーカの点の位置であり、fはカメラの焦点距離である。kはスケールパラメータである。Pは円として定義されており、Pは円又は楕円の形になるため、この2点の集合は一般的には2次曲線の方程式を満たし、ここで、それぞれの点の集合に対する楕円の行列をそれぞれQとQとする。
一方、空間上の円と投影された円又は楕円は、投影空間上において、同一の点を原点として有するため、PとPは回転の関係を有し、このときの回転行列をRとする。従って、式(11)におけるP値にRを代入すると、QとQの関係を下記の式(12)のように求めることができる。
上記の式(13)におけるV∧Vは、Qに固有値分解を適用した式である。Vは固有ベクトルの行列である。λ、λ、λはQの固有値であり、∧は固有値の対角行列である。この式を式(12)に適用すると、最終的な回転行列Rは、下記の式(14)のように示すことができる。
すると、中心点の位置ベクトルCと法線ベクトルNは下記のように求めることができる。CとNはそれぞれ2つの解決策であるため、曖昧さを避けるために同心円を用いて共通する解決策を求める。
そして、図9Bにおいては、ポインティングデバイスの姿勢を求めるために円のような平面上にある直線を用いて、回転値を求める方式が提示されている。示された例においては、円の中心に向かって円と同一の平面にある直線を用いて、正確な回転値が求められる。円にある光は下記のように算出される。
ここで、座標[x、y、1]は、直線上の点の映像座標[x、y、1]にカメラの内部パラメータの逆行列を掛けてカメラ座標に変換した後、z軸の値を1に正規化した座標であり、wはこの座標のスケールパラメータである。図9Bにおける映像の平面上の直線は、wの値によって多様な空間上の座標値を有してもよく、このうち、実際のマーカが存在する平面Π上に直線が存在するようにするwを探す。逆に投射された点がΠ上に存在するか判断するためには、Πのノーマルベクトルnと平面上の点cとw[x、y、1]を連結した直線の内積を求める。内積値が0である場合、nと(c−w[x、y、1])は垂直な関係にあり、よってw[x、y、1]は平面Π上にある。
式(19)におけるn1、n2、n3は、それぞれ平面Πのノーマルベクトルnのx、y、z軸に対する値であり、c1、c2、c3は平面Π上の点cのx、y、z軸に対する値である。
前記式を参照すると、円と同一の平面Πにある直線が映像に投影された時、映像の直線上にある点(x、y)が逆に投射される。逆に投射された光と平面Πが出会う点を円の中心のj軸として設定する。法線ベクトルNの方向はk軸として設定し、j軸とk軸の外積によってi軸が決定される。このように3つの軸を列ベクトル(column vector)として有する3×3行列がカメラ座標のモデル(円形の識別要素)の回転行列になる。そして、カメラ座標のモデルの距離と姿勢値を用いて、ポインティングチップの最終的な位置と姿勢が推定されてもよい。
図10A及び10Bは、別の一実施形態に係るポインティングデバイス構造及び応用を示す。図10Aの実施形態では、ポインタデバイス1010が人の指1000に嵌めることができる形態で実現された。ニードルチップに備わっているポインタ1011によってユーザは空間上のポインティング位置を調整することができる。このような実施形態におけるデバイス1010は、複数のマーカを含んでもよい。図10Bにおいては、ユーザの指にこのようなデバイスが複数個用いられる応用が提示されている。デバイス1021,1022,1023,1024はそれぞれ互いに区分される識別要素を有し、従ってポインティング位置はそれぞれ独立的な4個の位置に決定される。このような応用によると、オブジェクトを握ったり、形を変えたり、又は動かしたりなどのインタラクションがより直観的に提供され得る。
図11は、一実施形態に係るコンピュータ方法を示すフローチャートである。
ステップS1110において、ユーザの両目の位置ベクトルeとeが入力される。そして、ポインティング位置を推定した結果であるベクトルpが入力される。一実施形態によると、このようなポインティング位置のベクトルpは入力されてもよく、直接算出されてもよい。算出される過程に関しては図5B〜図9Bを参照して上述した。
それによりステップS1120で、オブジェクトの位置oが推定される。オブジェクト位置推定部は、オブジェクトポイントが映像で表示される位置及びユーザの両目の位置を用いて、ユーザに自覚されるオブジェクトの位置を算出する。オブジェクト位置推定に関しては、図3〜図4Bを参照して説明した。図1で上述したように、このようなオブジェクトの位置を推定する過程は、座標移動又は座標変換として理解することができる。固定されたグローバル座標におけるオブジェクトポイントをユーザの両目の位置によって変わるユーザ認識座標系で座標変換する。そして、またこのようなオブジェクト位置推定は、前記座標変換に関連する変換関数を探す過程として理解することができる。
ステップS1130ではポインティング判断部がユーザ認識座標系で座標変換されたオブジェクトポイントを、ポインティング位置の座標と比較してポインティング位置を判断する。また、図1を参照して説明したように、この過程はポインティング判断部がユーザ認識座標におけるポインティング位置に前記変換関数の逆関数を適用してグローバル座標系におけるポインティング位置を探し、座標値の差によりポインティングの有無を決定するものと理解することができる。ここで、関連の多様な実施形態は図1〜図9Bを参照して上述された。
以上で説明された装置は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組合で実現してもよい。例えば、実施形態で説明された装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は、命令(instruction)を実行して応答できる様々な任意の装置として、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて実現されてもよい。処理装置はオペレーティングシステム(OS)及び前記オペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを行ってもよい。また、処理装置は、ソフトウェアの実行に応答して、データをアクセス、格納、操作、処理及び生成してもよい。理解の便宜のために、処理装置は1つが使用されるものと説明される場合もあるが、当該の技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアはコンピュータプログラム、コード、命令、又は、これらのうちの1つ以上の組合を含んでもよく、希望の通りに動作するように処理装置を構成したり独立的又は結合的に処理装置を命令してもよい。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いかなる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化できる。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方法で格納されたり実行されてもよい。ソフトウェア及びデータは1つ以上のコンピュータ読取可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段を介して行われることができるプログラム命令形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。前記コンピュータ読取可能な記録媒体はプログラム命令、データファイル、データ構造などを単独で又は組合せて含んでもよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなくインタープリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記ハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同様である。
上述のように、限定された図面によって実施形態が説明されたが、当該技術分野で通常の知識を有する者であれば、前記の記載から多様な修正及び変形が可能である。例えば、説明された技術が説明された方法と異なる順序で行われたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合せたり、他の構成要素又は均等物によって代替、置換されても適切な結果が達成される。
従って、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だければはく特許請求の範囲と均等なものなどによって定められるものである。

Claims (22)

  1. 第1オブジェクトポイントが映像で表示される位置及びユーザの両目の位置を用いて、ユーザに前記第1オブジェクトポイントの位置として認識される第1座標値を算出するオブジェクト位置推定部と、
    ユーザのポインティング位置である第2座標値を前記第1座標値と比較して前記ポインティング位置が前記第1オブジェクトポイントに対応するか否かを判断するポインティング判断部と、
    を含むコンピュータ装置。
  2. 前記映像は、左映像と右映像とを含む立体映像であり、
    前記オブジェクト位置推定部は、前記左映像における前記第1オブジェクトポイントが表示される位置から左目の位置への第1直線と、前記右映像における前記第1オブジェクトポイントが表示される位置から右目の位置への第2直線との交点の座標を前記第1座標値として算出する、請求項1に記載のコンピュータ装置。
  3. 前記交点が生じない場合、前記オブジェクト位置推定部は、前記第1直線に直交し、前記第2直線に直交する線分の中点座標を前記第1座標値として算出する、請求項2に記載のコンピュータ装置。
  4. ユーザデバイスに関連する少なくとも1つの識別要素の位置を用いてポインティング位置である前記第2座標値を算出するポインティング位置推定部をさらに含む請求項1〜3のうちの何れか一項に記載のコンピュータ装置。
  5. 前記少なくとも1つの識別要素は、複数のマーカに対応し、前記ポインティング位置推定部は、映像認識された前記複数のマーカの方向及び前記複数のマーカ相互間の変位情報を利用して前記第2座標値を算出する、請求項4に記載のコンピュータ装置。
  6. 前記ポインティング位置推定部は、少なくとも1つの前フレームにおいて入力された前記少なくとも1つの識別要素の位置を用いて、現フレームにおいて入力される前記少なくとも1つの識別要素の位置を補正し、前記補正された前記少なくとも1つの識別要素の位置を用いて前記第2座標値を算出する、請求項4に記載のコンピュータ装置。
  7. 前記ポインティング位置推定部は、現フレームに先行する少なくとも1つの前フレームに対応して算出された第2座標値を利用して、現フレームで算出される第2座標値を補正し、前記補正された第2座標値を前記ポインティング位置として決定する、請求項4に記載のコンピュータ装置。
  8. ユーザデバイスに関連する少なくとも1つの識別要素が映像認識された第1形状を、予め与えられた前記識別要素の形状である第2形状と比較してポインティング位置である前記第2座標値を算出するポインティング位置推定部をさらに含む、請求項1〜7のうちの何れか一項に記載のコンピュータ装置。
  9. 前記少なくとも1つの識別要素は、前記ユーザデバイスに備えられるスイッチのオン・オフの変更により認識可能な状態と認識不可能な状態のうちのいずれか一種類に変更可能な光源を含む、請求項8に記載のコンピュータ装置。
  10. ユーザデバイスに関連する少なくとも1つの識別要素の位置を算出し、前記少なくとも1つの識別要素とポインティング位置との相対的変位を利用して前記第2座標値を算出するポインティング位置推定部をさらに含む、請求項1〜9のうちの何れか一項に記載のコンピュータ装置。
  11. 前記相対的変位はユーザ操作によって変更可能な、請求項10に記載のコンピュータ装置。
  12. 前記相対的変位を変更するユーザ操作は、前記ユーザデバイスに含まれるホイール操作によって識別される、請求項10に記載のコンピュータ装置。
  13. 前記相対的変位を変更するユーザ操作は、前記ユーザデバイスに備えられる圧力センサのセンシング値によって識別される、請求項10に記載のコンピュータ装置。
  14. 前記ポインティング判断部は、前記第2座標値と前記第1座標値との距離が閾値未満である場合、前記ポインティング位置を前記第1オブジェクトポイントとして決定する、請求項1〜13のうちの何れか一項に記載のコンピュータ装置。
  15. ユーザの両目の位置を用いて、グローバル座標系における第1オブジェクトポイントの座標値をユーザ認識座標系における座標値である第1座標値に変換する変換関数を決定するオブジェクト位置推定部と、
    ポインティング位置である第2座標値を前記第1座標値と比較して前記ポインティング位置が前記第1オブジェクトポイントに対応するか否かの可否を判断するポインティング判断部と、
    を含む、コンピュータ装置。
  16. 前記ポインティング判断部は、前記第2座標値と前記第1座標値との距離が閾値未満である場合、前記ポインティング位置を前記第1オブジェクトポイントとして決定する、請求項15に記載のコンピュータ装置。
  17. ユーザの両目の位置を用いて、グローバル座標系における第1オブジェクトポイントの座標値をユーザ認識座標系における座標値である第1座標値に変換する変換関数を決定するオブジェクト位置推定部と、
    ポインティング位置である第2座標値に前記変換関数の逆関数を適用してグローバル座標系における第3座標値を決定し、前記第3座標値を前記第1座標値と比較して前記ポインティング位置が前記第1オブジェクトポイントに対応するか否かの可否を判断するポインティング判断部と、
    を含むコンピュータ装置。
  18. 少なくとも1つのプロセッサを含むコンピュータ装置が3次元相互作用的なユーザー体験を提供する方法において、前記方法は、
    第1オブジェクトポイントが映像で表示される位置及びユーザの両目の位置を用いて、ユーザに前記第1オブジェクトポイントの位置として認識される第1座標値を算出するステップと、
    ユーザのポインティング位置である第2座標値を算出するステップと、
    前記第1座標値と前記第2座標値とを比較して前記ポインティング位置が前記第1オブジェクトポイントに対応するか否かの可否を判断するステップと、
    を含む方法。
  19. 前記ユーザの両目の位置及び前記ユーザのポインティング位置は、1つのカメラの映像から算出される、請求項18に記載の方法。
  20. 前記第2座標値を算出するステップは、ユーザデバイスに関連する少なくとも1つの識別要素の位置を用いてポインティング位置である前記第2座標値を算出する、請求項18に記載の方法。
  21. 前記第2座標値を算出するステップは、少なくとも1つの前フレームで入力された前記少なくとも1つの識別要素の位置を用いて、現フレームで入力される前記少なくとも1つの識別要素の位置を補正し、前記補正された前記少なくとも1つの識別要素の位置を用いて前記第2座標値を算出する、請求項20に記載の方法。
  22. 請求項18〜21のうち何れか一項に記載の方法を前記コンピュータ装置に実行させるコンピュータプログラム。
JP2015229079A 2014-11-25 2015-11-24 3次元相互作用のためのコンピュータ装置及び方法 Active JP6777391B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140165315A KR102310994B1 (ko) 2014-11-25 2014-11-25 3차원 상호작용 컴퓨팅 장치 및 방법
KR10-2014-0165315 2014-11-25

Publications (2)

Publication Number Publication Date
JP2016100024A true JP2016100024A (ja) 2016-05-30
JP6777391B2 JP6777391B2 (ja) 2020-10-28

Family

ID=54780082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015229079A Active JP6777391B2 (ja) 2014-11-25 2015-11-24 3次元相互作用のためのコンピュータ装置及び方法

Country Status (5)

Country Link
US (1) US9870119B2 (ja)
EP (1) EP3026529B1 (ja)
JP (1) JP6777391B2 (ja)
KR (1) KR102310994B1 (ja)
CN (1) CN105630155B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022085395A1 (ja) * 2020-10-23 2022-04-28 株式会社ワコム コンピュータ、方法、及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180060559A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 동공 거리 결정 방법 및 장치
JP2018198685A (ja) * 2017-05-26 2018-12-20 ソニー株式会社 制御装置、制御方法、および手術システム
EP4235381A3 (en) 2019-03-18 2023-11-01 Apple Inc. Virtual paper
US11334174B2 (en) 2019-07-18 2022-05-17 Eyal Shlomot Universal pointing and interacting device

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136706A (ja) * 1997-09-01 1999-05-21 Mr System Kenkyusho:Kk 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
JP2002196874A (ja) * 2000-12-27 2002-07-12 Ntt Docomo Inc 手書きデータ入力装置及び方法並びに個人認証装置及び方法
JP2003312187A (ja) * 2002-04-19 2003-11-06 Longreen Marketing Ltd 歯車の回転によって伸縮可能な筆記用具
JP2009258884A (ja) * 2008-04-15 2009-11-05 Toyota Central R&D Labs Inc ユーザインタフェイス
JP2010157146A (ja) * 2008-12-29 2010-07-15 Fuji Xerox Co Ltd 描画システム
JP2011145744A (ja) * 2010-01-12 2011-07-28 Nintendo Co Ltd 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
JP2011180690A (ja) * 2010-02-26 2011-09-15 Brother Industries Ltd 表示制御装置、表示制御方法、および表示制御プログラム
JP2013168120A (ja) * 2012-01-19 2013-08-29 Panasonic Corp 立体画像処理装置、立体画像処理方法、及びプログラム
CN103294225A (zh) * 2013-06-09 2013-09-11 深圳超多维光电子有限公司 立体显示设备、指点设备、立体显示系统及其操作方法
US20130243258A1 (en) * 2007-05-23 2013-09-19 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
WO2013176265A1 (ja) * 2012-05-25 2013-11-28 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209487A (ja) * 2000-01-25 2001-08-03 Uw:Kk 筆跡通信システムおよび該システムで使用される筆跡入力装置及び筆跡表示装置
US20060036947A1 (en) 2004-08-10 2006-02-16 Jelley Kevin W User interface controller method and apparatus for a handheld electronic device
WO2008059614A1 (fr) 2006-11-15 2008-05-22 Kabushiki Kaisha Sega Doing Business As Sega Corporation Programme pour commander le mouvement d'un objet affiché exécuté dans un dispositif de jeu à l'aide d'un dispositif de pointage direct
US8717360B2 (en) 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
JP2011159163A (ja) * 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
CN102169364B (zh) * 2010-02-26 2013-03-27 原相科技股份有限公司 应用于立体互动系统的互动模块及其方法
EP2553531B1 (en) 2010-04-01 2019-10-16 SeeReal Technologies S.A. Method and device for encoding three-dimensional scenes which include transparent objects in a holographic system
KR101334107B1 (ko) 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
US20120005624A1 (en) 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
JP2012058896A (ja) 2010-09-07 2012-03-22 Sony Corp 情報処理装置、プログラムおよび情報処理方法
JP4917664B1 (ja) * 2010-10-27 2012-04-18 株式会社コナミデジタルエンタテインメント 画像表示装置、ゲームプログラム、ゲーム制御方法
JP2012133179A (ja) * 2010-12-22 2012-07-12 Nec Corp 立体視装置、及び立体視装置の制御方法
US8687172B2 (en) 2011-04-13 2014-04-01 Ivan Faul Optical digitizer with improved distance measurement capability
KR101874494B1 (ko) 2011-11-25 2018-07-06 삼성전자주식회사 특징점의 삼차원 위치 계산 장치 및 방법
JP2013124972A (ja) 2011-12-15 2013-06-24 Samsung Yokohama Research Institute Co Ltd 位置推定装置及び方法、並びにテレビジョン受信機
KR101335394B1 (ko) 2012-02-06 2013-12-03 크레신 주식회사 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치
KR101873759B1 (ko) 2012-04-10 2018-08-02 엘지전자 주식회사 영상 표시 장치 및 그 제어방법
KR101343748B1 (ko) * 2012-04-23 2014-01-08 주식회사 브이터치 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
CN102830797B (zh) * 2012-07-26 2015-11-25 深圳先进技术研究院 一种基于视线判断的人机交互方法及系统
EP2974304A1 (en) * 2013-03-14 2016-01-20 Brainlab AG 3d-volume viewing by controlling sight depth

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136706A (ja) * 1997-09-01 1999-05-21 Mr System Kenkyusho:Kk 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
JP2002196874A (ja) * 2000-12-27 2002-07-12 Ntt Docomo Inc 手書きデータ入力装置及び方法並びに個人認証装置及び方法
JP2003312187A (ja) * 2002-04-19 2003-11-06 Longreen Marketing Ltd 歯車の回転によって伸縮可能な筆記用具
US20130243258A1 (en) * 2007-05-23 2013-09-19 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
JP2009258884A (ja) * 2008-04-15 2009-11-05 Toyota Central R&D Labs Inc ユーザインタフェイス
JP2010157146A (ja) * 2008-12-29 2010-07-15 Fuji Xerox Co Ltd 描画システム
JP2011145744A (ja) * 2010-01-12 2011-07-28 Nintendo Co Ltd 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
JP2011180690A (ja) * 2010-02-26 2011-09-15 Brother Industries Ltd 表示制御装置、表示制御方法、および表示制御プログラム
JP2013168120A (ja) * 2012-01-19 2013-08-29 Panasonic Corp 立体画像処理装置、立体画像処理方法、及びプログラム
WO2013176265A1 (ja) * 2012-05-25 2013-11-28 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法
CN103294225A (zh) * 2013-06-09 2013-09-11 深圳超多维光电子有限公司 立体显示设备、指点设备、立体显示系统及其操作方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022085395A1 (ja) * 2020-10-23 2022-04-28 株式会社ワコム コンピュータ、方法、及びプログラム

Also Published As

Publication number Publication date
EP3026529A1 (en) 2016-06-01
US20160147410A1 (en) 2016-05-26
EP3026529B1 (en) 2020-03-25
US9870119B2 (en) 2018-01-16
KR102310994B1 (ko) 2021-10-08
CN105630155B (zh) 2020-03-17
JP6777391B2 (ja) 2020-10-28
CN105630155A (zh) 2016-06-01
KR20160062499A (ko) 2016-06-02

Similar Documents

Publication Publication Date Title
US11157725B2 (en) Gesture-based casting and manipulation of virtual content in artificial-reality environments
US20210157412A1 (en) Systems and methods of direct pointing detection for interaction with a digital device
US10818092B2 (en) Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US20200004401A1 (en) Gesture-based content sharing in artifical reality environments
US11422530B2 (en) Systems and methods for prototyping a virtual model
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
JP6777391B2 (ja) 3次元相互作用のためのコンピュータ装置及び方法
US20210049360A1 (en) CONTROLLER GESTURES IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS
US11047691B2 (en) Simultaneous localization and mapping (SLAM) compensation for gesture recognition in virtual, augmented, and mixed reality (xR) applications
US20200065584A1 (en) CONTEXT-AWARE HAZARD DETECTION USING WORLD-FACING CAMERAS IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS
US10896545B1 (en) Near eye display interface for artificial reality applications
US10937192B2 (en) Resolving incorrect distributed simultaneous localization and mapping (SLAM) data in edge cloud architectures
US20210256733A1 (en) Resolving region-of-interest (roi) overlaps for distributed simultaneous localization and mapping (slam) in edge cloud architectures
US10133470B2 (en) Interfacing device and method for providing user interface exploiting multi-modality
JP2004265222A (ja) インタフェース方法、装置、およびプログラム
Li et al. A flexible technique to select objects via convolutional neural network in VR space
EP3088991B1 (en) Wearable device and method for enabling user interaction
Díaz Barros et al. Real-time head pose estimation by tracking and detection of keypoints and facial landmarks
US20180095282A1 (en) Head mounted device with eye tracking and control method thereof
US20220192487A1 (en) Method and system for determining dominant eye, and non-transitory computer-readable recording medium
US20210374991A1 (en) Method, system and non-transitory computer-readable recording medium for supporting object control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200819

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201008

R150 Certificate of patent or registration of utility model

Ref document number: 6777391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250