JP2016110177A - 3次元入力装置及び入力システム - Google Patents

3次元入力装置及び入力システム Download PDF

Info

Publication number
JP2016110177A
JP2016110177A JP2014243757A JP2014243757A JP2016110177A JP 2016110177 A JP2016110177 A JP 2016110177A JP 2014243757 A JP2014243757 A JP 2014243757A JP 2014243757 A JP2014243757 A JP 2014243757A JP 2016110177 A JP2016110177 A JP 2016110177A
Authority
JP
Japan
Prior art keywords
virtual reference
input
reference plane
dimensional
dimensional position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014243757A
Other languages
English (en)
Inventor
大佛 一毅
Kazuki Osaragi
一毅 大佛
大友 文夫
Fumio Otomo
文夫 大友
籾内 正幸
Masayuki Momiuchi
正幸 籾内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2014243757A priority Critical patent/JP2016110177A/ja
Priority to EP15194015.2A priority patent/EP3029547A1/en
Priority to US14/950,485 priority patent/US9658685B2/en
Publication of JP2016110177A publication Critical patent/JP2016110177A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】使用場所、使用状況の制限なく操作を可能とした3次元入力装置及び入力システムを提供する。【解決手段】所定の間隔で配置された2つの光学的計測手段12a、12bを具備する。2つの光学的計測手段が個々に取得した測定対象の方向と所定の間隔に基づき測定対象の3次元位置をリアルタイムで測定すると共に人体に装着可能である3次元位置検出装置1と、制御部13とを有し、制御部は測定対象の3次元位置の変化と変化の仕方に基づき入力情報を発生させる。【選択図】図1

Description

本発明はコンピュータ、情報処理システム等にデータ入力する為の3次元入力装置及び入力システムに関するものである。
近年、ノート型パソコン、タブレット等の情報端末が普及し、これらの情報端末は屋内外を問わず、又乗物内でも使用されるようになった。これらの情報端末での入力手段は、通常、キー操作やタッチパネルでの操作となっている。音声入力もあるが、音声入力では手操作に比べ入力の種類が限られ、大半は手入力となっている。
キー操作やタッチパネル操作では機体を支えなければならない。この為、片手だけで操作することはできず、使用できる場所と状況の制約があった。
特開平9−179062号公報 特開2000−29621号公報 特開2010−145860号公報
本発明は斯かる実情に鑑み、使用場所、使用状況の制限なく操作を可能とした3次元入力装置及び入力システムを提供するものである。
本発明は、所定の間隔で配置された2つの光学的計測手段を具備し、該2つの光学的計測手段が個々に取得した測定対象の方向と前記所定の間隔に基づき測定対象の3次元位置をリアルタイムで測定すると共に人体に装着可能である3次元位置検出装置と、制御部とを有し、該制御部は前記測定対象の3次元位置の変化と変化の仕方に基づき入力情報を発生させる3次元入力装置に係るものである。
又本発明は、前記制御部は、仮想基準面を設定し、該仮想基準面に対する前記測定対象の3次元位置の変化と変化の仕方に基づき入力情報を発生させる3次元入力装置に係るものである。
又本発明は、前記制御部は、人体の節を検知し、該節を基準として作業空間を設定し、前記仮想基準面は前記作業空間内に設定される3次元入力装置に係るものである。
又本発明は、前記測定対象は入力具の一部であり、該入力具の一部は他の部位から判別可能な色彩、或は形状を有し、或は発光可能である3次元入力装置に係るものである。
又本発明は、前記3次元入力装置と表示装置とを具備し、前記制御部は前記表示装置に仮想基準面を表示すると共に該仮想基準面に対する前記測定対象の位置情報を前記仮想基準面に重合させて表示する入力システムに係るものである。
又本発明は、前記測定対象の3次元位置測定は、前記作業空間内で実行される入力システムに係るものである。
又本発明は、前記測定対象は入力具として機能し、該入力具の一部は他の部位から判別可能な色彩、或は形状を有し、或は発光可能である入力システムに係るものである。
又本発明は、前記表示装置での表示は3D表示である入力システムに係るものである。
又本発明は、前記表示装置は前記3次元位置検出装置と共に人体に装着可能である入力システムに係るものである。
又本発明は、前記表示装置は透過型であり、前記表示装置を透して目視した測定対象と前記制御部により前記表示装置に表示された仮想基準面とが重合され、前記3次元位置検出装置により測定された測定対象の3次元位置に基づき前記仮想基準面と測定対象とが関連付けられた入力システムに係るものである。
又本発明は、前記測定対象と仮想基準面とが重合する部分は、仮想基準面の重合する部分を陰線処理する入力システムに係るものである。
又本発明は、前記3次元位置検出装置はヘッドマウント可能であり、前記表示装置は折畳み格納可能である入力システムに係るものである。
更に又本発明は、前記3次元位置検出装置は、眼前に位置する透明部材を有し、該透明部材にハーフミラー及び投影部が設けられ、前記ハーフミラーは瞳の対向位置に配置され、前記投影部は前記ハーフミラーの上方に配置され、前記投影部より前記ハーフミラーに仮想基準面が投影される様構成された入力システムに係るものである。
本発明によれば、所定の間隔で配置された2つの光学的計測手段を具備し、該2つの光学的計測手段が個々に取得した測定対象の方向と前記所定の間隔に基づき測定対象の3次元位置をリアルタイムで測定すると共に人体に装着可能である3次元位置検出装置と、制御部とを有し、該制御部は前記測定対象の3次元位置の変化と変化の仕方に基づき入力情報を発生させるので、キーボード、タブレット等の入力機器が不要であり、任意の場所で、更に場所の制限を受けることなく入力作業が行える。
又本発明によれば、前記制御部は、仮想基準面を設定し、該仮想基準面に対する前記測定対象の3次元位置の変化と変化の仕方に基づき入力情報を発生させるので、3次元位置の変化と変化の仕方の判断の確実性が向上する。
又本発明によれば、前記制御部は、人体の節を検知し、該節を基準として作業空間を設定し、前記仮想基準面は前記作業空間内に設定されるので、測定対象を検出する範囲が限定され、測定対象の特定が容易になる。
又本発明によれば、前記測定対象は入力具として機能し、該入力具の一部は他の部位から判別可能な色彩、或は形状を有し、或は発光可能であるので、測定対象の認識が容易になり、測定の確実性が向上する。
又本発明によれば、前記3次元入力装置と表示装置とを具備し、前記制御部は前記表示装置に仮想基準面を表示すると共に該仮想基準面に対する前記測定対象の位置情報を前記仮想基準面に重合させて表示するので、オペレータは表示画面により、入力作業の状態、入力状態を目視で確認でき、作業性が向上する。
又本発明によれば、前記表示装置は透過型であり、前記表示装置を透して目視した測定対象と前記制御部により前記表示装置に表示された仮想基準面とが重合され、前記3次元位置検出装置により測定された測定対象の3次元位置に基づき前記仮想基準面と測定対象とが関連付けられたので、視覚による認識が容易となり、作業性が向上する。
又本発明によれば、前記測定対象と仮想基準面とが重合する部分は、仮想基準面の重合する部分を陰線処理するので、視覚による認識が容易となり、作業性が向上する。
更に又本発明によれば、前記3次元位置検出装置は、眼前に位置する透明部材を有し、該透明部材にハーフミラー及び投影部が設けられ、前記ハーフミラーは瞳の対向位置に配置され、前記投影部は前記ハーフミラーの上方に配置され、前記投影部より前記ハーフミラーに仮想基準面が投影される様構成されたので、前記3次元位置検出装置の光学系を小型化できると共に視野を大きくでき、作業範囲の制約が少なくなり、作業性が向上するという優れた効果を発揮する。
本発明に係る第1の実施例を示す説明図である。 第1の実施例の概略構成を示すブロック図である。 (A)、(B)は、第1の実施例に於ける表示例を示し、(A)は2次元表示、(B)は3次元表示を示す。 (A)、(B)は、本発明に係る第2の実施例を示す説明図である。 基準面の設定の説明図である。 本発明に係る第3の実施例を示す説明図である。 第3の実施例の概略構成を示すブロック図である。 (A)、(B)は、第3の実施例の3次元位置検出装置の変形例を示す説明図であり、(A)は斜視図、(B)は側面図である。 3次元位置検出装置の光学系の一例を示す模式図である。
本発明では、仮想空間を設定し、キー、キーボード、タッチパネル等の操作手段を仮想空間内に構築し、実際の空間で行う動作を3次元測定し、測定結果を仮想空間内の操作手段との位置関係に反映させ、実空間での動作、振舞いが前記操作手段に触れた(若しくは所定距離に接近した)かにより、入力する様に構成している。
即ち、本発明では従来実空間で入力操作が行われ、操作手段に対する物理的な接触に基づき入力が行われていたものを仮想空間に於ける操作手段の変位に基づき入力が実行される様に構成したものである。
以下、図面を参照しつつ本発明の実施例を説明する。
図1に於いて、本発明の第1の実施例の概略を説明する。
図1中、1はオペレータの頭部に装着される3次元位置検出装置1であり、2は表示装置、3は前記3次元位置検出装置1による測定対象の位置検出、前記表示装置2の表示を制御する制御装置、4は測定対象としての入力具である。
該入力具4は認識部として先端部4aを有し、該先端部4aは、認識し易い様に入力具4の本体とは色を変える、識別し易い形状とする、或は発光可能又は点滅可能とする。
前記3次元位置検出装置1は頭部に装着可能であり、ホルダ11と光学的計測手段としての光学計測器12a,12bと、制御部13とを具備する。前記ホルダ11は頭部に装着可能であり、2つの前記光学計測器12a,12b及び前記制御部13は前記ホルダ11に設けられる。該ホルダ11は、前記光学計測器12a,12bを既知の間隔Dで、前記光学計測器12a,12bの光軸が平行となる様に保持する。
前記光学計測器12a,12bは、オペレータの手元を撮像可能であり、オペレータの作業範囲を撮像可能な画角を有する。又、前記光学計測器12a,12bは、オペレータの手元を撮像する様向きが設定されている。
前記光学計測器12a,12bは、画素の集合体である受光素子、例えば、プロファイルセンサ、ポジションセンサ或は画像センサを有しており、前記光学計測器12a,12bではそれぞれ受光素子内での受光位置、或は画像中の対象物の位置を特定可能となっている。
前記制御部13は、前記光学計測器12a,12bを制御し、該光学計測器12a,12bにより画像を取得する。取得した画像は、画像データとして前記制御装置3に送信される。
前記制御装置3は、受信した画像データに基づき画像中の測定対象、例えば前記入力具4の先端部4aを判別し、更に2つの画像中での前記先端部4aの位置を検出し、画像中での前記先端部4aの位置により測定対象の方向を演算し、演算された方向と前記光学計測器12a,12b間の既知の距離Dに基づくステレオ計測、即ちステレオ法により前記先端部4aの3次元位置(3次元座標)を測定する。
又、前記画像中より体の節となる部分、例えば肩、肘、手首を検出し、更に画像に基づき節の3次元位置を演算する。更に、所要の節、例えば肘の3次元位置をオペレータの作業の基準位置として設定する。更に、該基準位置に基づき作業空間が設定される。
又、前記制御装置3は、基準位置に対して所定の関係に位置づけられた仮想基準面14を設定する。該仮想基準面14は、前記光学計測器12a,12bの光軸に直交する面内に設定され、且つオペレータの肘等の基準位置(3次元位置)を基準とした所定の位置、即ち肘の位置から所定距離下方又は上方で、肘の位置から所定距離前方に設定される。
体の節となる部分は、作業中大きな変位がない部分であり、基準位置を体の節となる部分とすることで、前記仮想基準面14を安定させることができる。尚、基準位置は作業の内容に応じて前記作業空間の任意な位置に設定することができる。
該仮想基準面14には、例えばタブレット端末の様な機能が与えられ、該仮想基準面14に対して前記先端部4aが所定の動作を行うことで、信号、或はデータが入力される様になっている。
前記表示装置2には、入力されたデータ、例えば文字が表示され、更に、前記仮想基準面14と前記先端部4aが前記表示装置2の全面に、或は部分的に表示される。或は、前記表示装置2には前記仮想基準面14に対する前記先端部4aの動作状態が表示される様になっている。
次に、図2を参照して、第1の実施例の概略構成を説明する。
上記した様に、前記3次元位置検出装置1は、前記ホルダ11に設けられた前記光学計測器12a,12b及び前記制御部13を有する。
該制御部13は、画像取得制御部16、第1記憶部17、第1通信部18を具備している。
前記画像取得制御部16は、前記光学計測器12a,12bの動画像の取得を制御すると共に同期制御を実行し、それぞれの光学計測器12a,12bが取得した動画像は前記第1記憶部17に格納される。前記第1通信部18は、格納された動画像を前記制御装置3に送信する。
前記制御装置3は、画像処理部21、制御演算部(CPU)22、第2記憶部23、第2通信部24を有する。
前記画像処理部21は、前記制御部13から送信された動画像から、前記光学計測器12a,12bそれぞれに対応する各フレームの静止画像を取得し、該静止画像中で測定対象、例えば前記入力具4の先端部4aの画像を抽出する。更に、静止画像は、動画のフレームレート(例えば、1/30秒間隔(30fps))で連続して取得し、取得した各2画像に基づき測定対象、例えば前記先端部4a、節の画像抽出を実行する。
前記動画像、前記静止画像、前記測定対象の画像は、前記第2記憶部23に格納される。
該第2記憶部23には、前記画像処理部21に画像処理を実行させる為の画像処理プログラム、静止画像から測定対象の3次元位置を測定する計測プログラム、前記仮想基準面14を構築する為の基準面形成プログラム、前記仮想基準面14と前記先端部4aの画像の相関関係を演算し、演算結果に基づき前記入力具4による入力状態を検出する入力検出プログラム、前記表示装置2に画像表示させる為の表示プログラム、前記制御部13と通信を行う為の通信プログラム等の各種プログラムが格納され、又前記表示装置2に表示させる各種プログラムが格納されている。
前記第2通信部24は、前記第1通信部18との間で画像データの授受、測定対象の3次元位置のデータの授受を無線、有線等所要の手段で行う。
以下、本実施例の作用について説明する。
前記制御演算部22は、前記光学計測器12a,12bで取得した2つの静止画像に基づき画像中の測定対象、例えば前記先端部4a、前記節の3次元位置(3次元座標)を演算する。更に、連続して取得された静止画像から測定対象の3次元座標を演算することで、測定対象の3次元座標がリアルタイムで求められる。
この場合、3次元位置の基準位置(3次元座標の原点)は、両前記光学計測器12a,12b間の中心等に設定する。又、前記制御部13は、前記光学計測器12a,12bによって撮像した画像から、体の節となる部分、例えば肘を検出し、肘の3次元位置を演算し、肘の3次元位置をオペレータの作業の基準位置とする。
前記制御演算部22は、肘の3次元座標を基準として前記仮想基準面14の形成位置を演算し、演算された形成位置に該仮想基準面14を形成する。
又前記制御演算部22は、前記先端部4aの3次元座標を演算し、更に該仮想基準面14と前記先端部4aとの位置関係を演算し、該位置関係を前記表示装置2に表示する。
オペレータは、該表示装置2の表示を観察しつつ、前記入力具4を操作する。例えば、該入力具4により前記仮想基準面14を仮想的に叩き、該仮想基準面14に対して入力動作を実行する。
前記制御演算部22は、前記仮想基準面14に対する前記先端部4aの位置変化及び変化の仕方を演算し、該位置変化及び変化の仕方が所定の変化であるかどうかを判断する。前記制御演算部22が判断する位置変化及び変化の仕方とは、前記仮想基準面14に対する前記先端部4aの位置変化、該先端部4aの加速度の変化等である。
前記位置変化及び変化の仕方の所定の変化としては、例えば、前記仮想基準面14に対して前記先端部4aが通過するかどうかであり、通過した時点を入力動作が行われたと判断する。前記制御演算部22は、前記先端部4aが前記仮想基準面14のどの位置を叩いたかを判断し、前記仮想基準面14の位置に応じた入力情報(入力信号)を発生する。
更に、オペレータが入力されたかどうかを確認できる様に、前記先端部4aが前記仮想基準面14を通過した時に音が発せられる様にしてもよい。又、前記入力具4にバイブレータを内蔵させ、入力があった場合、バイブレータを振動させる様にしてもよい。
更に、変化の仕方としては、前記入力具4の運動方向の変化がある。前記3次元位置検出装置1の計測結果に基づき前記入力具4の動きの方向を検出し、動きの方向の変化に基づき入力が実行される。この場合、前記仮想基準面14は省略できる。
又、前記制御演算部22は、入力信号に応じた信号処理を行い、例えば、文字入力であれば、文字信号に変換して前記表示装置2に表示する。
又、前記表示装置2に表示する方法として、2次元表示、3次元表示を適宜選択可能とする。
図3(A)は、2次元表示の一例を示している。
前記表示装置2の表示面の一部に前記仮想基準面14が表示され、更に前記先端部4aの位置情報が前記仮想基準面14に重合してポイントとして表示されている。
該ポイントは、前記3次元位置検出装置1により測定された前記先端部4aの3次元位置に基づき前記仮想基準面14と関連付けられ表示される。
前記仮想基準面14のとの位置関係(近接離反方向の位置関係)が、更に判別できる様に、前記仮想基準面14の手前に前記先端部4aが位置する場合は◎で、一致している場合は○で、前記先端部4aが前記仮想基準面14の奥にある場合は●で表示される。尚、表示は一例であって、種々の記号、マークが使用可能である。更に、入力位置を色を変えて表示してもよい。
図3(B)は、3次元表示の一例を示している。
図示では、前記仮想基準面14上に3次元座標系が表示され、この座標系に先端部4aが点として表示されている。又、この場合、3次元座標値(X,Y,Z)を合わせて表示してもよい。前記先端部4aが3次元表示されることで、前記仮想基準面14内の2次元の位置と該仮想基準面14に対する近接離反方向の位置が同時に表示される。
図4(A)、図4(B)は、第2の実施例を示している。尚、図4(A)(B)中、図1中で示したものと同等のものには同符号を付し、その詳細については説明を省略する。
第2の実施例は、ヘッドマウント型の表示装置2を具備したものである。
ホルダ11は、帽子、サンバイザー、ヘルメット等、頭部に装着されるものであり、前記表示装置2は前記ホルダ11に設けられ、オペレータの一方の眼前に配設されている。
従って、オペレータは一方の眼で前記表示装置2を見て、他方の眼で入力具4を見て、入力作業が行われる。この場合、オペレータはタブレット等の機器を保持する必要がないので片手操作が可能となる。
又第2の実施例では、前記ホルダ11に設けられる光学計測器12a,12bは、光軸が平行な状態を維持して連動可能となっており、前記光学計測器12a,12bは撮像方向を変更可能となっている。
図4(A)が示す状態では、仮想基準面14が下方に形成される場合を示しており、前記光学計測器12a,12bは、手元を含む画像が取得される様になっている。
前記ホルダ11に設けられる制御部13は、第1の実施例に於ける制御装置3の機能と制御部13の機能を合わせ有しており、下方に前記仮想基準面14を形成し、更に前記光学計測器12a,12bが取得した画像に基づき、先端部4aの3次元座標を演算する。
前記制御部13は、前記先端部4aの前記仮想基準面14に対する変化の仕方を演算して、前記先端部4aによる入力有無、入力状態を演算する。
又、前記制御部13は、前記表示装置2に前記仮想基準面14、前記先端部4aが表示される様制御し、オペレータは前記表示装置2に表示された画像を見ながら、又前記先端部4aを見ながら入力作業を行う。前記表示装置2に表示される内容としては、図3(A)、図3(B)に示される内容と同等である。
図4(B)は、前記仮想基準面14が前方(視線方向)に形成される場合を示しており、前記光学計測器12a,12bは、前方の手元を含む画像が取得される様になっている。
図4(B)が示す例では、前記光学計測器12a,12bの光軸は、視線方向と略合致し、仮想基準面14は前方の位置に垂直、又は、垂直に近い状態で形成される。又、前記仮想基準面14が形成される位置は、肘等、節の3次元座標に基づき決定され、前記仮想基準面14は決定された位置に固定される。
前記仮想基準面14は、前記表示装置2に表示され、オペレータは一方の眼で前記仮想基準面14を見て、他方の眼で入力具4を見て、該入力具4により前記仮想基準面14を押し、或は叩く等の入力動作により入力が行われる。
又、第1の実施例と同様、前記仮想基準面14に◎、○、●を表示し、該仮想基準面14と前記先端部4aとの位置関係を示す様にしてもよい。
前記仮想基準面14は、オペレータの所要の節、前記光学計測器12a,12bの光軸等を基準として、前記制御装置13が自動的に形成する。その他、オペレータが任意に設定すること、更に設定を変更することもできる。例えば、図5に示される様に、前記入力具4を用いて、適当な位置の3点を指定することで、3点により面が定義され、3点の図形中心を基準として前記仮想基準面14が形成される。又、3点15a,15b,15cで前記面を定義した後、更に前記入力具4により、4点目を指定し、該4点目で前記仮想基準面14の基準位置(例えば中心)を設定してもよい。
図6は、第3の実施例を示している。尚、図6中、図1中で示したものと同等のものには同符号を付し、その詳細については説明を省略する。
第3の実施例では、ヘッドマウント式の3次元位置検出装置1が用いられた例を示しており、更に表示装置2は透過型(シィスルー)で、且つ立体視可能となっている。
前記表示装置2は、左右の眼に対応する様に左右の透過型表示部2a,2bを有し、該透過型表示部2a,2bにはそれぞれ仮想基準面14a,14b(図示せず)が個別に表示される様に構成されている。制御部13は、前記透過型表示部2a,2bの表示を制御し、左右の光学計測器12a,12bによる画像の取得を制御する。
図7により、第3の実施例の構成の概略を説明する。
前記制御部13は、ステレオ動画像処理部26、制御演算部27、記憶部28、ステレオ画像表示処理部29を有している。
前記光学計測器12a,12bはそれぞれ同期して動画像を取得する様制御され、取得された動画像はステレオ動画像処理部26に入力される。該ステレオ動画像処理部26に於いて前記光学計測器12a,12bで個別に撮像された動画像が関連付けられ、ステレオ動画像に処理され、ステレオ動画像は前記記憶部28に格納される。
前記制御演算部(CPU)27は、ステレオ動画像から前記透過型表示部2a,2bに表示する左動画像、右動画像を作成し、前記ステレオ画像表示処理部29に送出する。該ステレオ画像表示処理部29では、左動画像、右動画像を同期させ、前記透過型表示部2a,2bにそれぞれ表示させる。
前記左動画像、右動画像は視差を有し、左動画像、右動画像を左右の眼で個別に視認することで、画像内の測定対象は立体動画像として認識される。
更に、前記記憶部28には仮想基準面14用の画像データが格納されている。該画像データは、左画像用の仮想基準面14a(図示せず)、右画像用の仮想基準面14b(図示せず)を有し、前記仮想基準面14aと前記仮想基準面14bとは視差を有している。
前記ステレオ画像表示処理部29は、前記仮想基準面14a,14bを前記透過型表示部2a,2bにそれぞれ表示させる。前記仮想基準面14a,14bは視差を有することで、立体的な仮想基準面14として認識される。該仮想基準面14と前記立体動画像は重合して表示される。又、重合して表示する場合、測定対象が前記仮想基準面14の手前にある場合は、測定対象が重なる部分の該仮想基準面14は表示させない、陰線処理を施してもよい。
更に、前記仮想基準面14は、肘等の節を基準として定位置に形成される様に、前記透過型表示部2a,2bの表示が制御され、頭部の位置に変化があった場合にも、この変化が前記仮想基準面14の表示位置に影響しない様になっている。
前記制御演算部27は、前記左動画像、右動画像から所定時間間隔で静止画像を取得し、ステレオ画像として処理する。静止画像中から測定対象を抽出し、測定対象の3次元座標を演算する。
次に、前記仮想基準面14に対する入力動作について説明する。
上記したと同様、入力具4を用いて行ってもよいが、指によって行ってもよい。又、オペレータはタブレット等の機器を保持する必要がないので片手操作が可能となる。
前記光学計測器12a,12bが指を含む画像をそれぞれ取得し、取得した画像に基づき指先31の3次元測定が実行される。尚、前記光学計測器12a,12bとしては、前記指先31を識別可能な様に、画像センサが用いられる。
前記制御部13に於いて、該指先31の3次元座標が演算され、更に前記指先31と前記仮想基準面14との位置関係が演算される。
前記指先31の位置及び前記仮想基準面14との位置関係は、リアルタイムで演算され、前記仮想基準面14に対する前記指先31の変化によって、入力の有無が判断される。
前記仮想基準面14に対する前記指先31の変化は、位置に応じた記号、マークを前記仮想基準面14に表示する。表示される記号、マークの一例としては、図3で示したものが考えられる。
更に、前記仮想基準面14に対する前記指先31の変化に対応させ、前記仮想基準面14と前記指先31との接触部分を変形させてもよい。例えば、前記指先31が前記仮想基準面14を超えて前方に移動した場合、接触部分を凹ませる等である。
入力の有無が確認できる様、前記指先31が前記仮想基準面14に合致した場合、或は前記指先31が前記仮想基準面14を超えた場合は、告知音が発せられる様にしてもよい。
図8(A)、(B)は、3次元位置検出装置1の変形例を示している。
該3次元位置検出装置1はヘッドマウント可能であり、該3次元位置検出装置1は、透過型の表示装置2を有し、該表示装置2が上端を中心に回転し、折畳み格納できる様になっている。又、前記光学計測器12a,12bについても、入力位置に応じて撮像方向(光軸の向き)を変更できる様になっており、手元作業では下方に向け、前方作業では水平方向に向きを変更する。更に、前記仮想基準面14は作業に適した位置に任意に設定できるので、入力作業の自由度が増大し、使い勝手が向上する。
図9は、3次元位置検出装置1の光学系の一例を示している。
図9中、33は透明部材、34は投影部、35はハーフミラー、36はオペレータの瞳を示している。
前記透明部材33はホルダ11に支持され(図8(A)(B)参照)、該ホルダ11に前記投影部34、前記ハーフミラー35が設けられている。
該ハーフミラー35は前記瞳36の直前で該瞳36の光軸上に配設される。前記投影部34は前記ハーフミラー35の上方で、前記投影部34の光軸が前記瞳36の光軸と前記ハーフミラー35上で交差する様に配置される。前記投影部34と前記瞳36とは共役関係となっている。
前記投影部34は前記ハーフミラー35上に仮想基準面14を投影する。オペレータは、前記ハーフミラー35上の前記仮想基準面14を視認しつつ、前記ハーフミラー35、前記透明部材33を透して測定対象を視認する。オペレータは、重合した状態の前記仮想基準面14と前記測定対象とを認識する。
前記ハーフミラー35を前記瞳36の直前に配設したことで、小さな前記ハーフミラー35で大きな画角を取得することができる。従って、前記ハーフミラー35、前記投影部34を小型化できる。
更に、近距離の測定対象を視認する場合と、遠距離の測定対象を視認する場合は、視線方向(瞳36の光軸の向き)が変るので、近距離用、遠距離用のハーフミラー35、投影部34を配置し、投影する仮想基準面14、投影する投影部34を近距離用、遠距離用に切替えることで、遠方の測定対象を視認しつつ、手元で入力作業を行うことができる。例えば、遠距離で飛行する飛行体を、手元の仮想基準面14上で遠隔操作する場合等に実施できる。
尚、上記入力システムに於いて、2つの光学計測器の一方をレーザスキャナとし、他方を、プロファイルセンサ、ポジションセンサ或は画像センサのいずれかとしてもよい。2つの光学計測器の1つにレーザスキャナを用いた場合、測定対象の方向と距離が直ちに測定でき、3次元測定の測定速度が向上する。
1 3次元位置検出装置
2 表示装置
3 制御装置
4 入力具
11 ホルダ
12 光学計測器
13 制御部
14 仮想基準面
16 画像取得制御部
17 第1記憶部
21 画像処理部
23 第2記憶部
26 ステレオ動画像処理部
27 制御演算部
28 記憶部
29 ステレオ画像表示処理部
34 投影部
35 ハーフミラー

Claims (13)

  1. 所定の間隔で配置された2つの光学的計測手段を具備し、該2つの光学的計測手段が個々に取得した測定対象の方向と前記所定の間隔に基づき測定対象の3次元位置をリアルタイムで測定すると共に人体に装着可能である3次元位置検出装置と、制御部とを有し、該制御部は前記測定対象の3次元位置の変化と変化の仕方に基づき入力情報を発生させることを特徴とする3次元入力装置。
  2. 前記制御部は、仮想基準面を設定し、該仮想基準面に対する前記測定対象の3次元位置の変化と変化の仕方に基づき入力情報を発生させる請求項1の3次元入力装置。
  3. 前記制御部は、人体の節を検知し、該節を基準として作業空間を設定し、前記仮想基準面は前記作業空間内に設定される請求項2の3次元入力装置。
  4. 前記測定対象は入力具として機能し、該入力具の一部は他の部位から判別可能な色彩、或は形状を有し、或は発光可能である請求項3の3次元入力装置。
  5. 請求項2又は請求項3の3次元入力装置と表示装置とを具備し、前記制御部は前記表示装置に仮想基準面を表示すると共に該仮想基準面に対する前記測定対象の位置情報を前記仮想基準面に重合させて表示することを特徴とする入力システム。
  6. 前記測定対象の3次元位置測定は、前記作業空間内で実行される請求項5の入力システム。
  7. 前記測定対象は入力具として機能し、該入力具の一部は他の部位から判別可能な色彩、或は形状を有し、或は発光可能である請求項5の入力システム。
  8. 前記表示装置での表示は3D表示である請求項5の入力システム。
  9. 前記表示装置は前記3次元位置検出装置と共に人体に装着可能である請求項5の入力システム。
  10. 前記表示装置は透過型であり、前記表示装置を透して目視した測定対象と前記制御部により前記表示装置に表示された仮想基準面とが重合され、前記3次元位置検出装置により測定された測定対象の3次元位置に基づき前記仮想基準面と測定対象とが関連付けられた請求項9の入力システム。
  11. 前記測定対象と仮想基準面とが重合する部分は、仮想基準面の重合する部分を陰線処理する請求項10の入力システム。
  12. 前記3次元位置検出装置はヘッドマウント可能であり、前記表示装置は折畳み格納可能である請求項10の入力システム。
  13. 前記3次元位置検出装置は、眼前に位置する透明部材を有し、該透明部材にハーフミラー及び投影部が設けられ、前記ハーフミラーは瞳の対向位置に配置され、前記投影部は前記ハーフミラーの上方に配置され、前記投影部より前記ハーフミラーに仮想基準面が投影される様構成された請求項10の入力システム。
JP2014243757A 2014-12-02 2014-12-02 3次元入力装置及び入力システム Pending JP2016110177A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014243757A JP2016110177A (ja) 2014-12-02 2014-12-02 3次元入力装置及び入力システム
EP15194015.2A EP3029547A1 (en) 2014-12-02 2015-11-11 Three-dimensional input device and input system
US14/950,485 US9658685B2 (en) 2014-12-02 2015-11-24 Three-dimensional input device and input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014243757A JP2016110177A (ja) 2014-12-02 2014-12-02 3次元入力装置及び入力システム

Publications (1)

Publication Number Publication Date
JP2016110177A true JP2016110177A (ja) 2016-06-20

Family

ID=54540919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014243757A Pending JP2016110177A (ja) 2014-12-02 2014-12-02 3次元入力装置及び入力システム

Country Status (3)

Country Link
US (1) US9658685B2 (ja)
EP (1) EP3029547A1 (ja)
JP (1) JP2016110177A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10691880B2 (en) * 2016-03-29 2020-06-23 Microsoft Technology Licensing, Llc Ink in an electronic document
US10019849B2 (en) * 2016-07-29 2018-07-10 Zspace, Inc. Personal electronic device with a display system
US10127715B2 (en) * 2016-11-18 2018-11-13 Zspace, Inc. 3D user interface—non-native stereoscopic image conversion
US10271043B2 (en) 2016-11-18 2019-04-23 Zspace, Inc. 3D user interface—360-degree visualization of 2D webpage content
US11003305B2 (en) 2016-11-18 2021-05-11 Zspace, Inc. 3D user interface
US10854169B2 (en) * 2018-12-14 2020-12-01 Samsung Electronics Co., Ltd. Systems and methods for virtual displays in virtual, mixed, and augmented reality

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778055A (ja) * 1993-06-25 1995-03-20 Casio Comput Co Ltd データ処理装置
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2009146333A (ja) * 2007-12-18 2009-07-02 Panasonic Corp 空間入力動作表示装置
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2012053631A (ja) * 2010-08-31 2012-03-15 Canon Inc 情報処理装置、情報処理方法
JP2012089984A (ja) * 2010-10-18 2012-05-10 Nikon Corp 頭部装着型画像表示装置
JP2013125487A (ja) * 2011-12-16 2013-06-24 Konica Minolta Business Technologies Inc 空間手書きシステム及び電子ペン
JP2014056462A (ja) * 2012-09-13 2014-03-27 Toshiba Alpine Automotive Technology Corp 操作装置
US8836768B1 (en) * 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US20140266988A1 (en) * 2013-03-15 2014-09-18 Eyecam, LLC Autonomous computing and telecommunications head-up displays glasses
US20140351753A1 (en) * 2013-05-23 2014-11-27 Samsung Electronics Co., Ltd. Method and apparatus for user interface based on gesture

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179062A (ja) 1995-12-25 1997-07-11 Canon Inc コンピュータシステム
JP2000029621A (ja) 1998-07-10 2000-01-28 Sony Corp コンピュータ装置
US7798638B2 (en) * 2007-01-02 2010-09-21 Hind-Sight Industries, Inc. Eyeglasses with integrated video display
JP5293154B2 (ja) 2008-12-19 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2014071499A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778055A (ja) * 1993-06-25 1995-03-20 Casio Comput Co Ltd データ処理装置
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2009146333A (ja) * 2007-12-18 2009-07-02 Panasonic Corp 空間入力動作表示装置
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2012053631A (ja) * 2010-08-31 2012-03-15 Canon Inc 情報処理装置、情報処理方法
JP2012089984A (ja) * 2010-10-18 2012-05-10 Nikon Corp 頭部装着型画像表示装置
JP2013125487A (ja) * 2011-12-16 2013-06-24 Konica Minolta Business Technologies Inc 空間手書きシステム及び電子ペン
US8836768B1 (en) * 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
JP2014056462A (ja) * 2012-09-13 2014-03-27 Toshiba Alpine Automotive Technology Corp 操作装置
US20140266988A1 (en) * 2013-03-15 2014-09-18 Eyecam, LLC Autonomous computing and telecommunications head-up displays glasses
US20140351753A1 (en) * 2013-05-23 2014-11-27 Samsung Electronics Co., Ltd. Method and apparatus for user interface based on gesture

Also Published As

Publication number Publication date
US20160154457A1 (en) 2016-06-02
EP3029547A1 (en) 2016-06-08
US9658685B2 (en) 2017-05-23

Similar Documents

Publication Publication Date Title
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
JP6596883B2 (ja) ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
US10095030B2 (en) Shape recognition device, shape recognition program, and shape recognition method
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP2016110177A (ja) 3次元入力装置及び入力システム
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JPH0749744A (ja) 頭部搭載型表示入力装置
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
JP2017027206A (ja) 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
WO2017085974A1 (ja) 情報処理装置
WO2019039229A1 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
US20180165853A1 (en) Head-mounted display apparatus and virtual object display system
JP4678428B2 (ja) 仮想空間内位置指示装置
CN103713387A (zh) 电子设备和采集方法
JP5730086B2 (ja) 入力装置および入力方法
WO2016051431A1 (ja) 入出力装置、入出力プログラム、および入出力方法
JP2019101476A (ja) 操作案内システム
JP2019032713A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021162876A (ja) 画像生成システム、画像生成装置及び画像生成方法
US20210281966A1 (en) Information processing apparatus, program, and information processing method
KR20200120467A (ko) Hmd 장치 및 그 동작 방법
JP2024097269A (ja) 情報処理装置および情報処理方法
WO2022208612A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190723