JP6044426B2 - 情報操作表示システム、表示プログラム及び表示方法 - Google Patents

情報操作表示システム、表示プログラム及び表示方法 Download PDF

Info

Publication number
JP6044426B2
JP6044426B2 JP2013077240A JP2013077240A JP6044426B2 JP 6044426 B2 JP6044426 B2 JP 6044426B2 JP 2013077240 A JP2013077240 A JP 2013077240A JP 2013077240 A JP2013077240 A JP 2013077240A JP 6044426 B2 JP6044426 B2 JP 6044426B2
Authority
JP
Japan
Prior art keywords
display
dimensional
coordinate position
dimensional coordinate
operation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013077240A
Other languages
English (en)
Other versions
JP2014203176A (ja
Inventor
源太 鈴木
源太 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013077240A priority Critical patent/JP6044426B2/ja
Priority to US14/164,384 priority patent/US9645735B2/en
Publication of JP2014203176A publication Critical patent/JP2014203176A/ja
Application granted granted Critical
Publication of JP6044426B2 publication Critical patent/JP6044426B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報操作表示システム、表示プログラム及び表示方法に関する。
近年、現実の物体にプロジェクタを使ってバーチャル画像を投影させ、現実の物体に関連付けられた注釈やメニューなどを提示する拡張現実技術が知られている。また、このような拡張現実技術において、手指などの操作対象物によるジェスチャを検出し、バーチャル画像とのインタラクションを実現するユーザインタフェース技術が利用されている。
このような操作対象物のジェスチャを検出する手法として、カメラで撮影された操作対象物を含む撮影画像を用いて、操作対象物の3次元座標を計測し、3次元座標の変化からジェスチャを検出する手法が知られている。
P. Mistry, P. Maes,"Sixth Sense-A Wearable Gestural Interface." In the Proceedings of SIGGRAPH Asia 2009, Emerging Technologies. Yokohama, Japan. 2009.
しかし、従来技術では、撮影画像を用いて操作対象物の3次元位置を計測するので、操作対象物がカメラの視野範囲から外れて撮影画像に写らなくなると、操作対象物の3次元位置を計測できない場合がある。このような場合には、操作対象物のジェスチャを検出することができず、操作性が低下する。
一つの側面では、操作性を向上させる情報操作表示システム、表示プログラム及び表示方法を提供することを目的とする。
一つの案の情報操作表示システムは、カメラとプロジェクタと情報処理装置とを有する情報操作表示システムであって、前記情報処理装置は、前記カメラにより撮像された撮影画像を取得する取得部と、前記取得部によって取得された撮影画像に含まれる操作対象物の3次元座標位置を計測する計測部と、前記計測部によって計測された3次元座標位置と、前記カメラにより定まる、操作対象物の3次元座標位置が計測可能な3次元領域の境界との距離に基づいて、前記操作対象物に画像を表示するように前記プロジェクタを制御する表示部と、を有することを特徴とする。
一実施形態によれば、操作性を向上させることができる。
図1は、情報操作表示システムの全体の概略構成の一例を示す図である。 図2は、ステレオカメラである場合の情報操作表示システムのハードウェア構成を示す図である。 図3は、情報処理装置の全体構成を示す図である。 図4は、3次元計測可能領域を示す図である。 図5Aは、カメラの画角による視野範囲の違いを示す図である。 図5Bは、カメラの画角による視野範囲の違いを示す図である。 図6Aは、対象物の領域を抽出する処理を説明する図である。 図6Bは、対象物の領域を抽出する処理を説明する図である。 図7は、手の検出サイズを示す図である。 図8は、3次元計測可能領域の3次元座標を示す図である。 図9Aは、手指をX方向に移動した場合のアラート線の表示を示す図である。 図9Bは、手指をX方向に移動した場合のアラート線の表示を示す図である。 図9Cは、手指をX方向に移動した場合のアラート線の表示を示す図である。 図10Aは、手指をY方向に移動した場合のアラート線の表示を示す図である。 図10Bは、手指をY方向に移動した場合のアラート線の表示を示す図である。 図10Cは、手指をY方向に移動した場合のアラート線の表示を示す図である。 図11Aは、手指をY方向に移動した場合のアラート線の表示を示す図である。 図11Bは、手指をY方向に移動した場合のアラート線の表示を示す図である。 図11Cは、手指をY方向に移動した場合のアラート線の表示を示す図である。 図12は、手指の中心座標を示す図である。 図13Aは、手指をX方向に移動した場合のアラート円の表示を示す図である。 図13Bは、手指をX方向に移動した場合のアラート円の表示を示す図である。 図13Cは、手指をX方向に移動した場合のアラート円の表示を示す図である。 図14は、情報処理装置による、アラート線表示処理の手順を示すフローチャートである。 図15は、単眼カメラである場合の情報操作表示システムのハードウェア構成を示す図である。 図16は、単眼カメラである場合の3次元計測可能領域を示す図である。 図17は、視野範囲が円で取得可能なステレオカメラの3次元計測可能領域を示す図である。 図18は、視野範囲が円で取得可能なステレオカメラの3次元計測可能領域におけるY座標の最大最小値について説明する図である。 図19は、表示プログラムを実行するコンピュータを示す図である。
以下に、本願の開示する情報操作表示システム、表示プログラム及び表示方法の実施例を、図面に基づいて詳細に説明する。なお、この実施例により開示技術が限定されるものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[情報操作表示システムの構成]
図1は、情報操作表示システムの全体の概略構成の一例を示す図である。図1に示すように、情報操作表示システム100は、カメラ1、2と、プロジェクタ(表示装置)3と、情報処理装置10とを有する。情報処理装置10は、カメラ1、2およびプロジェクタ3とネットワーク(図示省略)を介して通信可能に接続される。プロジェクタ3は、所定の投影面上に画像を投影する。カメラ1、2は、投影面上に投影された画像と該画像上に置かれた操作対象物(例えば、操作者の手や指)との画像を撮影する。そして、情報処理装置10は、カメラ1、2により撮影された時系列の画像から、操作対象物の三次元位置を算出する。
その後、情報処理装置10は、算出された操作対象物の三次元位置に基づき、ドキュメントなどの被操作対象物に対する操作を判断する。例えば、情報処理装置10は、ドキュメントのどの情報がタッチ(選択)されたのか、またタッチ(選択)が解除されたのかなどを判断する。なお、カメラ1、2やプロジェクタ3への接続に用いられるネットワークは、有線または無線を問わず、Local Area Network(LAN)やVirtual Private Network(VPN)などの任意の通信網が挙げられる。
また、カメラ1、2のシャッタータイミングは必ずしも同じでなくてもよい。つまり、カメラ1、2は非同期カメラであってよい。さらに、情報操作表示システム100は、カメラを3台以上有していてもよい。また、プロジェクタ3と、情報処理装置10とはネットワークを介して接続されるものとしたが、接続されていなくてもよい。なお、カメラ1、2による撮影の対象物は、投影されたドキュメントの操作者の手や指である場合を例に説明するが、これに限定されない。例えば、対象物は、ペンや棒などであってもよい。
次に、図2を用いて、実施例1にかかる情報操作表示システム100のハードウェア構成について説明する。図2は、ステレオカメラである場合の情報操作表示システムのハードウェア構成を示す図である。図2に示すように、情報操作表示システム100では、テーブル5上に設置された装置でステレオカメラとして2台のカメラ1、2およびプロジェクタ3が固定台4により固定されている。2台のカメラ1、2およびプロジェクタ3は、有線または無線でコンピュータに接続されている。
各カメラ1、2は、テーブル面からLcの高さに、テーブル面と並行に設置されており、2台のカメラ1、2の距離はDである。プロジェクタ3は、2台のカメラ1、2の中央にテーブル面からLpの高さで設置されている。なお、Lc、Lp、Dは実空間上での長さであり、単位はたとえばmmである。カメラ1、2は、水平方向画角αch、垂直方向画角αcvを持ち、2台ともこれらの値や焦点距離、撮影可能な画像サイズは同じである。プロジェクタ3は、水平方向にαph、垂直方向にαpvの画角を持つ。カメラ1、2、プロジェクタ3ともに水平画角のほうが垂直画角よりも大きいものとする。
ここで、情報操作表示システム100の使用例について説明する。例えば、情報操作表示システム100の使用例として、プロダクトデザインへの確認がある。色、パッケージデザインが決まっていない製品モックアップをテーブルの上に置き、プロジェクタ3により製品モックアップに色を重畳表示したり、絵を付けたりして、製品パッケージのデザインを実物で検討することができる。
また、例えば、情報操作表示システム100では、手指のジェスチャを認識することにより直感的な操作も実現できる。例えば、モックアップを指で触り、触った箇所にプロジェクタ3で色を表示していくことで、絵の描画ができる。さらに空中の3次元空間を使ったジェスチャにより、表示内容を制御することができる。例えば、空中で手を左右に振るジェスチャにより、表示色を赤→黄色→緑→青→紫といったように別の色に切り替えることができる。また、手を上下に移動することにより、表示色の濃度を変えることもできる。
[情報処理装置の構成]
次に、図3を用いて、実施例1にかかる情報処理装置10について説明する。図3は、情報処理装置の全体構成を示す図である。図3に示すように、情報処理装置10は、通信I/F(インタフェース)部11と、表示部12と、入力部13と、記憶部14と、制御部15とを有する。
通信I/F部11は、他の装置との間で通信制御を行うインタフェースである。通信I/F部11は、ネットワークを介して各種情報を受信する。例えば、通信I/F部11は、カメラ1、2からドキュメントや操作対象物を撮影した画像を受信する。かかる通信I/F部11の一態様としては、LANカードなどのネットワークインタフェースカードが挙げられる。
表示部12は、各種情報を表示する表示デバイスである。例えば、表示部12としては、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)などの表示デバイスが挙げられる。表示部12は、各種情報を表示する。例えば、表示部12は、記憶部14に格納される各情報を表示する。
入力部13は、各種の情報を入力する入力デバイスである。例えば、入力部13としては、マウス、キーボード、タッチセンサなどの入力デバイスが挙げられる。入力部13は、情報処理装置10のユーザから入力された情報を制御部15へ出力する。例えば、入力部13は、後記する、3次元計測可能領域情報141、3次元座標位置情報142、アラートパターン情報143などの元となる情報を受け付けると、制御部15へ出力し、制御部15経由で記憶部14に記憶させる。
記憶部14は、ハードディスク、SSD(Solid State Drive)、光ディスクなどの不揮発性の記憶装置である。なお、記憶部14は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。
記憶部14は、制御部15で実行されるOS(Operating System)や各種プログラムを記憶する。また、記憶部14は、プログラムで用いられる各種データやプログラムにより生成された各種データを記憶する。例えば、記憶部14は、3次元計測可能領域情報141と、3次元座標位置情報142と、アラートパターン情報143とを記憶する。
3次元計測可能領域情報141は、操作対象物の3次元座標位置が計測可能な3次元計測可能領域の3次元座標に関する情報である。この3次元計測可能領域情報141は、予め規定されて記憶される情報である。ここで、図4を用いて、3次元計測可能領域について説明する。図4は、3次元計測可能領域を示す図である。図4に示すように、カメラ1、2からテーブル面までの3次元の視野は、四角錐の形状になり、四角錐内の一定エリアのみが3次元計測可能領域となる。実空間の3次元座標系は、また、図4で示すようにカメラ1、カメラ2の設置位置の中央の点を原点(0,0,0)とし、左右方向をX軸、奥行方向をY軸、上下方向をZ軸とする。3次元座標の単位は、たとえばmmである。また、X軸がカメラの水平画角、Y軸がカメラの垂直画角に対応する。なお、3次元計測可能領域の規定方法については、後に図8を用いて詳述する。
また、情報操作表示システム100全体のサイズを小さくするため、高さを低くしようとする場合には、広角のカメラを用いることが有効である。図5Aおよび図5Bに、画角がそれずれ異なるカメラの視野範囲を示す。図5Aおよび図5Bに示すように、テーブル面での視野範囲を同じ大きさにしようとすると、図5Aに例示するカメラの画角の狭いカメラに比べて、図5Bに例示する画角の広いカメラではカメラの高さを低くすることができる。しかし、広角のカメラでは、ジェスチャを行う手指の高さによって視野範囲が大きく変わる。このことは、ユーザがジェスチャを行う上で、ジェスチャ視野範囲、すわなち、3次元計測可能領域から外れやすくなってしまう。また、広角なカメラほど、ユーザは3次元計測可能な領域を認知しづらくなる。
3次元座標位置情報142は、後述する計測部152によって計測された操作対象物である手指の3次元座標位置に関する情報である。また、アラートパターン情報143は、プロジェクタ3により表示される、3次元計測可能領域の境界に手指が近づいたことを知らせるアラートパターンの形状や色などに関する情報である。このアラートパターン情報143は、後述する表示部153がアラートパターンを表示する際に参照される情報である。
制御部15は、情報処理装置10を制御するデバイスである。制御部15としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部15は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。例えば、制御部15は、各種のプログラムが動作しており、各種の処理部として機能する。制御部15は、取得部151と、計測部152と、表示部153とを有する。
取得部151は、カメラ1、2により撮像された撮影画像を取得する。例えば、取得部151は、毎秒所定回(例えば、60回)2台のカメラ1、2からの画像を取得する。取得部151は、図6Aに例示するような画像を2台のカメラ1、2から取得する。図6Aの(a)は、カメラ1により撮影された撮影画像であり、図6Aの(b)は、カメラ2により撮影された撮影画像である。図6Aの(a)に例示する撮影画像と、図6Aの(b)に例示する撮影画像とでは、手指とプロジェクタにより投影された画像との位置関係が異なる。
そして、取得部151は、撮影画像を取得した後、取得した撮影画像の中から手指領域のみを抽出する。例えば、取得部151は、画像における各画素の色情報、および抽出するための色に関する条件に基づき、肌色領域を検出し、撮影画像の中から手指領域のみを抽出する。
例えば、対象物が手である場合には、取得部151は、手の色を示す色情報と、取得した画像における各画素の色とに基づき、手の領域を検出する。色情報としては、例えば、以下の式(1)および式(2)を用いる。なお、式(1)は、画像の画素値がHSV表色系で示されたときの色相(H)の値に関する条件を示す。式(2)は、HSV表色系で示されたときの彩度(S)の値に関する条件を示す。
Figure 0006044426
Figure 0006044426
そして、取得部151は、検出した対象物の領域の面積を算出する。例えば、取得部151は、取得した画像における画素のうち、色に関する条件に該当する画素に「1(黒)」を設定し、該当しない画素に「0(白)」を設定することで、二値画像を生成する。そして、取得部151は、その領域の画素数を面積として検出する。なお、画像における色がHSV表色系以外の表色系で表現されている場合、取得部151は、画像における色をHSV表色系へ変換する。
図6Aおよび図6Bは、対象物の領域を抽出する処理を説明する図である。図6Aは、取得した画像を示す図である。なお、図6Aは、2つのカメラ1、2から各々取得した画像のうちの一方である。ただし、取得部151は、各々の画像に対して、同様の処理を実行することで、各々の画像における操作対象物の領域を抽出する。例えば、図6Aに示す画像において、手6、物体7、物体8および背景が撮影されているとする。ここで、手6と、物体7と、物体8とは、実際の画像において各々異なる色を有するものとする。
図6Bは、図6Aに対応する二値画像である。二値画像においては、手6に対応する手領域60のみが示されている。つまり、図6Aの画像に対して、手領域60を検出する処理を実行することで、図6Aの画像において色に関する条件に合致する画素からなる領域が、手領域60として二値画像に表される。
そして、取得部151は、対象物の領域の形状に基づき、例えば、特徴点として、指の先端部分を構成する画素を検出する。具体的には、図6Bにおける手領域60の形状を利用して、特徴点を検出する。そして、取得部151は、各々の二値画像における特徴点の座標(x,y)を取得する。
ここで、特徴点の検出においては、指の先端の形状モデルと、抽出した手領域60の形状とのパターンマッチングが利用される。また、手領域60の形状を認識するとともに、指領域を抽出し、指領域の傾きを利用する方法が用いられてもよい。例えば、特開2003−346162号公報に開示の技術が利用される。
計側部152は、取得部151によって取得された撮影画像に含まれる操作対象物の3次元座標位置を計測する。例えば、計測部152は、手指の3次元座標(x,y,z)を検出する。この座標は手指のうち、特定の指先、たとえば人差し指の先端の座標でもよい。また、すべての指先について複数個座標を検出してもよい。また、複数個の指先の座標から求めた手の甲や掌の画像中の中心の座標でもよい。手指の3次元座標の検出方法としては、ステレオ視による方法がある。この場合には、計測部152は、まず撮影画像のカメラ座標系における手指の座標を検出する。
例えば、計測部152は、カメラ1の人差し指座標F1b=(X1b,Y1b)、カメラ2の人差し指座標F2b=(X2b,Y2b)を検出する。そして、X2bとX1bとの距離をもとに三角測量の原理で3次元座標を求める。そして、計測部152は、検出した手指領域の形状や過去の手指領域の形状からの変化をもとにジェスチャを検出し、所定のジェスチャであるか否かを判定する。この結果、計測部152は、所定のジェスチャであると判定した場合、つまり、操作に関係するジェスチャであると判定した場合には、アラートパターンを表示する旨の指示を表示部153に通知する。
また、計測部152は、検出した手指の3次元座標をもとに、次のフレームでの手指の3次元座標(x’,y’,z’)を予測してもよい。計測部152は、過去の手指の3次元座標位置と現在の手指の3次元座標位置とを比較し、該3次元座標位置の変化に基づいて、手指の3次元座標位置を予測する。例えば、検出した手指の情報をもとに表示を行う場合、画像の撮影時刻から表示時刻までに時差が発生する。この間に手指が移動することがあるため、手指3次元座標を予測し、移動先に合わせた表示を行うと、意図した位置にずれなく後述するアラートパターンを表示することができる。予測方法としては、取得した3次元座標(x,y,z)および過去のフレームにおける手指の3次元座標(x,y,z)とその取得時刻から、時刻から座標に変換する近似式を求め、次のフレームの時刻に表示すべき位置を予測する。
続いて、計測部152は、手指の3次元座標が3次元計測可能領域のどこに存在しているかを判定する。ここで、3次元計測可能領域の規定方法を以下で説明する。図8に例示する3次元座標系において、カメラ1の設置座標が(−D/2,0,0)、カメラ2の設置座標は(D/2,0,0)である。さらに、カメラの水平画角αch、垂直画角αcvから、レンズからのZ軸方向の距離zにおける横視野範囲Rh(z)がRh(z)=2×z×tan(αch/2)、縦視野範囲Rv(z)はRv(z)=2×z×tan(αcv/2)とあらわせる。なお、tan(θ)は、角度θにおける正接の値を示す。3次元計測可能領域は、2台のカメラ1、2の視野範囲が重なる場所としてあらわせるため、レンズからのZ軸方向の距離zにおけるX,Y方向の3次元計測可能領域は、以下に示すようになる。X方向の3次元計測可能領域は、「X座標最小値 minX(z)=−(Rh(z)−D)/2」、「X座標最大値 maxX(z)=(Rh(z)−D)/2」の範囲の座標としてあらわせる。また、Y方向の3次元計測可能領域は、「Y座標最小値 minY(z)=−Rv(z)/2」、「Y座標最小値 minY(z)=Rv(z)/2」の範囲の座標としてあらわせる。また、3次元計測可能領域のZ座標最大値は、テーブル面となるため、「Z座標最大値 maxZ=Lc」となる。
ここで、手指がカメラ1、2に近づきすぎると、手指全体がカメラに写らずジェスチャとして認識できなくなるため、3次元計測可能領域のZ座標の最小値minZは、手が写る最小の距離とする。手のサイズを図7で示すようにX方向Sx、Y方向Syとすると、撮影画像の短辺Y方向の視野範囲がSyと同一になるZ座標がminZとなるためRv(minZ)=Syとなり、これを解くと「Z座標最小値 minZ=Sy/(2×tan(αcv/2))」となる。図7は、手の検出サイズを示す図である。
このようなX,Y,Zの最小値、最大値を持つ3次元計測可能領域を示す立体とその対応座標は図8のようになる。以上のようにして、手指の3次元座標(x,y,z)が与えられると、3次元計測可能領域minX(z),maxX(z),minY(z),maxY(z),minZ,maxZが決定される。図8は、3次元計測可能領域の3次元座標を示す図である。
表示部153は、計測部152によって計測された3次元座標位置と、カメラ1、2により定まる、操作対象物の3次元座標位置が計測可能な3次元領域の境界との距離に基づいて、操作対象物に画像を表示するようにプロジェクタ3を制御する。表示部153は、計測部152によりジェスチャが検出された後、後述するように、アラートパターンの生成、表示処理を行う。アラートパターンの表示有無は、ジェスチャの状態やアプリケーションの状態によって切り替えてもよい。例えば、アラートパターンは5本の指をすべて開いている場合にのみ表示することができる。また、アプリケーションが対象物、たとえば製品モックアップに色を表示している場合にのみアラートパターンを表示するようにすることもできる。ここでアラートパターンの表示を行わないと判定された場合には、以後の処理は行われない。
例えば、まず、表示部153は、3次元計測可能領域minX(z),maxX(z),minY(z),maxY(z),minZ,maxZを用いて、アラートパターンを生成する。3次元エリア上で手指を動かした場合のアラートパターンとその表示位置の例について図9A〜図11Cを用いて説明する。図9A〜図9Cは、手指をX方向に移動した場合のアラート線の表示を示す図である。図10A〜図10Cは、手指をY方向に移動した場合のアラート線の表示を示す図である。図11A〜図11Cは、手指をY方向に移動した場合のアラート線の表示を示す図である。
図9A〜図9Cは、操作者が、図9A→図9B→図9Cの順で右方向(X軸プラス方向)に移動した場合の図である。破線は、手指のZ座標におけるXY座標の3次元計測可能領域を示す。なお、この破線は、実際にはプロジェクタ3による表示は行われない線である。また、図9A〜図9Cでは、アラートパターンとしてアラート線が手指の一部に表示されている。アラート線は特定の色(たとえば赤や緑)の線分で、プロジェクタにより手指に照射表示される。図9Aでは、手指上のminY(z)を示す位置にアラート線が表示される。図9Bでは、minY(z)に加えmaxX(z)を示す線分も表示される。図9Cでは、maxX(z)を示す線分が表示される。線分を表示する際には、手指の3次元座標(x,y,z)から、3次元計測可能領域のX方向の最小値minX(z)までの距離distX1、最大値maxX(z)までの距離distX2を求める。distX1は、式「distX1=x−minX(z)」により求めることができる。また、distX2は、式「distX2=maxX(z)−x」により求めることができる。なお、手指の3次元座標は、たとえば図12で例示するように、撮影画像中の手指の領域の中心座標について、3次元計測を行った座標とする。図12は、手指の中心座標を示す図である。
そして、distX1<Sx/2+M1、または、distX2<Sx/2+M2となる場合に縦線のアラート線を表示することを決定する。M1、M2はマージンであり、0以上のプラスの固定値である。
アラート線はdistX1<Sx/2+M1の場合には、点1(x−Sx/2+distX1×C1,y−Sy/2,z)、点2(x−Sx/2+distX1×C1,y+Sy/2,z)の2点を結ぶ線分として決めることができる。また、distX2<Sx/2+M2の場合、点1(x+Sx/2−distX2×C2,y−Sy/2,z)、点2(x+Sx/2−distX2×C2,y+Sy/2,z)の2点を結ぶ線分として表示位置を決めることができる。
C1、C2は係数で、たとえばC1=(Sx/2)/(Sx/2+M1)、C2=(Sx/2)/(Sx/2+M2)と規定できる。このようにして決定したアラート線は、手指を3次元計測可能領域の右端(Xプラス方向)に近づけるにつれ、手指の右側から出現し、左側へ移動していく。手指の一番左までアラート線が移動すると、3次元計測可能領域から外れる。逆に、手指を3次元計測可能領域の左端(Xマイナス方向)に近づけるにつれ、アラート線が手指の左側から出現し、右側へ移動していく、手指の一番右までアラート線が移動すると、3次元計測可能領域から外れる。なお、Y方向のアラート線の長さについては、手からはみ出さないよう短く設定してもよい。
図10A〜図10Cは、操作者が、図10A→図10B→図10Cの順で手前方向(Y軸マイナス方向)に移動した場合の図である。図10A〜図10Cに例示するように、手指上のminY(z)を示す位置にアラート線が表示されるが、手指の移動に合わせてアラート線も手首側から指先側へと移動する。線分を表示する際には、手指の3次元座標(x,y,z)から、3次元計測可能領域のY方向の最小値までの距離distY1、最大値までの距離distY2を求める。distY1は、式「distY1=y−minY(z)」により求めることができ、distY2は、式「distY2=maxY(z)−y」により求めることができる。
そして、ここで、表示部153は、distY1<Sy/2+M1、または、distY2<Sy/2+M2となる場合に、縦線のアラート線を表示することを決定する。また、アラート線は、distY1<Sy/2+M1の場合に、点1(x−Sx/2,y−Sy/2+distY1×C1,z)、点2(x+Sx/2,y−Sy/2+distY1×C1,z)の2点を結ぶ線分である。また、アラート線は、distY2<Sy/2+M2の場合、点1(x−Sx/2,y+Sy/2−distY2×C2,z)、点2(x+Sx/2,y+Sy/2−distY2×C2,z)の2点を結ぶ線分として表示位置を決めることができる。C1、C2は係数で、たとえば、C1=(Sy/2)/(Sy/2+M1)、C2=(Sy/2)/(Sy/2+M2)と規定できる。
図11A〜図11Cは、操作者が、図11A→図11B→図11Cの順で上方向(Z軸マイナス方向)に移動した場合の図である。図10A〜図10Cに例示するように、手指上のminY(z)を示す位置にアラート線が表示されるが、手指の移動に合わせてアラート線も手首側から指先側へと移動する。
Z軸については、手指の3次元座標からminZまでの距離distZ=−minZを元に判定する。maxZは、カメラからテーブル面までの距離であり、テーブル面より下に手指が存在することはないため、最大値については考慮しなくてよい。
そして、M3を0より大きい固定値とすると、distZ<M3となる場合にアラート線を表示するようにする。なお、プロジェクタによる手指へのアラート線表示は、2次元であり、縦横線としてあらわせるため、Z軸は縦横線のどちらかに割り当てて、動かす。たとえば、min(a,b)をa,bの小さいほうの値を返す式とする。そして、min(distX1,distX2)<min(distY1,distY2)ならば、縦線で、点1(x−Sx/2+distZ×C3,y−Sy/2,z)、点2(x−Sx/2+distZ×C3,y+Sy/2,z)の2点を結ぶ線分として表示する。
ここで、表示部153は、min(distX1,distX2)≧min(distY1,distY2)ならば、横線で、点1(x−Sx/2,y−Sy/2+distZ×C3,z)、点2(x+Sx/2,y−Sy/2+distZ×C3,z)の2点を結ぶ線分として表示する。
表示部153は、X、Y方向のどちらもアラート線を表示する条件を満たした場合には縦横のアラート線を両方表示する。また、表示部153は、Z方向もアラート線を表示する条件を満たした場合には、Z軸に割り当てられた縦線または横線とX,Y軸の縦線または横線の両方あるいはどちらかを表示する。
また、表示部153は、アラートパターンとして、線ではなく円や矩形などの図形を使用することもできる。この場合には、distX1,distX2,distY1,distY2,distZに比例/反比例させて表示色の濃度や色、手指上の表示サイズを変更してもよい。図13A〜図13Cの例は、手指をXプラス方向へ移動した場合のアラート円の表示例である。表示部153は、3次元計測可能領域の端に近づくにつれ、表示色の濃度を落としたアラートパターンを生成する。また、表示部153は、手指が3次元計測可能領域の端に近づくにつれ、異なる表示色のアラートパターンを生成して表示してもよい。例えば、手指と3次元計測可能領域の境界が所定の距離以上離れている場合には、青のアラートパターンを生成し、手指と3次元計測可能領域の境界との距離が所定の距離未満である場合には、赤のアラートパターンを生成し、表示するようにしてもよい。また、表示部153は、手指が3次元計測可能領域の端に近づくにつれ、サイズが大きくなるアラートパターンを生成して表示するようにしてもよい。
続いて、表示部153は、生成したアラートパターンを表示するようにプロジェクタ3を制御する。アラート線を表示する場合には、表示色をユーザの手に表示して視認可能な色、たとえば緑とする。また、線の太さについても視認可能な一定の太さを持つものとする。アラート線の表示位置については、3次元座標上で決定しているが、これをプロジェクタ3で表示可能な2次元座標に変換する必要がある。以下で3次元座標(a,b,c)からプロジェクタ座標(xp,yp)への変換について説明する。
プロジェクタ3のテーブル面から設置高さをLp、プロジェクタの水平画角αph、垂直画角αpvとし、プロジェクタの表示画素数横Spw、表示画素数縦Sphとする。プロジェクタのZ軸方向の距離cにおける横投影範囲Rph(c)はRph(c)=2×c×tan(αph/2)、縦投影範囲Rpv(c)はRpv(c)=2×c×tan(αpv/2)とあらわせる。そして投影範囲の3次元座標系でのX座標最小値が「minPX(c)=−Rph(c)/2」となり、X座標最大値が「maxPX(c)=Rph(c)/2」となり、Y座標最小値が「minPY(c)=−Rpv(c)/2」となり、Y座標最大値が「maxPY(c)=Rpv(c)/2」となる。
XYの投影範囲がプロジェクタ座標系となるため、3次元座標系の高さcにおいて、プロジェクタ座標系の(0,0)は、3次元座標(minPx(c),minPy(c),c)、プロジェクタ座標(Spw,Sph)は、3次元座標(maxPx(c),maxPy(c),c)に相当する。これをもとに、以下の(3)式、(4)式でxp,ypをa,b,cを用いて表すことができる。
Figure 0006044426
Figure 0006044426
このようにして求めた3次元座標(a,b,c)をプロジェクタ座標(xp,yp)に変換し、xp,ypに表示パターンを出力することにより、手指にアラートパターンを表示する。なお、xp<0またはyp<0またはxp≧Spwまたはyp≧Sphの場合にはアラートパターンは表示されない。以上のようにして、アラートパターンをユーザの手指に表示する。最後に、表示部153において、対象物への照射色の変更など、ジェスチャに応じたアプリケーションの表示を実施する。以上の処理はカメラ1、2から画像が取得される毎に実施される。
[情報処理装置による処理]
次に、図14を用いて、実施例1に係る情報処理装置10による処理を説明する。図14は、情報処理装置による、アラート線表示処理の手順を示すフローチャートである。
図14に示すように、情報処理装置10の取得部151は、カメラ1、2により撮像された撮影画像を取得する(ステップS101)。例えば、取得部151は、毎秒60回、2台のカメラ1、2からの画像を取得する。続いて、取得部151は、撮影画像の中から手指領域のみを検出する。
そして、取得部151は、撮影画像の中から手指領域のみを抽出する(ステップS102)。例えば、取得部151は、画像における各画素の色情報、および抽出するための色に関する条件に基づき、肌色領域を検出し、撮影画像の中から手指領域のみを抽出する。
続いて、計側部152は、取得部151によって取得された撮影画像に含まれる手指の3次元座標位置(x,y,z)を検出する(ステップS103)。そして、計測部152は、検出した手指領域の形状や過去の手指領域の形状からの変化をもとにジェスチャを認識する(ステップS104)。
そして、計測部152は、所定のジェスチャであるか否かを判定する(ステップS105)。例えば、計測部152は、選択操作や決定操作などの操作に関するジェスチャであるか否かを判定する。この結果、計測部152によって所定のジェスチャでないと判定した場合、つまり、操作と関係ないジェスチャであると判定された場合には(ステップS105否定)、表示部153は、アプリケーションの表示を実施する(ステップS109)。
また、計測部152によって所定のジェスチャであると判定した場合、つまり、操作に関係するジェスチャであると判定された場合には(ステップS105肯定)、表示部153は、アラートパターンの表示位置を決定する(ステップS106)。そして、表示部153は、アラートパターンを表示するか否かを判定する(ステップS107)。例えば、表示部153は、手指の3次元座標が、3次元計測可能領域の境界に近づいたか否かに応じて、アラートパターンを表示するか否かを判定する。
この結果、表示部153は、アラートパターンを表示しないと判定した場合には(ステップS107否定)、アプリケーションの表示を実施する(ステップS109)。また、表示部153は、アラートパターンを表示しないと判定した場合には(ステップS107肯定)、アラート線を表示し(ステップS108)、アプリケーションの表示を実施する(ステップS109)。
[実施例1の効果]
上述してきたように、情報操作表示システム100は、カメラ1、2とプロジェクタ3と情報処理装置10とを有する。この情報処理装置10は、カメラ1、2により撮像された撮影画像を取得し、取得された撮影画像に含まれる操作対象物の3次元座標位置を計測する。そして、情報処理装置10は、計測された3次元座標位置と、カメラ1、2により定まる、手指の3次元座標位置が計測可能な3次元領域の境界との距離に基づいて、手指に画像を表示するようにプロジェクタを制御する。このため、情報処理装置10は、操作性を向上させることが可能である。
また、手指が3次元計測可能領域から外れる前に、手指上にアラートパターンが表示され、その表示状態により、同じ動きを続けると手指が検出領域から外れそうかについてユーザは認知できる。その結果、ユーザは計測可能領域から外すことなく手指を動かすことができる。また、アラート表示を手指に行うことで、ユーザは手指を見るだけで直感的にわかり、紙面や対象物への表示には影響を与えない効果もある。
また、実施例1によれば、情報処理装置10は、過去の操作対象物の3次元座標位置と現在の操作対象物の3次元座標位置とを比較し、該3次元座標位置の変化に基づいて、操作対象物の3次元座標位置を予測する。そして、情報処理装置10は、予測された操作対象物の3次元座標位置と、3次元領域の境界との距離に基づいて、操作対象物に画像を表示するようにプロジェクタ3を制御する。このため、情報処理装置10は、手指の3次元座標を予測し、移動先に合わせた表示を行うと、意図した位置にずれなく後述するアラートパターンを表示することができる。
また、実施例1によれば、情報処理装置10は、手指の3次元座標位置に応じて表示態様が変化する3次元領域の境界を示唆する縦線または横線を、操作対象物に表示するようにプロジェクタを制御する。このため、情報処理装置10は、3次元領域を把握させ、ユーザは計測可能領域から外すことなく手指を動かすことが可能である。
また、実施例1によれば、情報処理装置10は、手指の3次元座標位置と3次元領域の境界との距離に応じて色が変化する図形を、手指に表示するようにプロジェクタ3を制御する。このため、情報処理装置10は、色の変化により、計測可能領域から外れそうか否かをユーザに対して分かりやすく報知することができる。
また、実施例1によれば、情報処理装置10は、手指の3次元座標位置と3次元領域の境界との距離に応じて濃淡が変化する図形を、手指に表示するようにプロジェクタ3を制御する。このため、情報処理装置10は、濃淡の変化により、計測可能領域から外れそうか否かをユーザに対して簡易に報知することができる。
また、実施例1によれば、情報処理装置10は、手指の3次元座標位置と3次元領域の境界との距離に応じて表示サイズが変化する図形を、手指に表示するようにプロジェクタ3を制御する。このため、情報処理装置10は、図形の表示サイズの変化により、計測可能領域から外れそうか否かをユーザに対して簡易に報知することができる。
また、実施例1によれば、情報処理装置10は、手指による特定のジェスチャが検出された場合に、計測された手指の3次元座標位置と、3次元領域の境界との距離に基づいて、画像を手指に表示するようにプロジェクタ3を制御する。このため、情報処理装置10は、特定のジェスチャが検出されない場合には、画像の表示制御を行わないので、処理負荷を軽減することが可能である。
また、実施例1によれば、情報処理装置10は、起動しているアプリケーションが特定の状態である場合に、計測された手指の3次元座標位置と、3次元領域の境界との距離に基づいて、画像を手指に表示するようにプロジェクタ3を制御する。このため、情報処理装置10は、起動しているアプリケーションが特定の状態でない場合には、画像の表示制御を行わないので、処理負荷を軽減することが可能である。
さて、これまで開示のシステムに関する実施例について説明したが、開示の技術は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
(1)単眼カメラ
上記の実施例1では、カメラ2台で手指などを撮影するステレオカメラの例を説明したが、これに限定されるものではなく、カメラ1台で手指などを撮影する単眼カメラでもよい。ここで、図15を用いて、単眼カメラである場合の情報操作表示システム100Aのハードウェア構成について説明する。図15は、単眼カメラである場合の情報操作表示システムのハードウェア構成を示す図である。
図15に示すように、情報操作表示システム100Aでは、テーブル5上に設置された装置で単眼カメラとして1台のカメラ1およびプロジェクタ3が固定台4により固定されている。1台のカメラ1およびプロジェクタ3は、実施例1と同様に、有線または無線でコンピュータに接続されている。
また、図15に示すように、カメラ1は、テーブル面からLcの高さに、テーブル面と並行に設置されている。プロジェクタ3は、カメラ1の中央にテーブル面からLpの高さで設置されている。
次に、図16を用いて、単眼カメラの場合の3次元計測可能領域について説明する。図16は、単眼カメラである場合の3次元計測可能領域を示す図である。図16に示すように、カメラ1からテーブル面までの3次元の視野は、四角錐の形状になり、四角錐内の一定エリアのみが3次元計測可能領域となる。
また、3次元計測可能領域は、1台のカメラ1の視野範囲となる。このため、レンズからのZ軸方向の距離zにおけるX,Y方向の3次元計測可能領域は、「X座標最小値 minX(z)=−(Rh(z)/2」、「X座標最大値 maxX(z)=(Rh(z)/2」、「Y座標最小値 minY(z)=−Rv(z)/2」、「Y座標最小値 minY(z)=Rv(z)/2」の範囲の座標としてあらわせる。また、3次元計測可能領域のZ座標最大値は、テーブル面となるため、「Z座標最大値 maxZ=Lc」となる。また、3次元計測可能領域のZ座標最大値は、テーブル面となるため、「Z座標最大値 maxZ=Lc」となる。Z座標最小値は、「Z座標最小値 minZ=Sy/(2×tan(αcv/2))」となる。
(2)視野範囲
また、上記の実施例1では、視野範囲が四角である場合の例を説明したが、これに限定されるものではなく、視野範囲が円であってもよい。ここで、図17を用いて、視野範囲が円である場合における3次元計測可能領域について説明する。図17は、視野範囲が円で取得可能なステレオカメラの3次元計測可能領域を示す図である。図17に示すように、カメラの画角をαとすると、レンズからのZ軸方向の距離zにおける視野範囲R(z)は、「R(z)=2×z×tan(α/2)」となる。
この視野範囲をもとに、3次元計測可能領域は、2台のカメラ1、2の視野範囲が重なる場所としてあらわせる。このため、レンズからのZ軸方向の距離zにおけるX,Y方向の3次元計測可能領域は、「X座標最小値 minX(z)=−(Rh(z)−D)/2」、「X座標最大値 maxX(z)=(Rh(z)−D)/2」、「Z座標最大値 maxZ=Lc」、「Z座標最小値 minZ=Sy/(2×tan(αcv/2))」となる。
また、図18を用いて、Y座標の最大最小値について説明する。図18は、視野範囲が円で取得可能なステレオカメラの3次元計測可能領域におけるY座標の最大最小値について説明する図である。図18に示すように、視野範囲の半径rは、「r=z×tan(α/2)」でもとめられる。また、図18に示す角度θは、「θ=acos(D/(2×r)」でもとめられる。ここで「acos」とは、逆余弦(アークコサイン)の略である。このため、Y座標最大値は、「maxY(z)=tanθ×2/D」となり、Y座標最小値は、「minY(z)=−tanθ×2/D」となる。
(3)システム構成等
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示す取得部151、計測部152、表示部153の各処理部が適宜統合または分割されてもよい。また、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(4)プログラム
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。図19は、表示プログラムを実行するコンピュータを示す図である。
図19に示すように、コンピュータ300は、CPU310、ROM(Read Only Memory)320、HDD(Hard Disk Drive)330、RAM(Random Access Memory)340を有する。これら310〜340の各部は、バス400を介して接続される。
ROM320には上記実施例の各処理部と同様の機能を発揮する表示プログラム320aが予め記憶される。例えば、上記実施例の制御部15同様の機能を発揮する表示プログラム320aを記憶させる。なお、表示プログラム320aについては、適宜分離してもよい。
HDD330には、各種データを記憶する。例えば、HDD330は、OSや各種データを記憶する。
そして、CPU310が、表示プログラム320aをROM320から読み出して実行することで、実施例の各処理部と同様の動作を実行する。すなわち、表示プログラム320aは、実施例の制御部15と同様の動作を実行する。
なお、上記した表示プログラム320aについては、必ずしも最初からROM320に記憶させることを要しない。表示プログラム320aはHDD330に記憶させてもよい。
例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
1,2 カメラ
3 プロジェクタ
10 情報処理装置
11 通信I/F部
12 表示部
13 入力部
14 記憶部
15 制御部
100 情報操作表示システム
141 3次元計測可能領域情報
142 3次元座標位置情報
143 アラートパターン情報
151 取得部
152 計側部
153 表示部

Claims (10)

  1. カメラとプロジェクタと情報処理装置とを有する情報操作表示システムであって、
    前記情報処理装置は、
    前記カメラにより撮像された撮影画像を取得する取得部と、
    前記取得部によって取得された撮影画像に含まれる操作対象物の3次元座標位置を計測する計測部と、
    前記計測部によって計測された3次元座標位置と、前記カメラにより定まる、操作対象物の3次元座標位置が計測可能な3次元領域の境界との距離に基づいて、前記操作対象物に画像を表示するように前記プロジェクタを制御する表示部と、
    を有することを特徴とする情報操作表示システム。
  2. 前記計測部は、過去の操作対象物の3次元座標位置と現在の操作対象物の3次元座標位置とを比較し、該3次元座標位置の変化に基づいて、操作対象物の3次元座標位置を予測し、
    前記表示部は、前記計測部によって予測された操作対象物の3次元座標位置と、前記3次元領域の境界との距離に基づいて、前記操作対象物に画像を表示するように前記プロジェクタを制御することを特徴とする請求項1に記載の情報操作表示システム。
  3. 前記表示部は、前記操作対象物の3次元座標位置に応じて表示態様が変化する前記3次元領域の境界を示唆する縦線または横線を、前記操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項1または請求項2に記載の情報操作表示システム。
  4. 前記表示部は、前記操作対象物の3次元座標位置と前記3次元領域の境界との距離に応じて色が変化する図形を、前記操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項1または請求項2に記載の情報操作表示システム。
  5. 前記表示部は、前記操作対象物の3次元座標位置と前記3次元領域の境界との距離に応じて濃淡が変化する図形を、前記操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項1または請求項2に記載の情報操作表示システム。
  6. 前記表示部は、前記操作対象物の3次元座標位置と前記3次元領域の境界との距離に応じて表示サイズが変化する図形を、前記操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項1または請求項2に記載の情報操作表示システム。
  7. 前記表示部は、前記操作対象物による特定のジェスチャが検出された場合に、前記計測部によって計測された操作対象物の3次元座標位置と、前記3次元領域の境界との距離に基づいて、前記画像を前記操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項1〜6のいずれか一つに記載の情報操作表示システム。
  8. 前記表示部は、起動しているアプリケーションが特定の状態である場合に、前記計測部によって計測された操作対象物の3次元座標位置と、前記3次元領域の境界との距離に基づいて、前記画像を前記操作対象物に表示するように前記プロジェクタを制御することを特徴とする請求項1〜7のいずれか一つに記載の情報操作表示システム。
  9. カメラにより撮像された撮影画像を取得し、
    前記撮影画像に含まれる操作対象物の3次元座標位置を計測し、
    前記3次元座標位置と、前記カメラにより定まる、前記操作対象物の3次元座標位置が計測可能な3次元領域の境界との距離に基づいて、前記操作対象物に画像を表示するようにプロジェクタを制御する
    処理をコンピュータに実行させることを特徴とする表示プログラム。
  10. カメラにより撮像された撮影画像を取得し、
    前記撮影画像に含まれる操作対象物の3次元座標位置を計測し、
    前記3次元座標位置と、前記カメラにより定まる、前記操作対象物の3次元座標位置が計測可能な3次元領域の境界との距離に基づいて、前記操作対象物に画像を表示するようにプロジェクタを制御する
    ことを含んだことを特徴とする表示方法。
JP2013077240A 2013-04-02 2013-04-02 情報操作表示システム、表示プログラム及び表示方法 Expired - Fee Related JP6044426B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013077240A JP6044426B2 (ja) 2013-04-02 2013-04-02 情報操作表示システム、表示プログラム及び表示方法
US14/164,384 US9645735B2 (en) 2013-04-02 2014-01-27 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013077240A JP6044426B2 (ja) 2013-04-02 2013-04-02 情報操作表示システム、表示プログラム及び表示方法

Publications (2)

Publication Number Publication Date
JP2014203176A JP2014203176A (ja) 2014-10-27
JP6044426B2 true JP6044426B2 (ja) 2016-12-14

Family

ID=51620317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013077240A Expired - Fee Related JP6044426B2 (ja) 2013-04-02 2013-04-02 情報操作表示システム、表示プログラム及び表示方法

Country Status (2)

Country Link
US (1) US9645735B2 (ja)
JP (1) JP6044426B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9734582B2 (en) * 2013-02-21 2017-08-15 Lg Electronics Inc. Remote pointing method
JP6047763B2 (ja) * 2014-09-03 2016-12-21 パナソニックIpマネジメント株式会社 ユーザインターフェース装置およびプロジェクタ装置
JP6103025B2 (ja) * 2014-12-22 2017-03-29 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
US10482670B2 (en) * 2014-12-30 2019-11-19 Qingdao Goertek Technology Co., Ltd. Method for reproducing object in 3D scene and virtual reality head-mounted device
CN104656902A (zh) * 2015-02-26 2015-05-27 华南理工大学 基于Android的视觉处理人机交互投影方法及系统
US10444006B2 (en) 2015-08-19 2019-10-15 Faro Technologies, Inc. Three-dimensional imager
US10455216B2 (en) * 2015-08-19 2019-10-22 Faro Technologies, Inc. Three-dimensional imager
EP3182250B1 (en) * 2015-12-18 2019-10-30 Aptiv Technologies Limited System and method for monitoring 3d space in front of an output unit for the control of the output unit
US11275498B2 (en) * 2016-08-31 2022-03-15 Sony Corporation Information processing system, information processing method, and program
CN108230383B (zh) * 2017-03-29 2021-03-23 北京市商汤科技开发有限公司 手部三维数据确定方法、装置及电子设备
JP2019053769A (ja) * 2018-12-04 2019-04-04 シャープ株式会社 タッチ検出装置、タッチ検出システム、タッチ検出方法、およびプログラム
CN110602358B (zh) * 2019-08-28 2021-06-04 维沃移动通信有限公司 一种图像采集方法及电子设备
CN112733577A (zh) * 2019-10-28 2021-04-30 富士通株式会社 检测手部动作的方法和装置
EP4339746A1 (en) * 2022-09-19 2024-03-20 ameria AG Touchless user-interface control method including time-controlled fading

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6463220B1 (en) * 2000-11-08 2002-10-08 Xerox Corporation Method and apparatus for indicating a field of view for a document camera
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
JP4789885B2 (ja) * 2007-07-26 2011-10-12 三菱電機株式会社 インタフェース装置、インタフェース方法及びインタフェースプログラム
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
JP5347673B2 (ja) * 2009-04-14 2013-11-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20100122383A (ko) * 2009-05-12 2010-11-22 삼성전자주식회사 좌표 예측을 통한 이미지의 출력 속도 향상 방법 및 장치
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
GB2483168B (en) * 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
JP5779923B2 (ja) * 2011-03-17 2015-09-16 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP2012208439A (ja) * 2011-03-30 2012-10-25 Sony Corp 投影装置、投影方法及び投影プログラム
US9229584B2 (en) * 2011-06-13 2016-01-05 Citizen Holdings Co., Ltd. Information input apparatus
US9210401B2 (en) * 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement

Also Published As

Publication number Publication date
US9645735B2 (en) 2017-05-09
JP2014203176A (ja) 2014-10-27
US20140292723A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP6044426B2 (ja) 情報操作表示システム、表示プログラム及び表示方法
JP6146094B2 (ja) 情報操作表示システム、表示プログラム、および、表示方法
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
JP6201379B2 (ja) 位置算出システム、位置算出プログラム、および、位置算出方法
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
KR100851977B1 (ko) 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
JP2016194799A (ja) 画像解析装置及び画像解析方法
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
CN107407959B (zh) 基于姿势的三维图像的操纵
US9035889B2 (en) Information processing apparatus and information processing method
US10970807B2 (en) Information processing apparatus and storage medium
WO2016103769A1 (ja) 操作入力装置、操作入力方法及びプログラム
JP2012238293A (ja) 入力装置
KR20150121069A (ko) 전자 디바이스에 의한 상호작용적 이미지 캐리커처링을 위한 시스템들 및 방법들
JP2014029656A (ja) 画像処理装置および画像処理方法
JP2016103137A (ja) ユーザインタフェース装置、画像処理装置及び制御用プログラム
JP2016018458A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2017117373A (ja) 操作装置とその制御方法、及びプログラム
KR20110087407A (ko) 카메라 시뮬레이션 시스템 및 이를 이용한 위치 감지 방법
JP6229554B2 (ja) 検出装置および検出方法
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2011002292A (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
JP6643825B2 (ja) 装置及び方法
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161031

R150 Certificate of patent or registration of utility model

Ref document number: 6044426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees