JP2007323660A - 描画装置、及び描画方法 - Google Patents

描画装置、及び描画方法 Download PDF

Info

Publication number
JP2007323660A
JP2007323660A JP2007166923A JP2007166923A JP2007323660A JP 2007323660 A JP2007323660 A JP 2007323660A JP 2007166923 A JP2007166923 A JP 2007166923A JP 2007166923 A JP2007166923 A JP 2007166923A JP 2007323660 A JP2007323660 A JP 2007323660A
Authority
JP
Japan
Prior art keywords
image
information
operating body
detected
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007166923A
Other languages
English (en)
Other versions
JP4513830B2 (ja
Inventor
Jiyunichi Rekimoto
純一 暦本
Nobuyuki Matsushita
伸行 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007166923A priority Critical patent/JP4513830B2/ja
Publication of JP2007323660A publication Critical patent/JP2007323660A/ja
Application granted granted Critical
Publication of JP4513830B2 publication Critical patent/JP4513830B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 多様な操作により描画を行うことのできる描画システムの提供。
【解決手段】 光を透過する平面を有する筐体よりなる描画装置であって、平面に画像情報を表示させる表示手段と、平面に対する操作体による複数の接触位置、および操作体の平面上における動きを検出するための検出手段と、検出手段により検出された操作体の接触位置と動きに基づいて、表示手段に表示させる画像情報を制御する制御手段とを有する。
【選択図】図1

Description

本発明は、インタラクティブな入出力が可能な表示システムを利用して描画を実現するための描画装置、及び描画方法に関するものである。
例えばコンピュータ装置などでは、様々なアプリケーションプログラムなどのもとで、ユーザの操作に応答してコンピュータ装置側が所定の反応を表示等によって提示する、いわゆるインタラクティブな入出力形態が広く採用されている。 そして、上記のようなインタラクティブな入出力が実現された環境のもとで、いわゆるドローやペインティングなどのソフトウェアを利用して、ユーザが行った所定の入力操作に従って線や図形などの描画を行うことが行われている。
例えば、上記のような描画の入力操作に用いる入力装置の1つとして、例えばタッチパネルやタブレットなどが広く知られている。タッチパネルは、パネル上に対して例えばユーザの指を接触させながら、任意の方向にスライド操作させるようにして、所要の操作を行うものである。また、タブレットは、専用のペンの先端をタブレットの操作面上に対して接触させながら動かすことで、このペン先の動きに対応した絵や文字などの画像がモニタ等に描画されるものである。
また、コンピュータ化されたホワイトボードとして機能するプロジェクションディスプレイも知られている。このようなプロジェクションディスプレイでは、例えばユーザが専用の赤外線発光ペンを利用して、上記ホワイトボード上に対して図形や文字などの描画操作を行うようにされる。
また、「ビデオプレイス」といわれるインタラクティブな効果をねらった装置が知られている。このビデオプレイスは、例えばビデオカメラを利用した芸術性を有する装置とされる。例えばビデオプレイスの鑑賞者は、ビデオカメラに自身の手あるいはその他の人体の一部をシルエットとして撮影させる。鑑賞者は、この撮影画像と例えば他の画像とが合成された何らかの画像をモニタ装置でみながら自在に手や人体の一部を動かすことにより、モニタ装置に表示される画像の反応や変化を楽しむことができるようになっている。
ところで、更に拡大されたインタラクティブな入出力環境のもとで描画を行おうとした場合、上記したようなこれまでの入力装置では次のような点で限界が見えてくる。
タッチパネルやタブレットを例に採った場合、ポインティングの操作は概して指又は専用のペン等に限定される。また、タッチパネルやタブレットの面上の空間での操作は行えず、操作面に対して指やペンなどの物理的な操作体をパネル面上に接触させる必要がある。更に、タッチパネルやタブレットは、その構造上比較的高価なので大型の操作パネルとしては好適でない。また、タッチパネルやタブレットに対する操作により得られる描画画像は、通常、タッチパネルやタブレット本体とは別体とされるモニタ装置などに対して表示されるので、その描画操作が間接的になる。
また、コンピュータ化されたホワイトボードとして機能するプロジェクションディスプレイの場合、操作画面の大型化は容易に実現可能なのであるが、例えば上記したように赤外線発光ペンなどの特殊なポインティングデバイスが必要となる点では、上記したタブレットと同様となる。
また、ビデオプレイスの場合には、手や人体のシルエットを利用して何らかのインタラクティブな操作を実現するため、この場合にも、その入出力間のインターフェイスが間接的であり、直接的な操作を望む場合には機能的に不十分となる。
このように、これまでの入力装置ではインタラクティブな入出力環境を強化拡大したうえで、描画を行おうとした場合には様々な障害となる要因が存在する。
そこで、本発明は上記した課題を解決するため、光を透過する平面を有する筐体よりなる描画装置であって、上記平面に画像情報を表示させる表示手段と、上記平面に対する操作体による複数の接触位置、および上記操作体の上記平面上における動きを検出するための検出手段と、上記検出手段により検出された上記操作体の接触位置と動きに基づいて、上記表示手段に表示させる画像情報を制御する制御手段とを有する。
また、上記表示手段は、四角形の形状を有する画像を表示し、上記制御手段は、上記四角形の領域内の対角線上にある頂点近傍の2点が上記操作体により同時に指定されているとき、上記2点の位置の変化に応じて上記四角形の画像を変形させて投影表示させるように上記表示手段を制御する。
また、上記制御手段は、上記2点の位置が上記四角形の重心を中心として回転するように変化した場合、上記四角形の画像を回転させて表示させるように上記表示手段を制御する。
また、上記制御処理装置は、上記2点の位置が離れるように変化した場合、上記四角形の画像を拡大させて表示させるように上記表示手段を制御する。
また、上記操作体の形状の情報を記憶する記憶手段をさらに有し、上記検出手段は、上記操作体の形状をさらに検出し、上記制御処理手段は、検出された上記操作体の形状と上記記憶手段の情報を比較することによって上記操作体の形状を特定することにより上記2点の位置を特定するようにする。
また、上記制御手段は、上記操作体による2点の接触位置を1対の対角点の位置として認識し、この1対の対角点の位置情報に基づいて四角形を描画する処理を制御する。
また、上記検出手段は、上記操作体の形状をさらに検出し、上記制御手段は、上記1対の対角点のそれぞれに対応して検出された上記操作体の形状に基づいて角度情報を認識し、この角度情報に基づいて対角を設定して四角形を描画する処理を制御する。
また、上記検出手段は、上記操作体の形状をさらに検出し、上記制御手段は、上記検出手段により検出された2点の位置情報を三角形の一辺の両端の2点として認識すると共に、このときに上記三角形の一辺の両端の2点の位置情報にそれぞれ対応して検出された上記操作体の形状に基づいて角度情報を認識し、上記三角形の一辺の両端の2点とされる位置情報と、上記角度情報とに基づいて設定した一辺の両端の角度とに基づいて三角形を描画する処理を制御する。
また、上記検出手段は、上記操作体の形状をさらに検出し、上記制御処理手段は、上記検出手段により検出された2点の位置情報を楕円形の長径又は短径の両端として設定すると共に、このときに上記2点の位置情報にそれぞれ対応して検出された上記操作体の形状に基づいて楕円形の曲率を設定し、上記楕円形の長径又は短径の両端とされる2点の位置情報と、上記曲率の設定情報とに基づいて楕円形を描画する処理を制御する。
また、上記検出手段は、上記操作体の形状をさらに検出し、上記制御処理手段は、上記検出手段により検出された位置情報を曲線又は直線としての描画画像上における位置指定情報として認識すると共に、このときに上記位置情報に対応して検出された上記操作体の形状に基づいて方向情報を設定し、上記位置指定情報の移動位置及び上記方向情報の変化に基づいて、上記曲線又は直線について変形を行う描画処理を制御する。
さらに、光を透過する平面を有する筐体よりなる描画装置における描画方法であって、上記平面に画像情報を表示し、上記平面に対する操作体による複数の接触位置、および上記操作体の上記平面上における動きを検出し、上記検出手段により検出された上記操作体の接触位置と動きに基づいて、上記表示手段に表示させる画像情報を制御するようにする。
以上説明したように本発明は、所定波長帯域の光又は電磁波を反射するなどしてこれに状態変化(この状態変化が検出画像情報として反映される)を与えることのできる物体であれば、操作を行うための操作体として成立するものである。つまり、操作のために特殊なポインティングデバイスを必要としないことになる。従ってこれまでの説明のように、例えばユーザ自身の手や指を用いることによって描画操作を行うことが可能とされる。
また、半透明面に近い位置(例えば半透明面の前面の中空位置)で操作体が認識可能なので、操作方法としても、操作パネルである半透明面に対して操作体を接触させることなくその前面の空間において操作を行って描画図形を描いたり、半透明面に接近してくる物体を認識することにより、例え描画図形に対する何らかの編集処理を行わせるといったこともできることになる。
また、画像情報に基づいて操作情報を検出するので、操作体が画像変化として認識される限り、画像形状に基づいた操作情報の抽出、及び複数の操作情報の同時抽出が可能であるため、例えば両手の操作により図形の形状やサイズを決定するようにして描画を行うこと可能となり、また、操作体のサイズに応じて適宜異なる描画に関する処理動作を実行させることが可能になる。
また、本発明の半透明面は操作パネル及び表示パネルとして機能するため、ユーザの半透明面に対する指などの動きに追従するようにして描画表示を行うことが可能となり、直接的な描画操作が実現されることになる。また、従来のタッチパネルや各種表示デバイスとは異なり、半透明面のサイズの大型化も安価で容易に実現されることになり、例えばこれまで説明したような操作方法を採る場合には特に有効となる。
このように本発明は、操作情報の入力に際して上記のごとき自由度を与えると共に、表示パネルとして兼用可能な操作パネルとして大型化されたものを容易に提供できるようにすることで容易にインタラクティブな入出力環境が強化拡大され、この環境下で構築される描画システムとしても、これまでにはないような操作形態とこれに応答した表示形態を提供することが可能となるという効果を有している。
以下、本発明の実施の形態の情報入力装置について説明する。なお、以降の説明は次の順序で行う。
<1.描画装置の構成及び操作情報の検出動作>
<2.基本的な多角形の描画操作>
<3.四角形に関する描画>
<4.三角形に関する描画>
<5.楕円形に関する描画>
<6.線の変形>
<7.図形の移動操作例>
<8.図形の拡大/縮小操作例>
<9.ホワイトボード機能>
<10.他の実施の形態としての描画装置の構成>
<1.描画装置の構成及び操作情報の検出方法>
先ず、図1〜図6を参照して、本発明の実施の形態としての描画装置の構成例及び基本的な操作情報の検出動作について説明する。
図1は、本実施の形態としての描画装置の構成例を概念的に示している。この図に示す描画装置1は、半透明面2、赤外線発光ダイオード素子(LED:Light Emitted Diode )パネル3、CCD(Charge Coupled Device) カメラ4、プロジェクタ5、及び制御装置6を備えて構成される。赤外線LEDパネル3、CCDカメラ4、及びプロジェクタ5は半透明面2の背面側に対して設けられる。
半透明面2は、例えば透明なガラス板に対してトレーシングペーパーのような見え方をする半透明膜を貼り合わせる、あるいは磨りガラスのような半透明の性質を有するものを利用するなどして形成され、後述するようにして当該描画装置1における操作パネルと表示パネルとの両者の機能を併せ持つ。
赤外線LEDパネル3は、例えばパネル面に対して多数の赤外線LEDが集合的に配列されることによって構成され、上記赤外線LEDから発光出力される赤外線光が半透明面の背面全体に対して照射されるように設けられる。上記赤外線LEDは制御装置6によって定常的に赤外線を発光するように駆動される。
なお、赤外線LEDパネル3としては、発光出力される赤外線光が半透明面2全体に対して照射されるのに充分な数の赤外線LEDが設けられればよい。また、後述するように、初期の赤外線画像に対する現在の赤外線画像の差分に基づいて半透明面2側から反射してくる画像情報を得るようにされることから、半透明面2全体に対して照射される赤外線光量が一律であるべき必要もない。従って赤外線LEDパネル3のサイズは、半透明面2よりもはるかに小さいもので済ませることができる。
CCDカメラ4は、撮像素子としてCCDを用いたカメラ装置であり、この場合には、半透明面2に映る画像光として赤外線光の成分のみを撮像することにより、半透明面2に対して行われた操作を画像情報として認識するために設けられる。このため、CCDカメラ4の光学系の部分に対しては、赤外線領域の波長帯域のみを透過する赤外線透過フィルタ4aが設けられる。また、CCDカメラ4により撮影される構図として半透明面2全体が含まれるようにその配置位置が設定される。
プロジェクタ5は、制御装置6から供給される画像情報に基づいて、可視光による画像光を半透明面2の背面に対して投影表示する。例えばユーザは、半透明面2に投影表示されたプロジェクタ5の画像を、半透明面2の前面側から観察することができる。ここで、プロジェクタ5の光学系には赤外線領域の波長を遮断する赤外線遮断フィルタ5aが設けられているが、これにより、半透明面2に投影表示される画像光には赤外線が含まれなくなるため、プロジェクタ5の投影画像は、CCDカメラ4からは不可視となる。
制御装置6は、例えばマイクロコンピュータを備えて構成され、CCDカメラ4から供給される撮像信号から画像情報(映像データ)を得て、更にこの画像情報をもとに操作情報を得る。そして、この操作情報に基づいて、例えばプロジェクタ5により半透明面2に表示させる画像に関する表示制御を実行する他、各種所要の制御処理を行う。また、赤外線LEDパネル3の赤外線LEDの発光駆動を行う。
なお、上記赤外線LEDパネル3、CCDカメラ4及びプロジェクタ5の配置位置は、それぞれが果たすべき役割が充分機能することを考慮して設定されればよい。
また、制御装置6と接続されるプリンタ20は、後述するようにして半透明面2に対して表示される描画画像などを印刷出力するために設けられる。
図2は、上記制御装置6の内部構成例を示すブロック図である。この図に示す制御装置6において、LED駆動部10は、赤外線LEDパネル3に設けられた複数の赤外線LEDを発光駆動するための回路部位である。
画像入力部11は、CCDカメラ4から供給された撮像信号について所要の信号処理を施すことによって映像信号を生成して入力画像処理部12に供給する。つまり、画像入力部11では、半透明面2側からCCDカメラ4を介して入射してきた赤外線光を映像情報として出力する。
入力画像処理部12では、例えば画像入力部11から供給された映像信号をデジタル信号による映像信号データに変換する。入力画像処理部12においては、この映像信号データに基づいて得られる「画像情報(例えばフレーム単位の映像データ)」を利用して所要の解析処理等を実行することで、半透明面2に対して行われた操作情報を得るようにされる。ここで画像情報に基づいて得られる操作情報としては、例えば、半透明面2に対して操作を行っている操作体の画像上の位置(座標)や画像の信号レベルなどが用いられる。この操作情報はデータベース駆動部14に伝送される。また、上記映像信号データは、画像合成部17に対しても供給可能とされている。
しきい値制御部13は、入力画像処理部12にて実行される操作情報に関する処理に必要なしきい値を設定して入力画像処理部12に伝送する。上記入力画像処理部12では、しきい値制御部13において設定されるしきい値を利用して画像情報について解析を行うなど所要の処理を実行することで操作情報を得る。また、本実施の形態では後述するようにして入力画像データのフレーム差分を算出することにより、現在の半透明面2の画像状態(検出画像情報)を得るようにされるが、フレーム差分演算に利用する基準値(基準画像入力レベル)等の情報も、後述するようにして、しきい値制御部13に格納されるものとする。
データベース駆動部14は、入力画像処理部12により得られた操作情報を取り込み、この操作情報に基づいて適宜所要の処理を実行する。この際、データベース駆動部14が実行すべき制御処理に必要なプログラムデータはデータベースメモリ15に格納されており、データベース駆動部14は、データベースメモリ15に格納されたプログラムデータに基づいて所要の制御処理を実行することになる。
本実施の形態では、後述する各種描画動作を実現するための描画プログラムがデータベースメモリ14に格納されることになる。
画像生成部16は、データベース駆動部14の制御によって、必要な画像データ(デジタル信号による映像信号データ)を生成して画像合成部17に出力する。
画像合成部17においては、必要があれば上記画像生成部16から供給された映像信号データに対して、入力画像処理部12から供給された映像信号データを合成してRGB信号生成部18に対して出力する。
RGB信号生成部18では、上記画像合成部17から供給された映像信号データについて、例えばアナログによるRGB信号に変換してプロジェクタ5に対して出力する。これにより、プロジェクタ5からは、半透明面2に対して行われる操作に応答した映像による画像光が半透明面2に対して照射出力されることになる。
また、本実施の形態においては、制御装置6に対して画像の印刷を行うためのプリンタ20を設けることができ、これに対応するため、制御装置6内においてはプリンタ制御部19が設けられる。このプリンタ制御部19は、当該制御装置6とプリンタ20間との通信を行うために設けられるものであり、RGB信号生成部18から出力された画像データについて、実際に接続されたプリンタ20による印刷が可能な形態のデータに変換してプリンタ20に伝送するほか、プリンタ20の各種動作を制御するための制御信号を出力する。この制御信号は例えばデータベース駆動部14から送信される。また、プリンタ20側から送信されてくるデータ信号をデータベース駆動部14に伝送することにより、データベース駆動部14ではプリンタ20の動作状態を監視する。そして、その動作状態に応じて適宜所要の処理を実行するようにされる。
次に、上記構成による本実施の形態の描画装置1における操作情報の検出方法について説明する。
前述のように、図1に示す半透明面2全体に対しては、その背面から赤外線LEDパネル3により赤外線光が照射されるのであるが、この赤外線光は半透明面2が半透明であることから、全ての赤外線光が半透明面2を通過するのではなく、幾分かの赤外線光が半透明面2の作用によって反射されることになる。
そして、本実施の形態においては半透明面2に対して何も操作が行われていないとされる状態のもとで、半透明面2にて反射される赤外線光をCCDカメラ4により撮像し、これにより得られる映像信号データの初期レベルを「基準入力画像レベル」として記憶する。この基準入力画像レベルは、入力された映像信号データに基づいて例えば1フレームにおける画素ごとの信号レベルを検出することにより行うようにすればよい。この検出処理は、入力画像処理部12により行われるものとされる。このようにして検出された基準入力画像レベルの情報はしきい値検出部13に伝送され、ここで保持されることになる。
上記基準入力画像レベルの検出処理は、例えば図3のフローチャートに示すものとなる。この図に示すように、先ず入力画像処理部12では、ステップS101において、CCDカメラ4から画像入力部11を介して供給された映像信号から得られる1フレーム分の画像データに基づいて、上述のようにして画素ごとに信号レベルを検出し、この検出結果を基準入力画像レベルLintとして得る。なお、具体的には画素ごとの輝度信号成分のレベルを検出してこれを基準入力画像レベルLintとすることが考えられる。
入力画像処理部12は、続くステップS102において、上記基準入力画像レベルLintをしきい値制御部13に伝送して記憶させるように処理を実行する。
なお、基準入力画像レベルLintを検出してしきい値制御部13に記憶させる処理(上記図3に示す処理動作)は、例えば当該インタラクティブ表示システムの電源オン時などに実行させたり、あるいは何らかのユーザの指示によって必要なときに基準入力画像レベルLintを更新させるように構成することが考えられる。
上記のようにして基準入力画像レベルLintの情報が保持された状態のもとで、操作情報として扱われる画像情報は次のようにして得るようにされる。
図4は、操作情報のもととなる画像情報(以下、この「画像情報」については特に「検出画像情報」という)を得るための入力画像処理部12の処理動作を示すフローチャートである。この場合、入力画像処理部12は、先ずステップS201において現在の入力画像レベルLprsを検出する処理を実行する。ここでいう入力画像レベルLprsは、現在においてCCDカメラ4により撮像された、赤外線光に基づく半透明面2の画像についてのフレーム単位のデータであり、このフレーム単位の画像データにおける画素ごとの信号レベルを検出して得られる情報である。
続いて、入力画像処理部12はステップS202において、基準入力画像レベルLintと上記現在の入力画像レベルLprsの差分を演算する(L=Lprs−Lint)ことによって差分入力画像レベルLを算出する。具体的には、基準入力画像レベルLintと上記入力画像レベルLprsとして得られたデータ値を、同一位置の画素ごとに差分を求めることによって差分入力画像レベルLを得るようにされる。従って、差分入力画像レベルLとしては、常に基準入力画像レベルLintに対する現在の入力画像レベルLprsとの信号レベル差が画素ごとに得られることになる。そして、入力画像処理部12は、ステップS203に進み、上記差分入力画像レベルLに基づいて、現在の検出画像情報(フレーム単位で画素ごとのレベル情報を有する形式の映像データ)を生成するようにされる。
上記のごとき検出画像情報の検出動作を、実際のユーザの半透明面2の前面側での動きと共に説明する。例えばユーザは、半透明面2の前面側において赤外線を反射可能な何らかの物体を利用して半透明面2の前面側において操作を行うようにするのであるが、ここでは、説明の簡単のためにユーザ自身の指や身体を用いることとする。
ここで、例えば図1に示すように半透明面2の前面側においてユーザが半透明面2から遠く離れた距離にいるときには、例えば半透明面2を通過してユーザの身体に反射するとされる赤外線光量は少ないことから、そのほとんどが半透明面2の前面から背面を通過して戻ることはない。このとき、上述した基準入力画像レベルLintと上記現在の入力画像レベルLprsとは同等であり、入力画像処理部12では、差分入力画像レベルLとしてほぼ0であると検出することになる。つまり、差分入力画像レベルLに基づいて生成される検出画像情報としては、初期状態と同様の変化の無いとされる状態が得られることになる。
ここで、例えば上記の状態からユーザが徐々に半透明面2に対して近づいていったとすると、半透明面2を通過してユーザの身体に反射する赤外線光のうち、半透明面2を通過して背面側に到達する光量が次第に増加していくことになる。この状態を、入力画像処理部12からみた場合には、ユーザの身体に対応する画像部分の基準入力画像レベルLintに対する現在の入力画像レベルLprsのレベルが徐々に増加していく状態として捉えられる。これに応じて、検出画像情報としては算出される差分入力画像レベルLに応じて、半透明面2に接近するユーザの姿が徐々に捉えられていくことになる。
そして、半透明面2に対して例えばユーザの体が非常に接近した状態(しきい値の設定にもよるが例えば半透明面2から30cm以内)では、その人体に反射した赤外線光がほとんど半透明面2を通過して背面側に到達することになるので、その身体形状がより鮮明な状態の検出画像情報が生成されることになる。
また、ここでユーザがその身体を半透明面2からある程度距離を置いた状態で、例えば自身の指を手前にかざして半透明面2の非常に近い位置においたとする。
この場合、半透明面2に近接するユーザの指は他の身体部分よりも多くの赤外線光を反射するため、入力画像処理部12において得られる画像情報としては、ユーザの指にあたるに位置の画像領域のレベルが強く、その背景となる部分においてユーザの身体部分にあたる位置の画像領域のレベルは半透明面2からの距離に応じて弱くなることになる。そして、例えばこの状態のもとで、しきい値制御部13にて設定された所定のしきい値と検出画像情報とを比較すれば、容易にユーザの指にあたる部分のみの画像を背景から分離させることが可能であり、同様にしきい値の設定によっては、半透明面2から離れた距離にあるユーザの身体部分のみを抽出した画像情報を得ることも可能である。このようなしきい値は、前述のように実際に必要とされる条件に応じた値がしきい値制御部13において設定されるものである。
このようにして、半透明面2の前面側の状態を検出する構成を採ることにより、この半透明面2を例えばインタラクティブなインターフェイスのための操作パネルとして機能させる場合には次のような利点が得られる。
先ず、本実施の形態では半透明面2側からの赤外線の反射光量によって得られる画像に基づいて操作情報を得ることになるので、操作を行うための操作体としては、特に特殊なポインティングデバイスを必要とせず、赤外線を反射する物体であればその種類は問わないことになる。つまり、操作体としては、上述のように人体全体もしくはその一部や、その他の何らかの物体を問題なく使用することができる。
また、例えばタッチパネルなどでは操作パネル面に対して指などの操作体を接触させる必要があるが、本実施の形態の場合には操作体の位置や動きは赤外線光の反射として検出されればよいことから、半透明面2に操作体を接触させる必要性はなく、その前面の空間において操作を行うような方法を採ることができる。
また、上述したように赤外線の反射光量は、操作体の半透明面2に対する距離に応じて変化するために、例えば操作体の半透明面2からの距離を操作情報として利用することも考えられる。
更に、半透明面2は前述のように例えば透明のガラス板などに対してトレーシングペーパーのような半透明の薄膜を組み合わせたり、磨りガラスのようなものを利用するなどの簡略な手段により構成可能とされ、特にパネルに固有の駆動回路などは不要なので、低コストで容易に大型化を実現することができ、この点で大型化が困難なタッチパネルなどとは大きく異なる。
そして、半透明面2側からの赤外線の反射光により得られる画像に基づいて操作情報を得ることで、画像認識さえ可能であれば複数の操作体を同時に認識して所要の制御を実行させることが可能である。つまり、複数の異なる操作対象に対する同時操作が可能となるものであり、特に半透明面2が大画面として構成される場合には半透明面2上のいろいろな領域を利用して異なる種類の操作を同時に行うことができることにもなるので非常に有効となる。
そして、半透明面2は画像表示パネルとしての機能も有することから、例えば後述するように操作対象となるメニュー画面のようなものを表示させた上で、ユーザがこのメニュー画面に対して指などにより操作を行えるようにするなどの直接的な操作を実現することも容易に可能となる。
このように、本実施の形態としてのインタラクティブ表示システムでは、その操作情報を入力するのに多くの可能性が得られるために、これまでには無かったようなインタラクティブな入出力環境を容易に構築することができる。
次に、上記構成による本実施の形態の描画装置1の一般的な操作例として、メニュー画面に関する操作方法例について説明する。
図5には、本実施の形態の描画装置1によりメニュー操作を行う場合が示されており、ここでは半透明面2を前面側からみた状態が示されている。
例えばこの図に示すように、ユーザが半透明面2の前面に近づいたとすると、先ず、描画装置1の制御装置6では、このときに得られる検出画像情報に基づいてユーザが近づいた半透明面2上の位置を認識する。そして、半透明面2上においてユーザが近づいたと認識された位置に対して、図のようにメニュー画面Mを表示するように表示制御を行う。このメニュー画面Mは当然のこととしてプロジェクタ5から半透明面2に対して投影された画像である。
そして、ユーザ自身が位置している付近の半透明面2上にメニュー画面Mが表示された状態のもとで、例えばユーザは自身の指を用いて、メニュー画面Mにおいて操作項目が表示されている任意の領域を指さすように指定したとする。このとき、ユーザの指先は、半透明面2上から3cm〜30cm程度の範囲内の距離にあるようにされる。
これにより、例えばメニュー画面Mにおいては、ユーザが指し示した操作項目の領域が選択されたことを示す何らかの指示表示(例えば選択領域に対するカーソルの配置表示や所定の形態による強調表示など)が行われることになる。この強調表示のための表示制御は、検出画像情報に基づいてユーザの指が指し示している領域の座標を検出することにより実現される。
ここでは、上記のようにして指示表示が開始された状態から所定時間(例えば数秒程度)経過したときにエンター操作が行われたとみなすこととする。そして、ユーザがエンター操作を行った、つまり、特定の操作項目が強調表示された状態を所定時間以上維持させたとすると、指定された操作項目に従った所要の制御動作を実行することになる。例えば、指定された操作項目に従って、他の階層のメニュー画面を表示させたり、当該描画装置1に対して所望の動作を実行させたりすることになる。あるいは、当該描画装置1が何らかの外部機器を制御可能に構成されており、メニュー画面がその外部機器の動作についての操作制御を行うためのものであるとすれば、指定された操作項目に従って外部機器の動作を制御することになる。
なお、ユーザが半透明面2の前面から離れていき、ユーザと半透明面2との間にある程度以上の距離があいた場合には、それまで表示されていたメニュー画面Mは自動的に消去されるものとされる。
ここで、図6のフローチャートに、上記図5に示した操作例に対応して実行される制御装置6の処理動作を示す。この図に示す処理動作は、主として制御装置6内の入力画像処理部12が検出画像情報に基づいて操作情報を認識すると共に、データベース駆動部14がデータベースメモリ15に格納されたプログラムに従って、上記操作情報に基づいて適宜処理動作を実行することにより実現されるものである。
この図に示すルーチンにおいては、先ずステップS301において現在の検出画像情報から「接近体」が検出されるか否かについて判別を行う。ここで、「接近体」とは半透明面2に対して所定の距離範囲まで接近した何らかの検出対象(図5ではユーザ自身の身体とされている)をいうものとされる。
この「接近体」の検出は、例えば入力画像処理部12が検出画像情報と接近体の検出用に設定されたしきい値(しきい値制御部13により設定される)を比較して、例えば検出画像情報のある領域においてこのしきい値以上の値が得られた場合には「接近体有り」と検出し、しきい値以上の値が得られる領域がない場合には、「接近体無し」と検出することになる。上記接近体検出用のしきい値は、例えば通常、人体(ユーザ)が半透明面2にある程度(例えば数十cm)近づいたときに検出画像情報として得られる人体部分の画像レベルに基づいて設定されればよい。
上記ステップS301において接近体が検出されなかった場合にはステップS308に進んで、ここで現在メニュー画面Mが表示中であるか否かについて判別が行われ、ここでメニュー画面Mが表示されていない場合には元のルーチンに戻る(即ち再度ステップS301の処理に移行する)が、メニュー画面Mが表示中の状態である場合にはステップS309に進み、メニュー画面Mを消去するための制御処理を実行する。このメニュー画面Mの消去処理は、例えばデータベース駆動部14が画像生成部16に対するメニュー画面Mの画像データの生成処理を停止することで実現される。
これに対して、ステップS301において接近体が検出された場合には、ステップS302に進んで、半透明面2上における上記接近体の位置を検出することが行われる。この処理は、例えば検出画像情報における接近体の部分が占有する領域の座標を検出することで可能となる。この場合、検出すべき座標としては接近体の領域の所定の一地点であっても、所定規則に従って求められる複数地点であっても構わなく実際の使用環境等に応じて任意に設定されればよい。
続くステップS303においては、上記ステップS302にて検出された接近体の位置に応じた半透明面2の領域に対してメニュー画面Mを表示させるための制御を実行する。この制御処理は、例えばデータベース駆動部14がデータベースメモリ15に格納されているメニュー画面表示用のプログラムに基づいて、画像生成部16において所要の種類のメニュー画面の画像データが作成されるように制御を行うことになる。
この際、データベース駆動部14は、ステップS302にて検出された接近体の位置に対応する表示領域に対して、例えばメニュー画面の画像データをマッピングするようにして、表示用画像データを作成する。この結果、最終的にプロジェクタ5から投影される画像としては、半透明面2におけるユーザが近づいた位置に対してメニュー画面Mが表示されたものとなる。
上記ステップS303の処理が実行された後は、ステップS304において、現在表示中のメニュー画面Mの操作項目とされる表示領域内において、「操作体」が検出されたか否かについて判別が行われる。ここで、「操作体」とは半透明面2の前面において至近距離(しきい値の設定にもよるが3cm〜30cm程度)にある物体(検出対象)のことをいうものとされる。つまり、図5においてはメニュー画面Mを指し示す指が対象となる。
そして、この「操作体」の検出処理は、先ず、操作体検出用としてしきい値制御部13において設定されたしきい値と、検出画像情報の画像レベルとを比較することにより、操作体の有無を検出することが行われる。このとき設定されるしきい値としては、半透明面2の前面において至近距離にある物体を背景から分離して検出する必要上、前述した接近体検出用のしきい値よりも大きい値が設定される。
そして、例えばしきい値と比較した結果、操作体が検出されたとすれば、その操作体が検出された検出画像情報上の座標位置を検出し、この検出位置とメニュー画面Mが表示されているとされる画像情報上の位置が一致しているか否かを判別することで、現在表示中のメニュー画面の表示領域内における操作体の有無を検出することになる。
上記ステップS304においてメニュー画面Mの操作項目とされる表示領域内において操作体が検出されない場合とは、検出画像情報上に操作体が検出されなかった(ユーザが至近距離で半透明面2上を指し示していないような状態)か、或いは、検出画像情報上に操作体を検出したとしても、この操作体の検出位置(座標)がメニュー画面Mの表示領域内に対応する画像情報上の領域に無かった(ユーザが至近距離で半透明面2上を指し示していた位置がメニュー画面Mの操作項目以外の領域であったような状態)ことになるが、このような場合にはステップS301に戻るようにされる。
なお、ここで操作体が人体の手又は指に特定されるような場合には、ステップS304における操作体の検出処理として、例えば、データベースメモリ15に対して操作時に現れる人体の手又は指の形状の情報を記憶させておき、この手又は指の形状の情報と、検出画像情報として得られた画像形状とを比較して、その一致状態をみて操作体の検出の有無を識別するように構成することが可能である。本発明では、画像情報から入力情報を検出するために、検出画像情報に得られる画像の形状に基づいてもこれを操作情報として認識可能である。
ステップS304においてメニュー画面Mの操作項目とされる表示領域内において操作体が検出されたと判別された場合には、ステップS305に進んで、操作体が検出された位置に対応するメニュー画面Mの操作項目について指示表示が行われるように制御を実行してステップS306に進む。
ステップS306の処理はエンター操作の待機処理となる。前述のように、ここでのエンター操作は、指示表示が開始された状態から所定時間経過したときに確定されるものと規定している。そこで、ステップS306においては、ステップS304にて検出された操作体の検出状態が所定時間以上維持されるか否かについて検出を行うようにしている。この検出処理は、入力画像処理部12において現在の検出画像の状態遷移を監視することにより行われる。
そして、例えば現在の検出画像情報上から操作体が検出されなくなったり、あるいは現在の検出画像情報上における操作体の検出位置が、ステップS304にて検出されたメニュー画面Mの操作項目とされる表示領域内から外れたことが検出されたような場合には、ステップS306からステップS301以降の処理に戻ることになる。(この処理により、例えばユーザがこれまでとは異なるメニュー画面M上の操作項目を指し示すように、その指定位置を変更した場合には、新たに指定されたメニュー画面M上の操作項目に対して指示表示が行われたりすることになる。)
これに対して、ステップS306において、直前のステップS304にて検出された操作体の検出状態が所定時間以上維持されたと判別された場合には、エンター操作が行われたものとしてステップS307に進む。
ステップS307においては、メニュー画面M上において操作体が検出された位置の操作項目に応じた所要の制御処理が実行される。この処理は、データベース駆動部14がデータベースメモリ15に格納されたプログラムに従って実行することになる。
<2.基本的な多角形の描画操作>
図7に、本実施の形態の描画装置1による基本的な多角形の描画方法例を示す。
例えば、ユーザが半透明面2の前面においてある任意の位置を指さすようにして指定することにより、ここでは、図7(a)に示すように半透明面2のユーザに近い位置に対して描画用メニュー画面Mが表示されるものとする。なお、描画用メニュー画面Mは、先に図5により説明したようにしてユーザが半透明面2に接近したときに表示するようにしても構わないが、ここでは、描画作業時の利便性などを考慮して、ユーザが半透明面2に近接させた指などで位置指定を行うことで描画用メニュー画面Mが表示されるように規定している。従って、この指定操作は、例えばユーザの指先が図6において説明した「操作体」として認識されるように半透明面2に対して操作を行うようにすればよい。
この場合、図7(a)に示す描画用メニュー画面Mとしては、所定種類の図形(例えば線(直線又は曲線)、三角形、四角形、五角形・・・)を選択するための複数の項目が提示されているものとする。
ここで、例えばユーザが六角形を描画するための項目を選択してエンター操作(ここでは図5にて説明した操作に準ずるものとする)を行ったとする。これにより、次に説明するような操作によって任意の形状(及びサイズ)による六角形の描画を行うことが可能になる。
例えばユーザは、半透明面上に対して例えば自身の指などによって半透明面2上の任意の位置に対して、自分が描画したい形状の六角形の6つの頂点(ここでは「端点Pe」ということにする)を指定する。この際、端点Peの指定は1つずつ順に指定するようにしても構わないが、本実施の形態では前述のように同時に複数の操作情報を認識可能なので、例えば両手の指を利用して同時に2つの端点Peを指定することも可能である。また、端点の確定操作は例えば図5にて説明したエンター操作に準ずればよい。なお、端点Peの指定が確定されるごとにその指定位置に対して端点Peであることを示す何らかの指示表示が行われるようにすることが好ましい。
上記のようにして例えば6つの端点Peが指定されると、これらの端点Peを結ぶようにして直線が表示され、この結果、例えば図7(b)に示すようにして六角形の描画が半透明面2に対して行われることになる。
上記図7にて説明した多角形の描画動作は、図8のフローチャートに示す処理動作により実現される。この処理動作は、制御装置6内の入力画像処理部12が検出画像情報に基づいて操作情報を認識すると共に、データベース駆動部14がデータベースメモリ15に格納された描画プログラムに従って、上記操作情報に基づいて適宜処理動作を実行することにより実現される。
この図に示すルーチンにおいては、先ずステップS401において描画モードとしての所定の初期画面(例えば方眼を表示すること等が考えられる)が半透明面2に対して表示されるように制御を実行する。例えば初期画面としてのデータはデータベースメモリ15における描画プログラム内のデータとして格納されており、この初期画面データに基づいて画像生成部16により作成した画像データをプロジェクタ5により投影表示させるように、データベース駆動部14が制御を実行することで実現される。
続くステップS402においては、半透明面2に対して近接している操作体(図6参照)が検出されたか否かについて判別を行っており、ここで操作体が検出されたのであればステップS403に進んで描画用メニュー画面(図形種類選択用)Mを表示させるための制御を実行する。これに対して、ステップS402において操作体が検出されないのであればステップS411に進み、描画用メニュー画面Mが現在表示中であればこの画面を消去してステップS401に戻る。なお、描画用メニュー画面Mが現在表示中でなければステップS411においては特に処理を実行せずにステップS401に戻るようにされる。
ステップS403において描画用メニュー画面Mを表示出力させた後は、ステップS404において、描画用メニュー画面M上に対して図形種類選択のための操作が検出か否かが判別される。このときの検出処理としては、例えば、図6のステップS304〜S306の処理に準ずればよい。
ステップS404において、図形種類選択のための項目に対する選択操作が検出されなかった場合にはステップS402に戻ることになるが、何らかの1つの項目が選択された場合にはステップS405に進み、選択された項目に対応する多角形(n角形)についての描画モードを設定する。
続くステップS406においては、図7にて説明した端点Peの指定操作を待機しており、端点Peの指定操作があったと判別された場合にはステップS407に進んで、上記ステップS406において指定された端点Peの確定操作が行われたか否かについて判別を行う。ここでは、端点Pe指定操作の確定の判別は図6に示したステップS306の処理に準ずるものとする。
ステップS407において端点確定操作があったと判別された場合には、ステップS408に進んで、確定された端点Peの位置(座標)情報を保持してステップS409に進む。なお、ステップS408において、例えば確定された端点Peが対応する半透明面2上の位置に対して端点Peが指定されたことを示す投影表示がプロジェクタ5により行われるための処理を実行させることも考えられる。
ステップS409においては、これまで確定された端点Peの数がn個に達したか否かが判別され、未だ確定された端点Peの数がn個に満たないと判別された場合にはステップS406の処理に戻るが、確定された端点Peの数がn個に達したと判別された場合には、ステップS410に進む。
ステップS410においては、その位置(座標)情報が確定されたn個の端点Peに基づいて、これらn個の端点Peを結ぶようにして形成されるn角形の画像を生成(例えば画像生成部16を利用する)し、このn角形の描画図形が半透明面2に対して投影表示されるようにするための制御を実行する。この際、半透明面2に対して表示されるn角形の描画図形は、実際にユーザが半透明面2に対してその位置を指定した端点Peを結ぶようにしてその見た目が表示されるように、その表示位置やサイズを設定することになる。
また、図9には、ユーザの指先による半透明面2に対する操作を、一般の描画プログラムアプリケーションにおけるペンツールとして用いる場合が示されている。つまり、ユーザが指先を半透明面2に近接させた状態で任意に半透明面2上で指先を動かせると、この指先の動きに従って半透明面2上に対して、線状の描画図形DRが表示されることになる。
この描画動作の実現のための処理動作に関する詳しい説明は省略するが、制御部6のデータベース駆動部14において、操作情報として逐次検出される指先の位置(座標)情報に基づいて、線状の描画図形DRを形成するための処理を行うと共に、この線状の描画図形DRが、ユーザの指先の移動位置に追随して描画されるように表示させるための表示制御を実行することで実現される。
<3.四角形に関する描画>
次に、本実施の形態の描画装置を利用して実現することのできる、四角形に関する描画動作について説明する。
図10は、四角形の描画操作を示している。例えばユーザは、図10に示すように両手の親指と人差し指とを開いて任意の指開き角度Afin1(右手),Afin2(左手)を形成して、半透明面2の前面の近接した位置に対してあてがうようにして配置する。このとき、描画装置1側においては、両手それぞれの親指と人差し指の付け根あたりの位置を描画すべき四角形の対角点Poa1,Poa2として認識する。また、両手の各上記指開き角度Afinは、上記対角点Poa1,Poa2を含む頂角の内角の大きさとして認識される。
例えば、この状態でユーザが一定時間以上、上記した両手の状態を維持したとすると、これがエンター(確定)操作として認識され、半透明面2に対して上記対角点Poa1,Poa2と、指開き角度Afin1,Afin2に基づいてその形状及びサイズが決定される四角形の描画図形DRが描画されることになる。このとき、半透明面2に対してユーザが指定したとされる対角点Poa1,Poa2の位置と、実際に半透明面2に表示される四角形の描画図形DRの対角点が一致するようにされる。
例えば四角形を描画するモードが選択された場合には、図7に示すようにして端点Peを逐一指定する方法の他に、上記図10のようにして四角形を描画することが可能とされる。このような描画方法が可能とされるのは、本実施の形態の描画装置において操作情報のもととなる情報が、画像情報(検出画像情報)であることから、1対の対角点を同時に認識可能であることと、手の形状自体の画像情報から、指開き角度Afin1,Afin2を四角形の頂角として検出可能であることに依る。
また、本実施の形態では、例えばユーザが自身の手などによって操作を行うことで、既に半透明面2に対して表示されている描画図形DRに対して、移動、回転、拡大/縮小などを行うことが可能である。
図11(a)には既に長方形の描画図形DRが半透明面2に対して表示されている状態が示されている。ここで、例えば所定のメニュー画面などに対する指定操作によってユーザが描画図形の移動モードを選択したとする。この移動モードのもとで、例えば図11(a)に示すように描画図形DRの対角点Poa1,Poa2をつかむようなイメージでユーザが半透明面2に近接した位置で両手を配置したとする。そして、ほぼこの両手の位置関係を保ったまま、任意の方向に移動するように操作すると、図11(b)に示すように両手の動きに対角点Poa1,Poa2の位置が追従するようにして長方形の描画図形DRが移動することになる。つまり、ユーザは半透明面2に表示された長方形の描画図形DRをあたかも実際に掴むかのようなイメージで、図形の移動を行うことができる。
同様に、描画画像DRを回転させたい場合には、所要のメニュー操作などによって回転モードとしたうえで、図11(c)に示すようにして長方形の描画図形DRの対角点Poa1,Poa2をつかむようにして回転の操作を行うようにされる。
また、例えば拡大/縮小モードにおいては、長方形の描画図形DRの対角点Poa1,Poa2をつかむようにして、その対角線方向に両手の距離を延ばしたり縮めるようにして操作を行うことで、図11(d)に示すように長方形の描画図形DRの拡大/縮小が行えるように構成される。
続いて、上述した四角形に関する描画動作を実現するための処理動作について図12〜図15のフローチャートを参照して説明する。なお、これらの処理は、データベース駆動部14がデータベースメモリ15に格納された描画プログラムに従って所要の処理を実行することにより実現される。
図12には、図10に示した四角形の描画動作を実現するための処理動作が示されている。
例えば、四角形描画モードとされると、先ずステップS501において対角点Poa1,Poa2の指定操作を待機する。このためには、例えば、描画プログラムとして図10に示すような親指と人差し指を開いたような手の形状を記憶させておき、検出画像情報において、このような手の形状とされる画像が2ヶ所検出され、例えばこの画像状態が所定時間以上保たれたときに、この手の形状における親指と人差し指の根本とされる位置(座標)を対角点Poa1,Poa2として検出するように構成すればよい、
ステップS501において対角点Poa1,Poa2が検出されると、ステップS502に進み、上記手の形状における親指と人差し指の開き具合から指開き角度Afin1,Afin2を検出する。これは、例えば画像情報として得られた親指と人差し指の延びた各方向に沿って2本の直線を仮想し、この2つの仮想直線により形成される角度を求めることにより指開き角度Afin1,Afin2の各々の検出が可能となる。
続くステップS503においては、指定された対角点Poa1,Poa2の位置(座標)と指開き角度Afin1,Afin2に基づいて、画像生成部16を利用して四角形の描画画像DRの描画処理を実行する。この画像生成部16で作成された描画画像DRは、画像合成部17、RGB信号生成部18を介することによって、プロジェクタ5に供給されることで、図10に示したようにして半透明面2に対して表示が行われることになる。
図13には、図11(a)→図11(b)に示した移動モード時の処理動作が示されている。例えば所定のメニュー画面に対する操作などによって移動モードが設定されると、データベース駆動部14は、ステップS601において対角点Poa1,2の指定操作を待機する。つまり、現在表示中である四角形の描画画像DRの対角点にほぼ一致するとされる座標位置に対して、操作体(ここではユーザの手となる)が検出されたか否かが判別される。
ここで、ユーザによる対角点Poa1,2の指定操作があったことが判別されると、以降の対角点Poa1,2の移動状態を監視し、ステップS602→S603の処理として、逐次、対角点Poa1,2の移動に応じて、その移動方向情報Dmvと、移動量情報Qmvを検出する。そして、この移動方向情報Dmvと、移動量情報Qmvとに基づいて四角形の描画図形DRについて移動が行われるように画像生成部16において移動された図形の画像を生成すると共に、この画像が半透明面2に対して投影表示されるように制御を実行する。
続いて、図14に回転モード時(図11(a)→図11(c))の処理動作を示す。
四角形の描画画像DRについての回転モード時においては、ステップS701において対角点Poa1,2の指定操作を待機し、ここで、対角点Poa1,2の指定操作があったことが判別されると、次のステップS702において、指定された対角点Poa1,2の移動に応じて描画図形の回転角情報Aturを設定する。そして、続くステップS703において、上記ステップSS702により求められた回転角情報Aturだけ回転された四角形の描画図形DRの描画処理と、この回転された四角形の描画図形DRをプロジェクタ5により半透明面2に対して投影表示するための制御を実行する。
図15は、四角形の描画画像DRについての拡大/縮小モード時(図11(a)→図11(d))の処理動作を示している。
この場合も、先ずステップS801において対角点Poa1,2の指定操作を待機しており、対角点Poa1,2の指定操作があったことが判別されると、ステップS802に進んで対角点Poa1,2の移動に応じて拡大/縮小率Rtを設定する。そして、続くステップS803において、上記拡大/縮小率Rtに基づいて拡大又は縮小した四角形の描画画像DRを描画する処理と、この拡大又は縮小された描画画像を半透明面2に対して投影表示するための制御を行うようにされる。
<4.三角形に関する描画>
次に、本実施の形態の描画装置を利用して実現することのできる、三角形に関する描画動作について説明する。
図16(a)には、本実施の形態としての三角形の描画操作例が示されている。
例えば、所定の操作によって三角形の描画モードとしたうえで、ユーザは、四角形の描画の場合と同様に、両手の親指と人差し指の間に所望の角度(指開き角度Afin1,Afin2)を与えると共に、この場合には、両手の親指と人差し指の付け根の位置が、例えば描画すべき三角形の底辺の両端(端点Pe1,Pe2)となるようにして、その両手を半透明面2上に配置する。
これにより、半透明面2上には図16(a)に示すように、ユーザが指定した三角形の底辺の両端の位置と、ユーザが与えた指開き角度Afin1,Afin2により決定された三角形の底辺の両端の角度に従って得られる形状及びサイズによる三角形の描画画像DRが描画されるようにして表示されることになる。
そして、例えば上記のようにして描画された三角形の描画画像DRを移動、回転、又は拡大/縮小するようなときは、移動モード、回転モード、及び拡大/縮小モードのうちから適宜所望のモードを選択して設定したうえで、例えば、図16(b)に示すようにして、三角形の描画図形DRの底辺の両端に相当する端点Pe1,Pe2を掴むようなイメージで、前述した四角形の描画図形DRのときのようにして両手を半透明面2上で移動させるような操作を行うようにすればよい。
なお、図16(a)(b)により説明した三角形の描画モード時の処理、及び移動モード、回転モード、拡大/縮小モード時の処理動作は、先に図12〜図15に示した四角形の描画画像DRについての処理に準ずることにより実現可能であることからここでは詳しい説明は省略するが、三角形の描画画像DRについての処理時には、対角点Poa1,2の代わりに、三角形の底辺の両端に対応する端点Pe1,Pe2の指定操作について検出を行うことになり、また、指開き角度Afin1,Afin2は三角形の底辺の両端の角の大きさとして扱われることになる。
<5.楕円形に関する描画>
図17(a)には、本実施の形態における楕円形についての描画動作例が示されている。
楕円形を描画するのに当たっては、これまでの多角形の描画操作と同様に、両手の親指と人差し指の間に所望の指開き角度Afin1,Afin2を与えながら半透明面2上に配置するようにされるが、この場合には、両手の親指と人差し指の付け根の位置(端点Pe1,Pe2)は描画すべき楕円形の長径又は短径のの両端として認識されるものとする。また、上記指開き角度Afin1,Afin2は、描画すべき楕円形の曲率の情報として扱われるように処理が行われる。なお、上記端点Pe1,Pe2が、楕円形の長径又は短径の両端の何れとして設定されるのかについては、上記指開き角度Afin1,Afin2の角度に依るものとする。
そして、描画された楕円形の描画画像DRを移動、回転、又は拡大/縮小するようなときは、これまでの多角形の場合と同様に、移動モード、回転モード、及び拡大/縮小モードのうちから所望のモードを選択し、図17(b)に示すようにして、楕円形の描画図形DRの長径の端部とされる位置を端点Pe1,Pe2としてここを掴むようなイメージで両手を半透明面2上で移動させるような操作を行うようにされる。
なお、上記楕円形に関する描画、移動、回転、拡大/縮小モード時の処理も、図12〜図15に示した四角形の描画画像DRについての処理に準ずることにより実現可能であり、この場合には、端点Pe1,Pe2を楕円形の長径の端部として扱うと共に、指開き角度Afin1,Afin2に基づいて設定した曲率に従って楕円形を描画することになる。
<6.線の変形>
これまでは、四角形、三角形などの多角形に関する描画処理及び曲線に関する描画処理を行う場合について説明したが、次に、本実施の形態の描画装置により曲線を変形する場合について説明する。
図18には、曲線を変形させるための操作例が示されている。例えば図18(a)に示すように曲線の描画図形DRが表示されている状態で、所定の操作によって変形モードを設定したとする。そして、ユーザはこの図に示すように、例えば自身の手のひらを開くと共に指を閉じた状態で、曲線(描画図形DR)上の任意の位置に対応させて配置する。図18(a)においては、両手のひらがほぼ曲線の描画図形DRの両端に配置された状態が示されているが、この状態では、手のひらのほぼ中心位置が、端点Peとして認識されることになる。曲線の変形処理の場合、この端点Peは、曲線を変形させる際に基準となる移動位置を指定するポイントであり、変形後の曲線は必ず移動操作後の端点Peの位置を通過するものとされる。また、このときには、手の指が延びた方向に沿って仮想的に基準接線Lが設定される。
このとき、ユーザにとっては、半透明面2上に表示されている曲線(描画図形DR)の両端を掴んだようなイメージを持つことになる。
例えば、図18(a)に示す状態から、ユーザはあたかも曲線(描画図形DR)を撓ませるようなイメージで自身の両手を図18(b)に示すようにして動かしたとする。この場合、手のひらのほぼ中心位置として認識される端点Pe,Peは、ユーザの手の動きに応じて移動するものとされ、また、基準接線L,Lも同様にユーザの手の動きに応じて変化することになる。
このようにして操作が行われると、半透明面2に対して表示される曲線は、ユーザの手の動きに追従するようにして撓むようにして変形されていくものとされる。
上記図18に示す操作による曲線の変形処理のための処理動作について図19のフローチャートを参照して説明する。この処理は、データベースメモリ15に格納されたプログラムに基づいてデータベース駆動部14が実行するものである。
曲線の変形処理モードにおいては、先ずステップS901において、操作体が検出されることを待機している。この場合の操作体の検出とは、例えば図18に示すような指を閉じながら延ばした状態の手のひらの形状が検出画像情報として認識されることをいう。なお、たとえ上記のような状態の手のひらの形状が検出されたとしても、その検出位置が描画表示された曲線上にないような場合には、操作体としては認識しないものとする。また、手のひら形状であることの識別は、例えばデータベースメモリ15に格納された手のひら形状を示すデータと、検出画像情報として得られた画像の形状との一致状態を識別するようにすればよい。
そして、ステップS901において操作体が検出された場合にはステップS902に進み、端点Peの位置Posを検出すると共に、検出された手のひら形状の指に沿った方向を識別することにより基準接線Lの傾きGrdを算出する。
続いて、ステップS903においては、上記ステップS902において算出された端点Peの位置Pos及び基準接線Lの傾きGrdに基づいて、曲線上(描画画像DR)に対して所定規則に従って設定された複数地点の法線を変更するための演算処理を実行する。
そして、ステップS904において、上記ステップS903により得られた演算結果に基づいて曲線を変形するための描画処理を実行すると共に、変形された曲線を図18(b)に示すようにして表示させるための制御を実行することになる。なお、この図には示さないが、例えば途中で所定のメニュー操作等を行えば曲線の変形処理モードを抜けることができるようにされている。
<7.図形の移動操作例>
また、本実施の形態の描画装置としては、次のようにして半透明面2に対して表示された画像や図形を移動させることも可能である。
図20(a)には、一例として飛行機を描いた描画画像DRが表示されている。なお、ここでの描画画像は特にユーザの操作により描画されたものに限定されず、例えば単にデータベースメモリ15に格納されているサンプルのような画像データに基づいて表示されるものであっても構わない。
ここで、所定の操作によって表示画像の移動モードが設定されている状態で、例えば図20(a)に示すように、半透明面2において描画画像DRが表示されているほぼ正面位置にユーザ自身が近づき、ここから、図20(b)に示すように、ユーザ自身が半透明面2の前で移動したとする。この場合には、このユーザ自身の身体の画像を移動のための位置指定情報として扱うことにより、ユーザの半透明面2の前面での左右方向への動きに追従するようにして、描画画像DRが移動するように表示されるものである。
<8.図形の拡大/縮小操作例>
また、本実施の形態においては、図21(a)(b)に示すような操作によっても図形の拡大/縮小を行わせることが可能である。
例えば図21(a)には、ユーザが半透明面2の前で両腕を広げたり閉じたりする動作を行うことで、これに応答して半透明面2に対して表示された描画画像DRが拡大又は縮小されるという操作形態が示されている。図21(b)には、ユーザが半透明面2に近づくと描画図形DRが拡大表示され、遠ざかると描画図形DRが逆に縮小されるという操作形態が示されている。
ここでは、フローチャートなどによる詳しい処理動作の説明は省略するが、図21(a)の場合には、制御装置6において検出画像情報に基づいて人体の腕の開閉状態が認識可能なように構成し、この腕の開き方の度合いを拡大/縮小率に変換して画像処理を行うようにすればよい。また、図21(b)の場合であれば、前述のように半透明面2からの距離に応じて検出画像情報として得られる検出対象(ここでは人体とされる)の部分の画像レベルが変化することを利用して、この画像レベルの変化を拡大/縮小率に変換してやればよいことになる。
なお、図21(a)(b)において表示される画像も特にユーザが描画したものには限定されることなく、予め用意された画像データを利用して表示されたものであっても構わない。また、実際の利用形態としては、例えば地図などを表示させ、所定の操作によって拡大/縮小中心位置を決定した上で、上記図21(a)(b)の何れかに示すような操作を行うことにより、地図上における任意の領域を拡大/縮小表示させることなどが考えられる。
<9.ホワイトボード機能>
また、これまで説明してきた本実施の形態の描画装置を、例えば会議や教育などの現場や掲示板等として用いられるホワイトボードとして利用することが考えられるが、この場合には、次のような機能を与えることが考えられる。
図22は、ホワイトボードの文字書き込み面として機能する半透明面2が示されている。なお、この図には示さないが、例えば半透明面2の背面側では図1に示した各装置が配置されているものとする。
図1に示した本実施の形態の描画装置の構成では、例えばデータベースメモリに格納されている画像データを利用して半透明面2に対する投影表示を行わせることが可能とされるが、図22にはこのような機能を応用した利用例が示されている。
例えば、図22(a)には、ユーザが半透明面に対して、例えば指や何らかのペン形状の物理対象等を用いてフリーハンドにより描画図形DRを描いた状態が示されている。ここでは、フリーハンドではあるが描画図形DRとして四角形が描かれたものとする。なお、フリーハンドでなくとも、先に図7や図10に示した操作方法によって四角形を描画しても構わない。
この場合、制御装置6においてホワイトボードである半透明面2に対して四角形が描画されると認識した場合、半透明面2に対して所定の操作内容に従ったメニュー画面を表示するようにされている。これにより、四角形が描画された場合には、図22(b)に示すように所定内容のメニュー画面Mが表示されることになる。なお、このときには、例えばユーザ四角形の描画図形DRを描画した位置に対応してメニュー画面Mが表示されるようにすることができる。また、メニュー画面Mが表示された段階では図22(a)に示す描画図形DRは消去されればよい。
図23は、上記図22に示したメニュー画面呼び出し動作を実現するための制御装置6の処理動作を示すフローチャートである。なお、この場合には、ホワイトボードの描画動作として、少なくとも図9により説明したように、ユーザがポインティングした位置に対応して線を描画することができるように構成されているものとする。
このルーチンにおいては、先ずステップS1001において何らかの描画図形が描画されるのを待機しており、描画が行われたと判別されると、ステップS1002において描画された図形の形状を識別することが行われる。そして続くステップS1003において、識別された描画図形の形状がメニュー画面表示を呼び出すのに適合する四角形であるか否かが判別される。
なお、ここでは描画図形の四角形であるか否かを判別する単なる形状判別に加えて、例えばメニュー画面表示を呼び出すのには所定以上の面積を有する四角形が要求されるものと規定されているような場合には、描画図形が四角形であることとその面積が所定以上であることの2つの要件を満たした場合に肯定結果が得られるように構成されることになる。また、描画画像がフリーハンドにより描かれたものである場合には、厳密には四角形とはいえない場合のことのほうが多いが、ある程度の曲率による曲線や直線の屈曲率は直線として見なすように処理を実行することで、四角形として認識できるようにすればよい。
そして、ステップS1003において肯定結果が得られたのであればステップS1004に進み、所定のメニュー画面を表示させるための処理を実行する。この際、例えば表示制御として四角形の描画画像DRが描かれた位置にほぼ対応するようにしてメニュー画面Mを表示させたり、更には、ある程度の所定範囲内であれば、四角形の描画画像DRが描かれたサイズにほぼ対応するサイズによりメニュー画面を表示させるように構成することも可能である。
一般のホワイトボードでは、例えばマーカーペンなどにより文字や絵を描くと共に、白板ふきなどの道具を利用して既に描かれた文字や絵を消去することが行われているが、本実施の形態の描画装置をホワイトボードとして機能させる際には、次のようにして同様のことを行うことが可能である。
例えば、図24(a)に示すように、ユーザが描画用ペンPenを利用してホワイトボード(半透明面2)上に文字等を書き込むような操作をしたとする。この場合、描画用ペンPenのペン先は、検出画像情報として画像による検出が行われたときに、その画像領域として予め設定されたしきい値よりも小さくなるようなサイズであるものとされる。そして、このような所定のしきい値よりも小さいとされる操作体が検出された場合には、この操作体により指定される位置に従って例えば線による描画を行っていくようにされる。これにより、描画用ペンPenのペン先の軌跡に従って、線状の描画画像として文字等が表示されることになる。図24(a)では、ユーザが描画用ペンPenを用いたことにより、何らかの文字等が半透明面2上に書き込まれたかのようにして表示された状態を「〇〇〇〇〇〇〇」により表している。
なお、本実施の形態においては、赤外線を反射可能な物理対象であれば操作体の種類は問わないので、上記描画用ペンPenとしては単にペン形状を有するような個体であればよいことになる。従って、上記しきい値さえ満足すれば当然のこととして描画用ペンPenの代わりにユーザの指等を用いることも可能である。
そして、半透明面2(ホワイトボード)に対して描かれた内容を消去するには、例えば図24(b)に示すように、検出画像情報として検出されたときにその画像領域が所定のしきい値を越えるようなサイズの消去板Erを用意する。この消去板Erも、描画用ペンPenと同様に赤外線を反射可能で、かつ、上記しきい値を越えて画像として検出されるだけのサイズを有するような物理対象であればよい。従って、所定のしきい値さえ上回るサイズであれば、例えばユーザ自身の手のひらを消去板Erの代わりに用いてもよい。
そして、例えばユーザが消去板Erを用いて、半透明面2上をなぞるように動かしたとすると、消去板Erの軌跡となる領域においては、これまで描かれた文字や絵が消去され、所定の初期画像が表示されることになる。例えば、初期画像として非表示の状態が設定されていたのであれば、消去板Erでなぞられた半透明面2上の部分は非表示となる。また、例えば初期画像として地図などが表示され、その地図上に対してユーザにより描かれた文字や絵が表示されているような状態では、消去板Erでなぞった文字や絵が消去されて元の地図の画像が表示されることになる。
図25は、上記図24にて説明した操作を実現するための処理動作を示すフローチャートである。このルーチンにおいては、先ずステップS1101において操作体が検出されるのを待機しており、ここで操作体が検出されたのであれば、ステップS1102に進んで、上記操作体のサイズ(面積)Sが所定のしきい値aよりも小さいか否かについて判別を行う。このしきい値aは、描画用のポインタ(描画用ペンPen又は指)としての操作体を検出するために設定された値とされる。そして、ステップS1102において肯定結果が得られた場合には、操作体は描画用のポインタであるとして、ステップS1103に進み、操作体の検出位置(座標)の移動に追随するようにして半透明面2の領域に対して描画が行われていくように処理を実行することになる。
これに対して、ステップS1102において否定結果が得られた場合には、ステップS1104において、操作体のサイズSがしきい値bよりも大きいか否かについて判別が行われる。このしきい値bは、消去用のポインタ(消去板Erもしくは手のひらなど)としての操作体を検出するためのものとされる。ここで、否定結果が得られた場合にはこのルーチンを抜けることになるが、ステップS1102及びS1104にて否定結果が得られる場合とは、その操作体のサイズが描画用ポインタと消去用ポインタの何れのサイズにも該当しない場合であり、この場合には特に描画処理も消去処理も実行しないようにされる。ただし、しきい値a,bに同一の値が設定されていれば、検出された操作体は描画用ポインタか消去用ポインタの何れかとして必ず認識されることになる。
ステップS1104において肯定結果が得られた場合には、検出画像情報内において操作体が検出された領域については初期画像を表示するように制御を行う。つまり、見かけ上は消去用ポインタがなぞった半透明面2の部分において描画画像が表示されていれば、これが消去される代わりに初期画像が表示されることになる。
<10.他の実施の形態としての描画装置の構成>
ところで、本実施の形態の描画装置としては、図1に示す構成から赤外線LEDパネル3を省略することも可能である。
たとえば、本発明に基づく描画装置を屋外などの外光の強い環境で使用する場合、たとえば日中の自然光に含まれる赤外線が強いために、図1に示すような赤外線LEDパネル3から照射される赤外線光を操作情報検出用の光源とする構成では、赤外線LEDパネル3から照射される赤外線光の強度が自然光に含まれる赤外線に対して相対的に弱まるので、場合によっては適切な操作情報の検出が行われない(つまり操作情報を認識可能な適正な検出画像情報が得られない)可能性がある。
そこで、このような場合には、赤外線LEDパネル3を省略し、その代わりに自然光に含まれる赤外線光を操作情報検出用の光源として利用することができる。
この場合、検出画像情報を得るために必要な基準入力画像レベルLintは、例えば接近体及び操作体等の検出対象が無い(半透明面2に対して何の操作も行われていない)とされる状態のもとで、その前面側から半透明面2を透過してCCDカメラ4において撮像される撮像信号から得た画像情報に基づいて検出するようにされる。
そして、例えば半透明面2に対して何らかの操作が行われるとすると、このときの半透明面2における接近体及び操作体などの部分をCCDカメラ4側からみた場合には、接近体及び操作体などにより自然光の赤外線が遮られることから、これを自然光に含まれる赤外線光の影として見ることができる。本実施の形態のい制御装置6では、基準入力画像レベルLintに対して、画像レベルがより低くなる(暗くなる)ようにして変化する画像情報を操作情報として扱うことになる。この場合、図2に示す制御装置6の内部構成としては、赤外線LEDパネル3が省略されたことに応じて、LED駆動部10が設けられないことになる。
また、本実施の形態の描画装置としては、図1に示す構成において、例えば赤外線LEDパネル3の代わりにマイクロ波発生器を設け、また、CCDカメラ4の代わりにマイクロ波受信器を設けて構成することも考えられる。
この場合、図2に示す制御装置6においては、LED駆動部10(図1参照)の代わりに、マイクロ波発生器を駆動するためのマイクロ波駆動回路が備えられる。また、マイクロ波受信器から供給される受信マイクロ波を入力して例えば所定形式のデータに変換して出力する画像信号入力回路と、この画像信号入力回路から供給されるマイクロ波の受信データを入力して所要の処理を行うことにより、例えば検出画像情報を得ると共にこの検出画像情報に基づいて操作情報を得る入力データ処理回路が設けられる必要がある。画像信号入力回路及び入力データ処理回路は、それぞれ図2に示す画像入力部11及び入力画像処理部12に代わる機能回路部である。また、操作情報検出用の媒体としてマイクロ波を利用するため、CCDカメラ4に備えられた赤外線透過フィルタ4aや、プロジェクタ5に備えられた赤外線遮断フィルタ5aは不要となる。
このように、それが照射された物体に反射する性質を有するマイクロ波のような媒体を操作情報の検出に利用するように構成しても、これまで説明してきた実施の形態(赤外線を操作情報の検出に利用した例)と同様にして本発明としての情報入力装置を構成することが可能である。
なお、これまで説明してきた描画方法等により半透明面2に表示された描画図などの画像情報は、図2に示したプリンタ20を利用して印刷出力することが可能とされている。
また、本発明に基づいて構成される描画装置において各種描画動作を実現するための操作方法及び制御処理動作は、これまでの説明の内容に限定されるものではなく、本発明としての入力装置の利点を活かした操作方法や制御処理方法等は他にも各種考えられるものである。また、図1においては音声出力系の図示は省略したが、本発明の実施の形態としての描画装置において、各種インタラクティブな応答を音声により行うことも考えられる。
本発明の実施の形態としての描画装置の構成例を示す概念図である。 本実施の形態の描画装置に備えられる制御装置の内部構成を示す図である。 基準入力画像レベルを検出及び保持するための処理動作を示すフローチャートである。 検出画像情報を生成するための処理動作を示すフローチャートである。 本実施の形態の描画装置における基本的な操作例を示す説明図である。 図5に示す操作を実現するための処理動作を示すフローチャートである。 本実施の形態の描画装置における基本的な描画操作例を示す説明図である。 図7に示す描画操作実現するための処理動作を示すフローチャートである。 線についての描画操作を示す説明図である。 本実施の形態の描画装置における四角形の描画操作を示す説明図である。 四角形の描画画像についての編集のための操作例を示す説明図である。 図10に示す四角形描画モード時の処理動作を示すフローチャートである。 図11に示す四角形の描画画像についての移動モード時の処理動作を示すフローチャートである。 図11に示す四角形の描画画像についての回転モード時の処理動作を示すフローチャートである。 図11に示す四角形の描画画像についての拡大/縮小モード時の処理動作を示すフローチャートである。 三角形についての描画及び編集操作を示す説明図である。 楕円形についての描画及び編集操作を示す説明図である。 曲線の変形操作例を示す説明図である。 図18に示す操作を実現するための処理動作を示すフローチャートである。 表示画像の移動操作例を示す説明図である。 表示画像の拡大/縮小操作例を示す説明図である。 本発明の描画装置をホワイトボードとして機能させた場合の操作例を示す説明図である。 図22に示す操作を実現するための処理動作を示すフローチャートである。 本発明の描画装置をホワイトボードとして機能させた場合の他の操作例を示す説明図である。 図24に示す操作を実現するための処理動作を示すフローチャートである。
符号の説明
1 描画装置、2 半透明面、3 赤外線LEDパネル、4 CCDカメラ、4A 第1CCDカメラ、4B 第2CCDカメラ、5 プロジェクタ、6 制御装置、10 LED駆動部、11 画像入力部、12 入力画像処理部、13 しきい値制御部、14 データベース駆動部、15 データベースメモリ、16 画像生成部、17 画像合成部、18 RGB信号生成部、M メニュー画面、DR 描画画像、Poa1,Poa2 対角点、Afin1,Afin2 指開き角度、Pe,Pe1,Pe2 端点

Claims (11)

  1. 光を透過する平面を有する筐体よりなる描画装置であって、
    上記平面に画像情報を表示させる表示手段と、
    上記平面に対する操作体による複数の接触位置、および上記操作体の上記平面上における動きを検出するための検出手段と、
    上記検出手段により検出された上記操作体の接触位置と動きに基づいて、上記表示手段に表示させる画像情報を制御する制御手段と
    を有することを特徴とする描画装置。
  2. 上記表示手段は、四角形の形状を有する画像を表示し、
    上記制御手段は、上記四角形の領域内の対角線上にある頂点近傍の2点が上記操作体により同時に指定されているとき、上記2点の位置の変化に応じて上記四角形の画像を変形させて投影表示させるように上記表示手段を制御する
    ことを特徴とする請求項1に記載の描画装置。
  3. 上記制御手段は、上記2点の位置が上記四角形の重心を中心として回転するように変化した場合、上記四角形の画像を回転させて表示させるように上記表示手段を制御することを特徴とする請求項2に記載の描画装置。
  4. 上記制御処理装置は、上記2点の位置が離れるように変化した場合、上記四角形の画像を拡大させて表示させるように上記表示手段を制御することを特徴とする請求項2に記載の描画装置。
  5. 上記操作体の形状の情報を記憶する記憶手段をさらに有し、
    上記検出手段は、上記操作体の形状をさらに検出し、
    上記制御処理手段は、検出された上記操作体の形状と上記記憶手段の情報を比較することによって上記操作体の形状を特定することにより上記2点の位置を特定することを特徴とする請求項2に記載の描画装置。
  6. 上記制御手段は、上記操作体による2点の接触位置を1対の対角点の位置として認識し、この1対の対角点の位置情報に基づいて四角形を描画する処理を制御することを特徴とする請求項1に記載の描画装置。
  7. 上記検出手段は、上記操作体の形状をさらに検出し、
    上記制御手段は、上記1対の対角点のそれぞれに対応して検出された上記操作体の形状に基づいて角度情報を認識し、この角度情報に基づいて対角を設定して四角形を描画する処理を制御することを特徴とする請求項5に記載の描画装置。
  8. 上記検出手段は、上記操作体の形状をさらに検出し、
    上記制御手段は、
    上記検出手段により検出された2点の位置情報を三角形の一辺の両端の2点として認識すると共に、このときに上記三角形の一辺の両端の2点の位置情報にそれぞれ対応して検出された上記操作体の形状に基づいて角度情報を認識し、
    上記三角形の一辺の両端の2点とされる位置情報と、上記角度情報とに基づいて設定した一辺の両端の角度とに基づいて三角形を描画する処理を制御することを特徴とする請求項1に記載の描画装置。
  9. 上記検出手段は、上記操作体の形状をさらに検出し、
    上記制御処理手段は、
    上記検出手段により検出された2点の位置情報を楕円形の長径又は短径の両端として設定すると共に、このときに上記2点の位置情報にそれぞれ対応して検出された上記操作体の形状に基づいて楕円形の曲率を設定し、
    上記楕円形の長径又は短径の両端とされる2点の位置情報と、上記曲率の設定情報とに基づいて楕円形を描画する処理を制御することを特徴とする請求項1に記載の描画装置。
  10. 上記検出手段は、上記操作体の形状をさらに検出し、
    上記制御処理手段は、
    上記検出手段により検出された位置情報を曲線又は直線としての描画画像上における位置指定情報として認識すると共に、このときに上記位置情報に対応して検出された上記操作体の形状に基づいて方向情報を設定し、
    上記位置指定情報の移動位置及び上記方向情報の変化に基づいて、上記曲線又は直線について変形を行う描画処理を制御することを特徴とする請求項1に記載の描画装置。
  11. 光を透過する平面を有する筐体よりなる描画装置における描画方法であって、
    上記平面に画像情報を表示し、
    上記平面に対する操作体による複数の接触位置、および上記操作体の上記平面上における動きを検出し、
    上記検出手段により検出された上記操作体の接触位置と動きに基づいて、上記表示手段に表示させる画像情報を制御する
    ことを特徴とする描画方法。
JP2007166923A 2007-06-25 2007-06-25 描画装置、及び描画方法 Expired - Fee Related JP4513830B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007166923A JP4513830B2 (ja) 2007-06-25 2007-06-25 描画装置、及び描画方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007166923A JP4513830B2 (ja) 2007-06-25 2007-06-25 描画装置、及び描画方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP18999097A Division JP3997566B2 (ja) 1997-07-15 1997-07-15 描画装置、及び描画方法

Publications (2)

Publication Number Publication Date
JP2007323660A true JP2007323660A (ja) 2007-12-13
JP4513830B2 JP4513830B2 (ja) 2010-07-28

Family

ID=38856362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007166923A Expired - Fee Related JP4513830B2 (ja) 2007-06-25 2007-06-25 描画装置、及び描画方法

Country Status (1)

Country Link
JP (1) JP4513830B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009078144A1 (ja) * 2007-12-18 2009-06-25 Panasonic Corporation 空間入力動作表示装置
WO2011007746A1 (ja) * 2009-07-17 2011-01-20 大日本印刷株式会社 指先操作型情報提供システム、対話操作装置、コンピュータープログラム、及び記録媒体
JP2011181104A (ja) * 2011-06-07 2011-09-15 Casio Computer Co Ltd 電子機器およびプログラム
WO2012120958A1 (ja) * 2011-03-04 2012-09-13 株式会社ニコン 投影装置
JP2012185630A (ja) * 2011-03-04 2012-09-27 Nikon Corp 投影装置
JP2013134409A (ja) * 2011-12-27 2013-07-08 Seiko Epson Corp プロジェクター、及び、プロジェクターの制御方法
US8957876B2 (en) 2011-02-28 2015-02-17 Kabushiki Kaisha Toshiba Information processing apparatus and computer-readable storage medium
JP2015207040A (ja) * 2014-04-17 2015-11-19 シャープ株式会社 タッチ操作入力装置、タッチ操作入力方法及びプログラム
JP2016162032A (ja) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 表示装置、表示制御方法およびプログラム
JP2018163693A (ja) * 2018-06-21 2018-10-18 シャープ株式会社 タッチ入力表示装置、表示制御方法及びプログラム
CN112527179A (zh) * 2020-12-03 2021-03-19 深圳市优必选科技股份有限公司 涂鸦图像识别方法、装置及终端设备
JP2021533483A (ja) * 2018-08-07 2021-12-02 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. ビデオフレーム処理方法及び装置

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60230228A (ja) * 1984-04-28 1985-11-15 Mitsubishi Electric Corp 投射型画像再生装置の画面位置指定方式
JPS6330928A (ja) * 1986-07-25 1988-02-09 Hitachi Ltd 入出力装置
JPH01150192A (ja) * 1987-12-07 1989-06-13 Nec Corp タッチ入力装置
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
US5045843A (en) * 1988-12-06 1991-09-03 Selectech, Ltd. Optical pointing device
JPH03219324A (ja) * 1990-01-25 1991-09-26 Hitachi Ltd 座標入力方法及びデータ処理装置
US5115230A (en) * 1989-07-19 1992-05-19 Bell Communications Research, Inc. Light-pen system for projected images
JPH04271423A (ja) * 1991-02-27 1992-09-28 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法
JPH0519957A (ja) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 情報の入力方法
JPH06332612A (ja) * 1993-05-20 1994-12-02 Hitachi Ltd ポインティング位置検出方法
JPH07141101A (ja) * 1993-11-19 1995-06-02 Hitachi Ltd 画像を用いた入力システム
JPH07334299A (ja) * 1994-04-13 1995-12-22 Toshiba Corp 情報入力装置
JPH0895707A (ja) * 1994-09-27 1996-04-12 Sony Corp コンピュータディスプレイシステム
JPH0980372A (ja) * 1995-09-07 1997-03-28 Toshiba Corp 投写型表示装置
JPH0991092A (ja) * 1995-09-21 1997-04-04 Sony Corp 入力装置
JPH0991079A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 情報入力装置および画像処理方法
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
WO1997030416A1 (en) * 1996-02-16 1997-08-21 Thomson Training & Simulation Ltd. A method and system for determining the point of contact of an object with a screen
JPH1138949A (ja) * 1997-07-15 1999-02-12 Sony Corp 描画装置、描画方法及び記録媒体

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60230228A (ja) * 1984-04-28 1985-11-15 Mitsubishi Electric Corp 投射型画像再生装置の画面位置指定方式
JPS6330928A (ja) * 1986-07-25 1988-02-09 Hitachi Ltd 入出力装置
JPH01150192A (ja) * 1987-12-07 1989-06-13 Nec Corp タッチ入力装置
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
US5045843B1 (en) * 1988-12-06 1996-07-16 Selectech Ltd Optical pointing device
US5045843A (en) * 1988-12-06 1991-09-03 Selectech, Ltd. Optical pointing device
US5115230A (en) * 1989-07-19 1992-05-19 Bell Communications Research, Inc. Light-pen system for projected images
JPH03219324A (ja) * 1990-01-25 1991-09-26 Hitachi Ltd 座標入力方法及びデータ処理装置
JPH04271423A (ja) * 1991-02-27 1992-09-28 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法
JPH0519957A (ja) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 情報の入力方法
JPH06332612A (ja) * 1993-05-20 1994-12-02 Hitachi Ltd ポインティング位置検出方法
JPH07141101A (ja) * 1993-11-19 1995-06-02 Hitachi Ltd 画像を用いた入力システム
JPH07334299A (ja) * 1994-04-13 1995-12-22 Toshiba Corp 情報入力装置
JPH0895707A (ja) * 1994-09-27 1996-04-12 Sony Corp コンピュータディスプレイシステム
JPH0980372A (ja) * 1995-09-07 1997-03-28 Toshiba Corp 投写型表示装置
JPH0991092A (ja) * 1995-09-21 1997-04-04 Sony Corp 入力装置
JPH0991079A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 情報入力装置および画像処理方法
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
WO1997030416A1 (en) * 1996-02-16 1997-08-21 Thomson Training & Simulation Ltd. A method and system for determining the point of contact of an object with a screen
JP2000506643A (ja) * 1996-02-16 2000-05-30 トムソン・トレイニング・アンド・シミュレイション・リミテッド スクリーンと物体の接触点を決定する方法及びそのシステム
JPH1138949A (ja) * 1997-07-15 1999-02-12 Sony Corp 描画装置、描画方法及び記録媒体

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146333A (ja) * 2007-12-18 2009-07-02 Panasonic Corp 空間入力動作表示装置
WO2009078144A1 (ja) * 2007-12-18 2009-06-25 Panasonic Corporation 空間入力動作表示装置
WO2011007746A1 (ja) * 2009-07-17 2011-01-20 大日本印刷株式会社 指先操作型情報提供システム、対話操作装置、コンピュータープログラム、及び記録媒体
JP2011022945A (ja) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd 指先操作型情報提供システム、プログラム、記録媒体
US8957876B2 (en) 2011-02-28 2015-02-17 Kabushiki Kaisha Toshiba Information processing apparatus and computer-readable storage medium
WO2012120958A1 (ja) * 2011-03-04 2012-09-13 株式会社ニコン 投影装置
JP2012185630A (ja) * 2011-03-04 2012-09-27 Nikon Corp 投影装置
JP2011181104A (ja) * 2011-06-07 2011-09-15 Casio Computer Co Ltd 電子機器およびプログラム
JP2013134409A (ja) * 2011-12-27 2013-07-08 Seiko Epson Corp プロジェクター、及び、プロジェクターの制御方法
JP2015207040A (ja) * 2014-04-17 2015-11-19 シャープ株式会社 タッチ操作入力装置、タッチ操作入力方法及びプログラム
US10353578B2 (en) 2014-04-17 2019-07-16 Sharp Kabushiki Kaisha Touch operation input device, touch operation input method and program
JP2016162032A (ja) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 表示装置、表示制御方法およびプログラム
JP2018163693A (ja) * 2018-06-21 2018-10-18 シャープ株式会社 タッチ入力表示装置、表示制御方法及びプログラム
JP2021533483A (ja) * 2018-08-07 2021-12-02 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. ビデオフレーム処理方法及び装置
JP7182689B2 (ja) 2018-08-07 2022-12-02 北京字節跳動網絡技術有限公司 ビデオフレーム処理方法及び装置
CN112527179A (zh) * 2020-12-03 2021-03-19 深圳市优必选科技股份有限公司 涂鸦图像识别方法、装置及终端设备
CN112527179B (zh) * 2020-12-03 2023-01-31 深圳市优必选科技股份有限公司 涂鸦图像识别方法、装置及终端设备

Also Published As

Publication number Publication date
JP4513830B2 (ja) 2010-07-28

Similar Documents

Publication Publication Date Title
JP3997566B2 (ja) 描画装置、及び描画方法
JP4513830B2 (ja) 描画装置、及び描画方法
US20220084279A1 (en) Methods for manipulating objects in an environment
US11954808B2 (en) Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment
US20220164032A1 (en) Enhanced Virtual Touchpad
US11048333B2 (en) System and method for close-range movement tracking
JP6074170B2 (ja) 近距離動作のトラッキングのシステムおよび方法
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
CN115167676A (zh) 用于在三维环境中显示应用程序的设备和方法
JP6539816B2 (ja) 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法
JP2022540315A (ja) 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース
US20140123077A1 (en) System and method for user interaction and control of electronic devices
CN102460373A (zh) 表面计算机用户交互
JP2013037675A5 (ja)
US11244511B2 (en) Augmented reality method, system and terminal device of displaying and controlling virtual content via interaction device
CN110489027B (zh) 手持输入设备及其指示图标的显示位置控制方法和装置
US8643679B2 (en) Storage medium storing image conversion program and image conversion apparatus
CN201369027Y (zh) 一种红外激光笔遥指虚拟触摸系统
CN109144598A (zh) 基于手势的电子面罩人机交互方法与系统
JP4266076B2 (ja) 電子黒板システム
CN109144235B (zh) 基于头手协同动作的人机交互方法与系统
WO2022034745A1 (ja) 書き込み画面画像を重畳する情報処理装置
JP2007272927A (ja) 情報入出力装置、及び情報入出力方法
AU2015252151A1 (en) Enhanced virtual touchpad and touchscreen

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100503

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees