JP4173114B2 - 体感作画装置 - Google Patents

体感作画装置 Download PDF

Info

Publication number
JP4173114B2
JP4173114B2 JP2004046807A JP2004046807A JP4173114B2 JP 4173114 B2 JP4173114 B2 JP 4173114B2 JP 2004046807 A JP2004046807 A JP 2004046807A JP 2004046807 A JP2004046807 A JP 2004046807A JP 4173114 B2 JP4173114 B2 JP 4173114B2
Authority
JP
Japan
Prior art keywords
color
image
flow
force
pointing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004046807A
Other languages
English (en)
Other versions
JP2005235115A (ja
Inventor
俊介 吉田
順 楜沢
春生 野間
信二 鉄谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004046807A priority Critical patent/JP4173114B2/ja
Priority to US10/898,054 priority patent/US20050184967A1/en
Publication of JP2005235115A publication Critical patent/JP2005235115A/ja
Application granted granted Critical
Publication of JP4173114B2 publication Critical patent/JP4173114B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03548Sliders, in which the moving part moves in a plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は体感作画装置に関し、特にたとえば、コンピュータインターフェイスとして用いられるディジタルデスクを利用した、体感作画装置に関する。
この種の体感作画装置に近似する先行技術の一例が非特許文献1に開示される。この先行技術のディジタルデスクでは、プロジェクタによってデスクにたとえばWindows(登録商標)のようなオペレーティングシステム上で動作するExcel(登録商標)の実行画面が展開されていて、デスク上を手指やペンで直接ポインティングすることにより、これをカメラからの撮影画像で認識し、その画面上の入力位置を特定する。そして、デスク上に置かれた用紙に記述されている文字や数字などを指先で指し示すことにより、当該文字や数字などを同じくカメラからの撮影画像で認識して、特定した入力位置に入力する。つまり、キーボードやコンピュータマウスを使用することなく、簡単に入力できるコンピュータインターフェイスとして使用していた。
また、先行技術の他の例が非特許文献2に開示される。この先行技術のディジタルデスクは、デスクの下にステッピングモータを敷き詰めて、デスク上の磁性体の位置を制御し、実世界に作用するものであった。
「電脳強化環境 −どこでもコンピュータの技術と展望−」 パーソナルメディア P180−207 「The Actuated Workbench: Computer−Controlled Actuation In Tabletop Tangible Interfaces」 Published in the Proceedings of UIST 2002,October 27-30,2002,copyright 2002 ACM
前者の場合には、キーボードやコンピュータマウスなどの入力装置を用いずに操作することができるため、簡単に操作することができるが、コンピュータから実世界に作用することができなかった。
一方、後者の場合には、コンピュータから実世界に作用することはできるが、単にデスク上の磁性体を移動させるに留まり、画像情報などの様々な情報を扱うコンピュータのインターフェイスとしては不十分であった。
それゆえに、この発明の主たる目的は、画像を触覚により体感できる、新規な体感作画装置を提供することである。
請求項1の発明は、少なくとも画像をデスクプレートに表示する表示手段、デスクプレート上に配置される移動体と移動体に連結されユーザによって把持可能な把持部とを含み、移動体を移動させることにより、少なくともユーザによる操作情報を入力し、作画するためのポインティング手段、およびポインティング手段によって作画されるとき、少なくとも作画される画像の色に応じて異なる大きさの反力を移動体に与える力提示手段を備える、体感作画装置である。
請求項1の発明では、体感作画装置の表示手段は、少なくとも画像をデスクプレートに表示る。ポインティング手段は、デスクプレート上に配置される移動体と移動体に連結されユーザによって把持可能な把持部とを含み、移動体を移動させることにより、少なくともユーザによる操作情報を入力し、画像を作画するために用いられる。力提示手段は、ユーザがポインティング手段を用いて作画するとき、少なくとも作画される画像の色に応じて異なる大きさの反力を移動体に与える。たとえば、描画される線の色に応じた力を与える。これにより、ポインティング手段を操作するユーザのたとえば手指に当該反力が提示される。
請求項1の発明によれば、画像の色に応じた力を提示することができるので、ユーザは画像の架空の感触を楽しみながら作画することができる。
請求項2の発明は請求項1に従属し、少なくとも色を決定するための色決定手段をさらに備え、ポインティング手段によって作画されるとき、当該ポインティング手段によって指示される現在位置に、色決定手段によって決定された色を貼り付ける色貼り付け手段を含む。
請求項2の発明では、色決定手段は、少なくとも描画する点や線についての色を決定する。ポインティング手段によって作画されるとき、色貼り付け手段は、当該ポインティング手段によって指示される現在位置に、決定された色を貼り付ける。
請求項2の発明によれば、所望の色を決定して、決定した色で点や線を描画することができる。また、決定した色に応じた力を提示できるので、色の重さを感じ取ることができる。
請求項3の発明は請求項1に従属し、表示手段は、ポインティング手段によって作画されるとき、操作の開始時点において当該ポインティング手段によって指示される位置に貼り付けられた色に、所定の透過率を掛け合わせつつ、当該ポインティング手段によって現在指示される位置に表示された色を混ぜ合わせる混合手段を含む。
請求項3の発明では、混合手段は、ポインティング手段によって作画されるとき、操作開始時点においてポインティング手段が指示している位置の色に、所定の透過率を掛け合わせつつ、当該ポインティング手段によって現在指示される位置に表示された色を混ぜ合わせる。つまり、既に描画されている色同士を混ぜ合わせることができ、その様子が表示される。
請求項3の発明によれば、既に塗られた色同士を混ぜ合わせるので、混ぜ合わせにより作画することができ、しかも、混ぜ合わせた色に応じた力を提示することができる。
請求項4の発明は請求項1ないし3のいずれかに従属し、表示手段は、画像を任意の方向に流れるように表示する。
請求項4の発明では、表示手段は、画像を任意に流れるように表示する。たとえば、この流れにより、画像は変化される。
請求項4の発明によれば、画像を流れるように表示し、流れにより画像が変化されるので、単に色を塗ったり、混ぜたりするだけではなく、流れによる画像の変化を楽しむことができる。
請求項5の発明は請求項4に従属し、少なくとも画像の流れる方向を決定する流れ決定手段をさらに備え、表示手段は、流れ決定手段によって決定された方向に画像を流れるように表示する。
請求項5の発明では、流れ決定手段は、少なくとも画像の流れる方向を決定する。表示手段は、流れ決定手段によって決定された方向に画像を流れるように表示する。
請求項5の発明によれば、画像の流れる方向を決定できるので、流れによる画像の変化が単調にならず、作画する楽しさを増すことができる。
請求項6の発明は請求項5に従属し、流れ決定手段は画像の流れの強さをさらに決定する。
請求項6の発明では、画像の流れの強さをさらに決定することができる。
請求項6の発明によれば、画像の流れの強さも変更できるので、流れによる画像の変化が単調になるのを防止することができる。
請求項7の発明は、請求項4ないし6のいずれかに従属し、力提示手段は、貼り付ける色に対応する色の重さによる慣性力、画像の流れによる流体抵抗力および既に作画された画像についての色の境界における色摩擦抵抗力の少なくとも1つに基づく力をポインティング手段に与える。
請求項7の発明では、たとえば、色に対応する色の重さが予め定義される。力提示手段は、貼り付ける色に対応する色の重さによる慣性力、画像の流れによる流体抵抗力および既に作画(描画)された画像の色の境界における色摩擦抵抗力の少なくとも1つに基づく力をポインティング手段に与える。これにより、ユーザは、描画する色の重さ、画像の流れ、描画した画像の色の変化を力で体感できる。
請求項7の発明によれば、描画する色の重さ、画像の流れ、描画した画像の色の変化を力で体感できるので、実際のキャンバスに絵を描いているような没入感を得ることができるだけでなく、色に定義した重さから得ることができる画材(画像)の架空の感触や水の流れを模した画像の流れによる事象から生まれる感覚を楽しみながら作画することができる。
請求項8の発明は請求項7に従属し、色の重さは少なくとも色の輝度に応じて決定される。
請求項8の発明では、色の重さは少なくとも色の輝度の応じて決定され、たとえば、輝度が高い場合には、色の重さは軽くされ、輝度が低い場合には、色の重さは重くされる。
請求項8の発明によれば、色の輝度に応じて色の重さが決定され、これにより、色の重さを力で感じることができるため、視覚により画像の色を楽しむだけではなく、触覚により画像の色を楽しむことができる。
請求項9の発明は請求項1ないし8のいずれかに従属し、表示手段は、プロジェクタをさらに含み、ポインティング手段は、操作情報を検出する操作情報検出手段をさらに含み、移動体は導電体を含み、力提示手段は、導電体、デスクプレート下に設けられる固定子コア、および固定コアに巻かれる固定子コイルを備えるリニアインダクションモータを含む。
請求項9の発明では、表示手段は、プロジェクタをさらに含む。たとえば、プロジェクタによって、描画した絵がデスクプレート上に表示される。ポインティング装置は、操作情報を検出する操作情報検出手段をさらに含む。つまり、ユーザはポインティング装置を把持して、画像を描画する。その操作情報は、操作情報検出手段によって検出される。移動体は導電体を含む。力提示手段は、リニアインダクションモータを含む。つまり、リニアインダクションモータの移動子である導電体はデスクプレート上に載置されるとともに、把持部に連結される。また、リニアインダクションモータの固定子コアおよび固定子コイルは、デスクプレート下に設けられる。つまり、固定子コアおよび固定子コイルによって、力の大きさおよび方向に応じた進行磁界が発生し、これによって、導電体に並進力が働く。このため、移動体に連結された把持部が移動され、したがって、ユーザに力が提示される。
請求項9によれば、リニアインダクションモータのような力提示手段を用いて、ユーザに力を提示することができる。
この発明によれば、少なくとも作画する画像の色に応じた力を、ポインティング装置を通してユーザに提示するため、画像を触覚により体感することができる。このため、実際のキャンバス上で絵を描いているような感覚を得ることができるだけでなく、色に定義した重さから得ることができる画像の架空の感触を得ることができ、より使い易いコンピュータインターフェイスを実現することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例である体感作画装置10はデスクトップ装置12を含む。デスクトップ装置12は、デスクプレート14およびリニアインダクションモータ(以下、単に「リニアモータ」という。)16を備えている。また、体感作画装置10には、リニアモータ16に電圧(電源)を供給するためのX方向用インバータ18aおよびY方向用インバータ18bが設けられる。
なお、図面では分かり易く示すために、デスクプレート14とリニアモータ16の固定子との間に隙間があるように表現してあるが、実際には、リニアモータ16の固定子上にデスクプレート14は載置される。
図2はデスクトップ装置12の構成を示す図解図である。この図2に示すように、デスクプレート14には、3つのスライダー抵抗14a,14bおよび14cが設けられる。図面では、簡単のため、スライダー抵抗14a,14bおよび14cの一部(調整つまみ)のみを示してある。このスライダー抵抗14a〜14cは、後述する周辺装置用信号処理装置26に、電気的に接続される。また、スライダー抵抗14a〜14cは、それぞれ、その調整つまみを左端に移動させたとき、抵抗値が最小となり、逆に、調整つまみを右端に移動させたとき、抵抗値が最大となる。
ただし、スライダー抵抗14a〜14cは、デスクプレート14に設ける必要はなく、別途独立に設けるようにしてもよい。
また、図2に示すように、リニアモータ16は、複数(この実施例では、100個)の固定子コア160およびヨーク(継鉄)162を含み、複数の固定子コア160は、横(X)方向および縦(Y)方向に所定個数(10個)ずつ並んでマトリクス状に配置される。図2では分かり難いが、各固定子コア160には、X方向とY方向との二方向に複数の巻線(固定子コイル)164a〜164fおよび166a〜166fが巻かれている(図3参照)。
巻線164a〜164fおよび巻線166a〜166fは、図3に示すように、隣接する固定子コア160の間を通るように、それぞれ、複数のコア160に共通に巻かれる。X軸方向では、巻線164aおよび巻線164dが直列接続され、その一方端がインバータ18aのU相に接続される。また、巻線164bおよび巻線164eが直列接続され、その一方端がインバータ18aのV相に接続される。そして、巻線164cおよび巻線164fが直列接続され、その一方端がインバータ18aのW相に接続される。さらに、それぞれの他方端は、図示は省略するが、互いに連結される。つまり、Y結線される。
一方、Y軸方向では、巻線166aおよび巻線166dが直列接続され、その一方端がインバータ18bのU相に接続される。また、巻線166bおよび巻線166eが直列接続され、その一方端がインバータ18bのV相に接続される。そして、巻線166cおよび巻線166fが直列接続され、その一方端がインバータ18bのW相に接続される。さらに、それぞれの他方端は、図示は省略するが、互いに連結される。つまり、Y結線される。
なお、リニアモータ16としては、平成11年9月3日付で公開された特許第2975659号公報に開示される二方向性リニアモータを用いることができる。
コンピュータ28は、インバータ18aおよびインバータ18bの前段に設けられる周辺装置用信号処理装置26を介して、インバータ18aおよびインバータ18bの少なくとも一方に駆動電圧を与える。すると、X軸方向およびY軸方向の少なくとも一方に、進行磁界が発生する。つまり、リニアモータ16では、固定子コア160が配置される範囲内で、任意の方向(2次元方向)に進行磁界を発生させることができる。
図1に戻って、体感作画装置10はポインティング装置20を含み、ポインティング装置20はデスクプレート14上に載置される。ポインティング装置20には、たとえば、円盤状に形成された銅,アルミ或いは真ちゅうのような導電体20aが設けられる。この導電体20aはリニアモータ16の移動子である。
なお、導電体20aの形状は円盤状に限定されるべきではなく、四角形(正方形、長方形)の板状に形成するようにしてもよい。
また、ポインティング装置20には、ユーザの手指に装着或いは手指で把持可能な把持部(以下、「ペン入力部」という。)20bが設けられ、このペン入力部20bは、上述の導電体20aに連結される。さらに、ペン入力部20bには、赤外LED20cおよび押しボタン20dが設けられる。一例として、赤外LED20cは、導電体20aとペン入力部20bとの連結部の近傍に設けられ、押しボタン(以下、単に「ボタン」という。)20dは、ユーザが手指でペン入力部20を把持した場合に、人指し指等で押すことができる位置に設けられる。ただし、赤外LED20cは、その赤外光を後述する検出装置24によって検出できる位置であれば、導電体20a或いはペン入力部20bの任意の位置に設けることも可能である。また、ボタン20dに代えて、タッチセンサのようなセンサを用いることも可能である。
なお、この実施例で、赤外LED20cを、導電体20aとペン入力部20bとの連結部の近傍に設けるようにしてあるのは、導電体20aの中心またはほぼ中心をユーザが指示している位置として認識するようにしてあるためであり、当該連結部が導電体20aのほぼ中心に位置するためである。
図4(A)には、ポインティング装置20の電気的な構成が示される。この図4(A)を参照して、ポインティング装置20は、LED制御回路20eを含み、LED制御回路20eには、電源20fから電源(直流電圧)が与えられる。なお、電源20fとしては、電池(1次電池或いは2次電池)を用いることができる。また、LED制御回路20eには、上述した赤外LED20cおよびボタン20dが接続される。
LED制御回路20eは、電源20fから与えられる直流電圧を、赤外LED20cに供給/停止することにより、赤外LED20cの点灯および消灯、すなわち明滅を制御する。この実施例では、LED制御回路20eは、通常赤外LED20cを点灯し続け、ボタン20dのオン時とオフ時に、それぞれ異なるパターンで明滅させる。
たとえば、ボタン20dがオンされると、これに応じて、LED制御回路20eは、図4(B)に示すように、赤外LED20cを、時系列に従って、オフ,オン,オフ,オン,オフ,オン,オフする。赤外LED20cがオンの場合を“1”とし、オフの場合を“0”とすると、赤外LED20cは“0101010”のパターン(以下、「押しパターン」という。)で明滅される。一方、ボタン20dがオフされると、これに応じて、LED制御回路20eは、図4(C)に示すように、赤外LED20cを、時系列に従って、オフ,オン,オン,オフ,オン,オン,オフする。つまり、赤外LED20cは“0110110”のパターン(以下、「離しパターン」という。)で明滅される。ただし、この離しパターンに従って赤外LED20cが明滅されるのは、一旦ボタン20dがオンされた後に、オフされた場合のみである。したがって、ユーザによって何らボタン20dが操作されていないオフの場合には、当該離しパターンに従って赤外LED20cが明滅されることはない。
なお、このパターンは単なる例示であり、これに限定されるべきでない。ボタン20dのオン時とオフ時とで異なるパターンに従って赤外LED20cを明滅させるようにすればよいのである。
また、パターンに従って赤外LED20cが明滅されるのは、数(2〜3)ミリsecである。
さらに、この実施例では、1つのボタン20dを備えるペン入力部20bを設けたポインティング装置20について示してあるが、2つ以上のボタンを備えるようにしてもよい。また、ペン入力部20bに代えて、コンピュータマウスのような形状および構成の入力部を設けるようにしてもよい。2つ以上のボタンを備える場合には、各ボタンの別を表現できるように、さらにボタン同士の間でもオン時とオフ時とのパターンを変えて、赤外LED20cを明滅させればよい。たとえば、コンピュータマウスのような形状および構成の入力部を設ける場合には、少なくとも左クリック用のボタンと右クリック用のボタンとが設けられるため、左クリック用のボタンのオン時とオフ時および右クリック用のボタンのオン時とオフ時のそれぞれで、異なるパターン(4つのパターン)に従って赤外LED20cを明滅させるようにすればよい。
このような構成のポインティング装置20は、ユーザによってペン入力部20bを把持され、デスクプレート14上を移動され、場合によっては、ボタン20dのオン/オフを受け付ける。また、上述したリニアモータ16の固定子側で進行磁界を発生させることにより、導電体20aがデスクプレート14上を移動され、ポインティング装置20に力を加える(与える)ことができる。つまり、ペン入力部20bを把持するユーザの手指に任意の力を提示することができるのである。
図1に戻って、デスクトップ装置12およびポインティング装置20の上方には、プロジェクタユニット22および検出装置24が所定位置に固定的に設けられる。プロジェクタユニット22は、後述するコンピュータ28からの指示に従って、デスクトップ装置12のデスクプレート14に映像ないし画像を表示する。
図5はプロジェクタユニット22の具体的な構成を示す図解図である。この図5に示すように、プロジェクタユニット22には、プロジェクタ22aが設けられ、プロジェクタ22aにはコンピュータ28からの映像信号(たとえば、RGB信号)が与えられる。また、プロジェクタユニット22には、プロジェクタ22aとデスクプレート14とが対面する側であり、プロジェクタ22aからデスクプレート14に向かって、レンズ22bおよび赤外光カットフィルタ22cがその順番で設けられる。レンズ22bは、プロジェクタ22aから投影される映像を拡大する。したがって、デスクプレート14に、拡大された映像が表示される。赤外光カットフィルタ22cは、デスクプレート14上に表示される映像に含まれてしまうプロジェクタ22aの赤外光をカットし、ひいては、後述するポインティング装置20の赤外光の検出に悪影響を及ぼさないようにしてある。
図6(A)は、検出装置24の具体的な構成を示す図解図である。検出装置24は位置検出素子24aを含み、位置検出素子24aは、可視光カットフィルタ24cおよびレンズ24bを介して入力される赤外光を検出する。レンズ24bおよび可視光カットフィルタ24cは、検出素子24aとデスクプレート14とが対面する側であり、位置検出素子24aからデスクプレート14に向かって、その順番で設けられる。この実施例では、赤外光は、上述したポインティング装置20から照射される。可視光カットフィルタ24cは、デスクプレート14に表示される映像についての可視光等が、赤外光の検出に影響しないようにするために設けられる。レンズ24bは、デスクプレート14の全範囲(大きさ)と位置検出素子24aの大きさとを擬似的に一致させるために設けられる。したがって、デスクプレート14の全範囲のいずれから入射される赤外光は、レンズ24bを通過することにより、位置検出素子24aに照射される。位置検出素子24aは、図6(B)の四角枠で示すような素子面を有し、赤外光が照射されると、照射位置に対応して、電圧値の座標信号を信号処理回路24dに出力する。
たとえば、図6(B)の丸印で示す位置に赤外光が照射された場合には、(x,y)=(3V,2V)の座標信号が信号処理回路24dに与えられる。信号処理回路24dは、この電圧信号(座標信号)にノイズ除去や増幅などの処理を施して、後述する周辺装置用信号処理装置26に与える。また、信号処理回路24dは、光点検出フラグを周辺装置用信号処理装置26に与える。ここで、光点検出フラグは、「1」または「0」の数値データであり、赤外光を検出した場合には、データ値「1」の光点検出フラグを出力し、赤外光を検出しない場合には、データ値「0」の光点検出フラグを出力する。
なお、位置検出素子24aおよび信号処理回路24dとしては、浜松ホトニクス株式会社製の「位置センサ(品番:C7339)」を用いることができる。
図1に戻って、体感作画装置10は、さらに周辺装置用信号処理装置26およびコンピュータ28を備える。周辺装置用信号処理装置26は、マイクロチップないしDSPで構成され、スライダー抵抗14a〜14cからの電圧値を受けて、これをスライダー抵抗14a〜14cの抵抗値に変換し、さらにディジタル変換した抵抗値データをコンピュータ28に入力する。たとえば、周辺装置用信号処理装置26とコンピュータ28とは、RS232Cのようなシリアルバスによって接続される。また、周辺装置用信号処理装置26は、検出装置24から与えられた座標信号をそのままコンピュータ28に与えるとともに、検出装置24から与えられた光点フラグに基づいてポインティング装置20に設けられるボタン20dが押(オン)されたか、または離(オフ)されたかの情報、すなわち押し情報または離し情報(以下、これらをまとめて「クリック情報」という場合がある。)をコンピュータ28に与える。
また、周辺装置用信号処理装置26は、コンピュータ28から与えられるモータの駆動周波数に対応する電圧値(X方向およびY方向の2値)を受けて、インバータ18aおよびインバータ18bのそれぞれに与える。
コンピュータ28は、PC或いはワークステーションのような汎用のコンピュータであり、リニアモータ16(インバータ18a,18b)の駆動を制御したり、デスクプレート14への映像や画像の表示を制御したりする。リニアモータ16の駆動の制御は、デスクプレート14に表示中の画像、周辺装置用信号処理装置26から与えられる抵抗値データ、座標信号およびクリック情報等に基づいて行われる。この制御方法については、後で詳細に説明することにする。
また、コンピュータ28は、プロジェクタユニット22を介してデスクプレート14に映像ないし画像を含む画面(コンピュータ画面)を表示する。コンピュータ28は、ハードディスクのような記憶媒体(メモリ)28aを含み、メモリ28aには、デスクプレート14に表示するコンピュータ画面についてのデータ(画像データ)等が記憶される。
たとえば、体感作画装置10が起動されると、デスクトップが初期化され、図7に示すような画面(コンピュータ画面)100がデスクプレート14に表示される。コンピュータ画面100には、ユーザが描いた画像(点、線、面など)などを表示するための画像表示領域(キャンバス)102およびユーザが画像表示領域102に画像を描画する場合に必要となるツールなどを表示するメニュー表示領域104が設けられる。
図8に示すように、メニュー表示領域104には、ボタンないしアイコン104a,104b,104c,104d,104e,104f,104gが表示される。ボタン104aは、画像表示領域102を初期化する場合に操作される。たとえば、画像表示領域102が初期化されると、当該画像表示領域102の全面に白色のような単一色の背景が表示される。ボタン104bは、画像表示領域102に表示された画像を印刷する場合に操作される。図1では省略したが、コンピュータ28には、周辺機器としてのプリンタを接続することができ、したがって、画像表示領域102に表示された画像を印刷することができる。
ボタン104cは、カメラ(図示せず)で撮影された画像をキャプチャして、キャプチャした画像を画像表示領域102に表示する場合に操作される。たとえば、カメラとしては、CCDのような撮像素子を用いたCCDカメラ(USBカメラ)を用いることができる。図1では省略したが、このCCDカメラは、たとえば、体感作画装置10を使用するユーザの顔画像を撮影可能な位置に配置され、ボタン104cの操作に応答して、撮影した画像(撮影画像)をコンピュータ28に入力する。コンピュータ28は、CCDカメラから入力された撮影画像をデスクプレート14の画像表示領域102に表示する。
なお、CCDカメラの配置位置や撮影対象は、任意に設定可能である。つまり、CCDカメラは、コンピュータ28に直接接続される必要はなく、インターネットやイントラネット等のネットワークを介して接続されるようにしてもよいし、撮影対象(被写体)はユーザの顔に限らず、他の人物や風景であってもよい。また、リアルタイムに撮影画像を得る必要はなく、予め取得(撮影)しておいた撮影画像をキャプチャ操作に応じて表示するようにしてもよい。
ボタン104d,104eおよび104fは作画する場合の各モードを選択するためのボタンである。ボタン104dは、ユーザが画像表示領域102に画像を自由に描画するモード(ペイントモード)を設定する場合に操作される。このペイントモードが設定されると、アイコン表示領域104iに、作画するために用いる筆の種類を選択するためのアイコンが複数表示される。この実施例では、大きさ(大・中・小)および透明度(透過率)の少なくとも一方が異なるように設定された、6種類の筆についてのアイコンが用意されている。また、各アイコン(筆)には、点や線を描画した際のエッジの柔らかさも個別に設定されている。つまり、エッジの柔らかさが低くい場合、すなわちエッジが堅い場合には、点や線端は角張って表示される。一方、エッジの柔らかさが大きい場合には、点や線端は丸まって表示される。
なお、図面では、その図柄(円形)の大きさが筆の大きさ(太さ)を示しており、また、図柄内を黒色で塗りつぶした図柄が斜線を引いた図柄よりも透明度が低いことを意味する。
また、簡単のため、この実施例では、6種類の筆を用意しておくようにしてあるが、さらに多種類の筆を用意しておくようにしてもよい。かかる場合には、円形の図柄のみならず、四角形の図柄の筆も用意しておき、描画する点や線に現われるエッジの違いも選択できるようにすることができる。
したがって、ユーザは所望の筆をアイコン表示領域104iから選択し、選択した筆で画像表示領域102すなわちキャンバスに絵を描くことができる。ただし、絵を描く場合に使用する色は、上述したスライダー抵抗14a〜14cを用いることによって、ユーザが適宜設定および変更することができる。たとえば、この実施例では、スライダー抵抗14aの抵抗値は色相に対応し、スライダー抵抗14bの抵抗値は彩度に対応し、スライダー抵抗14cの抵抗値は輝度に対応する。したがって、スライダー抵抗14a〜14cの抵抗値を可変させることにより、色相すなわち色(有彩色,無彩色)、彩度および輝度が決定される。
図7に戻って、画像表示領域102の下方には、色の属性を表示する表示領域(色属性表示領域)106が設けられる。この色属性表示領域106には、さらに、選択中の色を表示する色表示領域106a、色相を表示する色相表示領域106b、彩度を表示する彩度表示領域106cおよび輝度を表示する輝度表示領域106dが設けられる。したがって、ユーザは、スライダー抵抗14a〜14cを調整するとき、色属性表示領域106を見て容易に設定することができる。
また、ポインティング装置20が指示している位置には、マウスポインタのようなポインタ110が表示される。つまり、赤外LED20cを検出した位置に対応する画面上の位置にポインタ110は表示される。ただし、図7においては、分かり易く示すために、ポインティング装置20の導電体20aのみを示してある。
ペイントモードでは、ユーザがデスクプレート14(画像表示領域102)上でポインティング装置20を用いて、ドラッグすると、これに応じて選択中の色の線が当該画像表示領域102に描画される。具体的には、ペイントモードでは、ポインティング装置20の位置(現在位置)を検出し、検出した現在位置すなわちポインタ110が表示された位置に、選択された筆の大きさに応じた範囲(領域)で、選択された色を貼り付けるようにしてある。この実施例では、ドラッグは、操作ボタン20dをオンした状態のままで、ポインティング装置20を移動させることを意味する。以下、同様である。ただし、このペイントモードでは、ポインティング装置20によって指示された現在位置に選択中の色を貼り付けるようにしてあるため、既に(先に)該当する箇所に色が塗られている場合には、その上から色が貼り付けられる。
図面の都合上、色を表現することはできないが、ペイントモードでは、図9に示すように、所望の画像等を描画することができる。なお、線の太さの違いは、選択した筆の大きさが異なることを現している。
図8に戻って、ボタン104eは、色を混ぜ合わせるモード(混ぜ合わせモード)を設定する場合に操作される。この混ぜ合わせモードが設定されている場合にも、上述したペイントモードと同様に、アイコン表示領域104iには筆の種類を選択するための複数のアイコンが表示される。したがって、ユーザは、ポインティング装置20を操作して、所望のアイコンすなわち筆を選択することができる。
この混ぜ合わせモードでは、既に画像表示領域102に描画(表示)された画像の上を、ポインティング装置20を用いて、ドラッグすると、既に描画された色同士が混ぜ合わせられる。具体的には、混ぜ合わせモードでドラッグされると、ドラッグの開始時点において、画像表示領域102中のポインティング装置20(ポインタ110)が指示する位置の色が、筆の大きさに応じた範囲(領域)分だけ、たとえばメモリ28aのワークエリアにコピーされる。そして、画像表示を更新する度に、コピーしておいた色に、選択された筆に設定された透過率を掛け合わせつつ、現在ポインティング装置20(ポインタ110)が示す位置に既に描画されている色を混ぜ合わせて、当該位置に貼り付けるようにしてある。これにより、色が混ぜ合わせられる様子が示される。
ボタン104fは、メモリ28aに予め記憶しておいた画像(この実施例では、キャラクタ画像)を、画像表示領域102の所望の位置に貼り付けるモード(以下、「スタンプモード」という。)を設定する場合に操作される。このスタンプモードが設定されると、図10に示すように、アイコン表示領域104iには、メモリ28aに予め記憶しておいたキャラクタ画像についての縮小画像(サムネイル画像)のアイコンが表示される。
たとえば、ユーザは、ポインティング装置20を用いて、所望のサムネイル画像を選択)し、その後、画像表示領域102の所望の位置をクリックないしドラッグすると、クリックないしドラッグした位置に、選択しておいたサムネイル画像に対応するキャラクタ画像が貼り付けられる。したがって、図11に示すように、予め用意しておいたキャラクタ画像が画像表示領域102に表示される。ただし、図11においては、導電体20aおよびポインタ110を分かり易く示すために、キャラクタ画像に上書きしてあるが、プロジェクタ20aによって、デスクプレート14上に画像を表示するため、実際には、導電体20a上にキャラクタ画像が表示される。
なお、この実施例では、簡単のため、6種類のキャラクタ画像を用意しておき、そのサムネイル画像のアイコンを表示するようにしてあるが、さらに多数のキャラクタ画像を用意しておいてもよい。また、キャラクタ画像に限らず、写真、絵画、ポスターなどの任意の画像を記憶するとともに、スタンプモードが選択された場合には、アイコン表示領域104iにそのような画像についてのサムネイル画像のアイコンを表示するようにして、ユーザの操作に従って任意の画像を画像表示領域102に貼り付けるようにしてもよい。
また、図8および図10に示すボタン104gが操作されると、画像表示領域102に表示された画像を流れるように表示することができ、また、既に画像が流れるように表示されている場合にはその流れを停止させることができる。ボタン104gの下方には、流れ設定領域104hが設けられ、流れ設定領域104hに表示される矢印104h´の向きおよび大きさを設定することにより、画像全体を流す方向およびその強さ(速さ)を設定することができる。画像全体を流す方向および強さを設定(変更)する場合には、たとえば、ポインティング装置20を用いて、ボタン104gを操作(クリック)し、画像の流れを一旦停止する。次に、たとえば、ポインティング装置20をドラッグして、所望の流れの方向に矢印104h´の矢先を向けるとともに、その矢印104h´の長さを変更する。そして、ボタン104gをクリックすると、変更した向きおよび強さで、画像全体が流れるように表示される。
ただし、ドラッグによらず、クリックにより、画像全体を流す方向およびその強さを設定することもできる。たとえば、流れ設定領域104h内の所望の位置をクリックすることにより、クリックした位置に、矢印104h´の矢先を移動させるようにすれば、画像全体を流す方向および強さを設定することができる。
また、画像全体の流れを停止させずに、矢印104h´の大きさおよび向きを変えて、リアルタイムに、画像全体を流す方向およびその強さを設定することもできる。
ここで、この実施例では、画像の流れを表現するために、画像表示領域102(厳密には、コンピュータ28内部に設けられるVRAM)の全画素(たとえば、512画素×512画素)のそれぞれには、或る時点における移動量を決定するための流れデータが、一定時間(20秒〜30秒)分メモリ28aに記憶されている。これは、画像を一様に流すのではなく、流れに変化を与えるためである。簡単のため、3画素×3画素の領域について説明すると、或る時刻tにおける流れデータF(t)は、たとえば、図13(A)のように示される。ここで、1つの画素は小さい正方形の枠に対応し、各画素に対応して記述してあるのはベクトルデータである。このベクトルデータは、X軸方向(左右方向)とY軸方向(上下方向)とについての移動(流れ)方向および移動(流れ)量を決定するためのデータである。移動方向は、X軸方向では、正の数であれば左方向であり、負の数であれば右方向であり、Y軸方向では、正の数であれば下方向であり、負の数であれば上方向である。また、移動量は、数値の大きさ(絶対値)で決定され、その数値は移動する画素数を示している。
したがって、次の時刻t+1では、時刻tの流れデータに従って、画像全体が1画素分だけ左方向に移動される。また、時刻t+1の流れデータF(t+1)が図13(B)のように示されるとすると、時刻t+2では、右端の列の画素が1画素分だけ下方向に移動されることになる。
ただし、上述したように、流れ設定領域104h内の矢印104h´を操作することにより、画像全体の流れの方向および強さを変えることができるため、流れデータF(t)にそれらの係数が掛け合わされ、流れデータF(t)が補正されることになる。補正後の流れデータF´(t)は、画像全体の流れについての方向の係数をRとし,流れの強さの係数をSとすると、数1に従って算出される。
[数1]
F´(t)=R・S・F(t)
このような補正後の流れデータF´(t)によって、画像全体が流れ表示されるため、たとえば、図12に示すように、一部が渦を巻いたりするような流れを表現した画像を、画像表示領域102に表示することができる。したがって、単に色を付けたり、色同士を混ぜたりすることにより、画像を描画するだけでなく、流れによる画像の変化を楽しむことができる。
このようにして、コンピュータ28による画面表示が制御される。また、コンピュータ28は、ユーザの操作、すなわちポインティング装置20の位置(移動も含む。)およびそのボタン20dのオン/オフを検出し、ポインティング装置20によって描画される色の重さによる力(慣性力)、画像の流れによる力(流体抵抗による力)、およびキャンバス(画像表示領域102)上の色の変化による力(色摩擦抵抗による力)の合成力を、ポインティング装置20に与える。ここで、色の重さは、色に応じて変化する量(重さ)として予め定義される。
ただし、合成力は、慣性力、流体抵抗による力(流体抵抗力)および色摩擦抵抗による力(色摩擦抵抗力)のすべてを必ずしも含む必要はなく、少なくとも1つを含んでいればよい。
コンピュータ28は、ポインティング装置20に与えるべき力の大きさと方向とを決定(算出)し、その力を発生するために必要なリニアモータ16の駆動のための周波数、さらには、その周波数に応じた電圧値(インバータ18aおよび18bの駆動電圧)を算出する。そして、その力の方向に応じて電圧の符号(正,負)も決定される。そして、インバータ18aおよび18bの駆動電圧を、周辺装置用信号処理装置26に与える。これに応じて、周辺装置用信号処理装置26は、駆動電圧をインバータ18aおよび18bに与える。したがって、X軸方向およびY軸方向の少なくとも一方の固定子コイルによって固定子160が励磁され、進行磁界が発生する。このため、導電体20aには、この進行磁界を妨げる方向に渦電流が励起される。したがって、進行磁界との相互作用により、導電体20aは並進する。このため、導電体20aはデスクプレート14上を移動され、ポインティング装置20を把持するユーザの手指に力を作用させる(加える)ことができる。
たとえば、ポインティング装置20(導電体20a)がドラッグされる場合には、図14(A)に示すように、貼り付ける色(混ぜ合わせて貼り付ける色も含む。)の重さによる慣性力が加えられる。つまり、ポインティング装置20の移動方向とは逆向きに力が加えられる。この慣性力Fiは数2に従って算出される。
[数2]
Fi=−m×a
ただし、mは重さパラメータであり、aは加速度成分である。
ここで、重さパラメータmは筆の大きさおよび色の輝度に応じて変化される。この実施例では、筆が大きい場合には、重さパラメータmの値は大きくされ、逆に筆が小さい場合には、重さパラメータmの値は小さくされる。また、輝度が高い場合、すなわち色が白に近い場合には、重さパラメータmの値は小さくされ、輝度が低い場合、すなわち色が黒に近い場合には、重さパラメータmの値は大きくされる。つまり、重さパラメータmは数3に従って算出される。
[数3]
m=(1−L)・k・S
ただし、Lは輝度であり、kは任意の係数であり、そして、Sは筆の大きさ(サイズ)である。
また、数2に示した加速度成分aは、筆すなわちポインティング装置20の移動の加速度であり、ポインティング装置20の単位時間(位置情報を取得する一定時間)における移動距離を二階微分することにより、算出される。
なお、この実施例では、色の重さは輝度に応じて変化されるようにしているが、色の三要素である、色相、色彩、輝度のいずれか1つ、または任意の組み合わせにより変化されるようにしてもよい。
また、ポインティング装置20(導電体20a)がドラッグされる場合には、図14(B)に示すように、画像の流れる方向に、流体抵抗力が加えられる。この流体抵抗力Ffは数4に従って算出される。
[数4]
Ff=−k×F´(t)
ただし、kは任意の係数であり、F´(t)は、上述したように、流れデータF(t)を全体の流れに応じて補正したデータである。なお、ポインティング装置20(導電体20a)に力を与えるようにするため、実際には、補正後の流れデータF´(t)はポインタ110を中心とする筆の大きさで決定される範囲(領域)内での平均値である。また、係数kは、筆が大きければ大きくされ、筆が小さければ小さくされる。
さらに、ポインティング装置20(導電体20a)がドラッグされ、既に描画(表示)された画像上における色の境界を横切る場合には、図14(C)に示すように、色の違いによる力すなわち色摩擦抵抗力を加える。図面では色を表現することができないが、斜線が色の違いを示している。この色摩擦抵抗力Fcは、数5に従って算出される。
[数5]
Fc=−k×R
ただし、kは任意の係数であり、Rは色のばらつきの度合いである。
ここで、色のばらつきの度合いRについて説明すると、コンピュータ28は、ポインティング装置20の移動する軌跡上のn個の点についての色をサンプリングし、サンプリングしたn個の色についてのばらつきの度合いRを算出する。色が一様であり、ばらつきが少ない場合には、色摩擦抵抗は小さく、色にばらつきがある場合には、色摩擦抵抗は大きくなる。ばらつきの度合いRは、色相、彩度および輝度のそれぞれの標準偏差に、任意の重み付けをして算出される。具体的には、ばらつきの度合いRは、数6に従って算出される。
[数6]
R=stddev(H[n])×r1+stddev(S[n])×r2×stddev(V[n])×r3
ただし、stddev(x)は標準偏差であり、r1,r2,r3は重み係数である。また、H[n]はサンプリングされたn個の点についての色相の列であり、S[n]はサンプリングされたn個の点についての彩度の列であり、V[n]はサンプリングされたn個の点についての輝度の列である。たとえば、重み係数の値は、色の設定とは別のメニューで設定することができるのである。周知のとおり、スライダー抵抗14a〜14cの抵抗値は可変であり、したがって、ユーザが抵抗値を変えることにより、各標準偏差の重み(重要度)を変更することができる。
このようにして算出された慣性力Fi、流体抵抗力Ffおよび色摩擦抵抗力Fcの合成力Fが、上述したように、ポインティング装置20(導電体20a)に加えられる。この合成力Fは、数7に従って算出される。
[数7]
F=w1×Fi+w2×Ff+w3×Fc
ただし、w1,w2,w3は重み付けであり、スライダー抵抗14a〜14cを用いて予め決定することができる。つまり、色の設定とは別のメニューで重み付けを設定することができ、各力の重み(重要度)を変更することができる。
以下には、フロー図を用いて、体感作画装置10の具体的な動作について説明することにする。図15は、ポインティング装置20に設けられるLED制御回路20eの処理を示すフロー図である。この図15を参照して、LED制御回路20eは、ステップS1で、ボタン20dが押されたかどうかを判断する。ステップS1で“NO”であれば、つまりボタン20dが押されていなければ、そのままステップS7に進む。一方、ステップS1で“YES”であれば、つまりボタン20dが押されれば、ステップS3で、押しフラグをセットし、ステップS5で、押しパターンに従って赤外LED20cを明滅させて、ステップS13に進む。
ステップS7では、ボタン20dが離されたかどうかを判断する。ここで、ボタン20dが離されていなければ、ステップS7で“NO”となり、そのままステップS15に進む。しかし、ボタン20dが離されれば、ステップS7で“YES”となり、ステップS9で、離しフラグをセットし、ステップS11で、離しパターンに従って赤外LED20cを明滅させて、ステップS13に進む。
ステップS13では、押しフラグまたは離しフラグをリセットして、ステップS15に進む。ステップS15では、赤外LED20cを常時点灯して、ステップS1に戻る。
したがって、赤外LED20cを常時点灯させ、ボタン20dの操作があったときに、押しパターンまたは離しパターンに従って赤外LED20cを明滅させることができる。
図16にはクリック検出処理のフロー図が示され、図17には抵抗値出力処理のフロー図が示される。これらの処理は、図1に示した周辺装置用信号処理装置26が実行する。図16を参照して、クリック検出処理を開始すると、ステップS21で、一定時間が経過したかどうかを判断する。これは、クリックすなわちボタン20dの押しまたは離し操作の検出処理を一定時間毎の割り込みで実行するためである。
なお、図示は省略するが、周辺装置用信号処理装置26は、その内部にタイマを備えており、このタイマによって一定時間をカウントしている。
ステップS21で“NO”であれば、つまり一定時間が経過していなければ、同じステップS21に戻る。一方、ステップS21で“YES”であれば、つまり一定時間が経過していれば、ステップS23で、検出装置24から与えられる光点フラグの状態(「1」または「0」)をシフトレジスタ(図示せず)に保存する。
次のステップS25では、シフトレジスタを参照して、過去数ミリ秒の光点フラグのパターンを検出する。後述するように、過去数ミリ秒の光点フラグから押しパターンまたは離しパターンを判断するようにしてあるため、ここではそれらのパターンの長さ(2〜3ミリ秒)よりも少し長い時間(4〜5ミリ秒)についての光点フラグが検出される。したがって、シフトレジスタは、少なくとも当該過去数ミリ秒についての光点フラグの状態を記憶するビット数を有している。そして、ステップS27では、押しパターンかどうかを判断する。ここで、押しパターンと判断すれば、ステップS27で“YES”となり、ステップS29で、「ボタン押し」の情報を、コンピュータ28に通知して、ステップS1に戻る。しかし、押しパターンでないと判断すれば、ステップS27で“NO”となり、ステップS31で、離しパターンかどうかを判断する。
ステップS31で“NO”であれば、つまり離しパターンでなければ、そのままステップS21に戻る。一方、ステップS31で“YES”であれば、つまり離しパターンであれば、ステップS23で、「ボタン離し」の情報を、コンピュータ28に通知して、ステップS1に戻る。
また、周辺装置用信号処理装置26は、図17に示すように、抵抗値出力処理を開始すると、ステップS41で、通信ポート(たとえば、RS232Cポート)を初期化する。続くステップS43で、3つのスライダー抵抗14a,14bおよび14cから電圧値を読み取る。次にステップS45で、読み取った電圧値を抵抗値に換算し、さらに抵抗値データに変換し、ステップS47で、RS232Cのプロトコルにのせて、抵抗値データをコンピュータ28に出力して、ステップS41に戻る。
なお、この実施例では、上述したクリック検出処理と抵抗値出力処理とを並列的に実行するようにしてあるが、クリック検出処理と抵抗値出力処理とは別個の処理であるため、それぞれの処理を担当するマイクロチップないしDSPを設けるようにすれば、処理の高速化を図ることができる。
図18は、コンピュータ28のメイン処理を示すフロー図である。コンピュータ28は処理を開始すると、ステップS51で、メモリ28aを参照して、位置情報およびボタンフラグを検出する。後述するメモリ更新処理(図19)によって、メモリ28aは更新され、常に最新の位置情報およびボタンフラグがメモリ28aに記憶される。なお、メモリ更新処理は、コンピュータ28のメイン処理と並列的に処理される。
続くステップS53dでは、ボタン20dの操作があるかどうかを判断する。ここでは、メモリ28aを参照して、ボタン20dがオンされたかどうかを判断する。ステップS53で“NO”であれば、つまりボタン20dが操作されなければ、そのままステップS63に進む。一方、ステップS53で“YES”であれば、つまりボタン20dが操作されれば、ステップS55で、キャンバスすなわち画像表示領域102上での操作かどうかを判断する。
ステップS55で“YES”であれば、つまりキャンバス上の操作であれば、ステップS57で、後述するモータ駆動処理(図20,図21参照)を実行して、ステップS63に進む。しかし、ステップS55で“NO”であれば、つまりキャンバス上の操作でなければ、ステップS59で、メニュー表示領域104上での操作かどうかを判断する。メニュー表示領域104上での操作でなければ、ステップS59で“NO”となり、そのままステップS63に進む。しかし、メニュー表示領域104上での操作であれば、ステップS59で“YES”となり、次のステップS61で、後述するメニュー操作処理(図22〜図24参照)を実行して、ステップS63に進む。
ステップS63では、画像の更新処理を実行して、ステップS51に戻る。ここでは、ユーザの操作に従って作画された画像を更新するとともに、画像全体が流れるように表示する。ただし、流れフラグがオンの場合には、画像全体を流れ表示するが、流れフラグがオフの場合には画像を流れ表示しない(静止表示)。また、ペイントモードや混ぜ合わせモードが設定されている場合には、メニュー表示領域104のアイコン表示領域104iに筆を選択するためのアイコンを表示し、スタンプモードが設定されている場合には、当該アイコン表示領域104iにサムネイル画像のアイコンを表示する。
図19は、上述したメモリ更新処理を示すフロー図である。この図19を参照して、コンピュータ28はメモリ更新処理を開始すると、ステップS71では、通信ポートの初期化およびコネクションの確立を実行する。次のステップS73では、位置情報すなわち座標信号およびボタンフラグのデータを受信する。ボタンフラグは、周辺装置用信号処理装置26から送信される「ボタン押し」の情報または「ボタン離し」の情報のそれぞれに従って設定される。「ボタン押し」の情報が通知されると、ボタンフラグとして押しフラグがセットされ、「ボタン離し」の情報が通知されると、ボタンフラグとして離しフラグがセットされる。そして、ステップS75で、位置情報およびボタンフラグのデータをメモリ28aに保存(上書き)して、ステップS71に戻る。
図20および図21は、図18に示したステップS57の作画・モータ駆動処理を示すフロー図である。図20に示すように、作画・モータ駆動処理を開始すると、ステップS81で、ドラッグ中かどうかを判断する。具体的には、メモリ28aを参照して、押しフラグがオンであり、かつ、位置情報が更新されているかどうかを判断する。ステップS81で“NO”であれば、つまりドラッグ中でなければ、そのまま図21に示すステップS97に進む。一方、ステップS81で“YES”であれば、つまりドラッグ中であれば、ステップS83で、ペイントモードが設定されているかどうかを判断する。
このステップS83で“YES”であれば、つまりペイントモードが設定されていれば、現在のポインタ110の位置を筆の大きさの分だけ、選択中の色で塗りつぶして、ステップS95に進む。ただし、選択中の色は、周辺装置用信号処理装置26から出力される抵抗値データに基づいて判断される。以下、同様である。また、ここでは、VRAM上で、選択中の色が貼り付けられるだけであり、画像の表示は、メイン処理に示したステップS63で実行される。以下、この作画・モータ駆動処理において、画像を更新する場合は、VRAM上での更新を意味する。
また、ステップS83で“NO”であれば、つまりペイントモードが設定されていなければ、ステップS87で、混ぜ合わせモードが設定されているかどうかを判断する。ステップS87で“YES”であれば、つまり混ぜ合わせモードが設定されていれば、ステップS89で、現在のポインタ110の位置に、ドラッグ開始時にコピーしておいた画像を、指定の透過率を掛け合わせつつ、キャンバスの画像と合成して、当該位置に貼り付けて、ステップS95に進む。一方、ステップS89で“NO”であれば、つまり混ぜ合わせモードが設定されていなければ、ステップS91で、スタンプモードが設定されているかどうかを判断する。
ステップS91で“NO”であれば、つまりスタンプモードが設定されていなければ、そのまま図21に示すステップS97に進む。しかし、ステップS91で“YES”であれば、つまりスタンプモードが設定されていれば、ステップS93で、現在のポインタ110の位置に、選択中のキャラクタを貼り付けて、ステップS95に進む。
ステップS95では、慣性力Fiおよび色摩擦抵抗力Fcを、それぞれ、数2および数5に従って計算する。ただし、色の境界をポインティング装置20が横切っていない場合には、色摩擦抵抗力Fcは0である。また、上述の説明では省略したが、スタンプモードが設定されている場合には、慣性力Fiは各キャラクタに予め定義しておいた値を使用する。
図21に示すように、次のステップS97では、流れフラグがオンであるかどうかを判断する。ステップS97で“NO”であれば、つまり流れフラグがオフであれば、そのままステップS105に移行する。一方、ステップS97で“YES”であれば、つまり流れフラグがオンであれば、ステップS99で、現在の流れデータF(t)を取得するとともに、流れ設定領域104hで決定された流れ方向(係数R)および流れの強さ(係数S)を取得する。続くステップS101では、流れを反映して画像を更新する。つまり、数1に従って算出した補正後の流れデータF´(t)に従って各画素を更新する。
続いて、ステップS103で、流体抵抗力Ffを数4に従って計算する。そして、ステップS105で、提示する力(合成力F)を数7に従って計算する。その後、ステップS107で、計算した合成力Fを周波数に変換し、ステップS109で、当該周波数を電圧値に変換し、ステップS109で、電圧値を、周辺装置用信号処理装置26に出力して、作画・モータ駆動処理をリターンする。なお、ステップS109の処理に応答して、周辺装置用信号処理装置26は、インバータ18aおよび18bに駆動電圧を供給する。
また、図22〜図24は、図18に示したステップS61のメニュー操作処理についてのフロー図である。図22に示すように、コンピュータ28はメニュー操作処理を開始すると、ステップS121で、操作されたボタンを検出する。つまり、ここでは、メモリ28aを参照して、ポインティング装置20の位置情報から、操作(クリックまたはドラッグ)されたボタン等を検出する。
次のステップS123では、初期化ボタン104aの指示であるかどうかを判断する。つまり、ボタン104aがクリックされたかどうかを判断する。ボタン104aがクリックされていれば、初期化の指示であると判断して、ステップS123で“YES”となり、ステップS125で、キャンバスすなわち画像表示領域102を初期化して、メニュー操作処理をリターンする。ただし、実際には、VRAMが初期化され、画像表示の更新はメイン処理のステップS63で実行される。しかし、ボタン104aがクリックされていなければ、初期化の指示ではないと判断して、ステップS123で“NO”となり、ステップS127で、印刷の指示であるかどうかを判断する。つまり、ボタン104bがクリックされたかどうかを判断する。
ステップS127で“YES”であれば、つまりボタン104bがクリックされていれば、印刷の指示であると判断して、ステップS129で、キャンバスすなわち画像表示領域102に表示された画像を図示しないプリンタを用いて印刷して、メニュー操作処理をリターンする。一方、ステップS127で“NO”であれば、つまりボタン104bがクリックされていなければ、印刷の指示ではないと判断して、ステップS131で、キャプチャの指示であるかどうかを判断する。つまり、ボタン104cがクリックされたかどうかを判断する。
ステップS131で“YES”であれば、つまりボタン104cがクリックされていれば、キャプチャの指示であると判断して、ステップS133で、図示しないCCDカメラで撮影された画像(カメラ画像)をキャプチャして、キャンバスすなわち画像表示領域102に表示して、メニュー操作処理をリターンする。ただし、実際には、カメラ画像はVRAMに貼り付けられるだけであり、画像表示の更新はメイン処理のステップS63で実行される。一方、ステップS131で“NO”であれば、つまりボタン104cがクリックされていなければ、キャプチャの指示でないと判断して、図23に示すステップS135で、ペイントモードの選択かどうかを判断する。つまり、ボタン104dがクリックされたかどうかを判断する。
ステップS135で“YES”であれば、つまりボタン104dがクリックされていれば、ステップS137で、ペイントモードを設定して、図23に示したように、メニュー操作処理をリターンする。一方、ステップS135で“NO”であれば、つまりボタン104dがクリックされていなければ、ステップS139で、混ぜ合わせモードの選択かどうかを判断する。つまり、ボタン104eがクリックされたかどうかを判断する。
ステップS139で“YES”であれば、つまりボタン104eがクリックされていれば、ステップS141で、混ぜ合わせモードを設定して、メニュー操作処理をリターンする。一方、ステップS139で“NO”であれば、つまりボタン104eがクリックされていなければ、ステップS143で、スタンプモードの選択であるかどうかを判断する。つまり、ボタン104fがクリックされたかどうかを判断する。
ステップS143で“YES”であれば、つまりボタン104fがクリックされていれば、ステップS145で、スタンプモードを設定して、メニュー操作処理をリターンする。一方、ステップS143で“NO”であれば、つまりボタン104fがクリックされていなければ、図24に示すステップS147で、流れ開始または停止の指示であるかどうかを判断する。つまり、ボタン104gがクリックされたかどうかを判断する。
ステップS147で“YES”であれば、つまりボタン104gがクリックされていれば、ステップS149で、停止中であるかどうかを判断する。つまり、流れフラグがオフであるかどうかを判断する。ここで、流れフラグがオフであれば、“YES”となり、ステップS151で、流れフラグをオンして、図22に示したように、メニュー操作処理をリターンする。しかし、流れフラグがオンであれば、“NO”となり、ステップS153で、流れフラグをオフして、メニュー操作処理をリターンする。
一方、ステップS147で“NO”であれば、つまりボタン104gがクリックされていなければ、流れの開始または停止の指示ではないと判断し、ステップS155で、流れの変更(または設定)の指示であるかどうかを判断する。つまり、流れ設定領域104hの矢印104h´がドラッグされたかどうかを判断する。
ステップS155で“YES”であれば、つまり矢印104h´がドラッグされると、ステップS157で、指定(指示)された方向および大きさに矢印104h´を変更して、メニュー操作処理をリターンする。これにより、流れの方向および強さが変更(設定)される。一方、ステップS155で“NO”であれば、つまり矢印104h´がドラッグされていなければ、ステップS159で、筆またはキャラクタの変更(または設定)の指示であるかどうかを判断する。つまり、アイコン表示領域104iに表示されたアイコンがクリック(選択)されたかどうかを判断する。
ステップS159で“NO”であれば、つまりメニュー表示領域104上のいずれのボタンもアイコンもクリックないしドラッグされていない場合には、そのままメニュー操作処理をリターンする。一方、ステップS159で“YES”であれば、つまりアイコン表示領域104iに表示されたいずれかのアイコンがクリックされると、ステップS161で、クリックされたアイコンに対応する筆またはキャラクタを選択して、メニュー操作処理をリターンする。たとえば、ステップS161では、選択された筆またはキャラクタについてのフラグがオンされ、選択中であることを判別するようにしてある。
この実施例によれば、ユーザが作画する際に画像の色や画像の流れに応じた力を加えるようにするため、実際のキャンバスに絵を描いているような没入感を得ることができるだけでなく、色に定義した重さから得ることができる画像の架空の感触や水の流れを模した画像の流れによる事象から生まれる感覚を楽しみながら作画することができる。つまり、より使い易いコンピュータインターフェイスを提供することができる。
なお、この実施例では、ポインティング装置の位置を検出するために、赤外光を検出する検出素子等を用いたが、CCDイメージャやCMOSを用いたカメラで撮影した画像を処理および解析することにより、その位置を検出することもできる。かかる場合には、ボタンのクリック情報は、コンピュータに無線或いは有線で入力する必要がある。
また、この実施例では、ユーザに力を提示するため、リニアモータを用いるとともに、その導電体を、ユーザの把持するポインティング装置の一部に設けるようにした。しかし、ユーザに力を提示する装置は、これに限定されるべきではない。
たとえば、米国のセンサブル・テクノロジー社製の「Phantom(登録商標):商品名」を用いることができる。この場合には、上述の実施例で示したリニアモータ、ポインティング装置および検出装置に代えて、「Phantom」を適用するようにすればよい。つまり、ユーザの操作情報、操作位置および力の提示を「Phantom」を用いて行うのである。この「Phantom」は、センサブル・テクノロジー社のホームページ(URL http://www.sensable.com/products/phantom_ghost/phantom.asp)に紹介されている。
また、株式会社サイヴァース社製の「SPIDAR−G:商品名」を用いることもできる。つまり、上述の「Phantom」の場合と同様に、上述の実施例で示したリニアモータ、ポインティング装置および検出装置に代えて、「SPIDAR−G」を適用するようにすれば、この「SPIDAR−G」を通して、ユーザに力を提示することができる。この「SPIDAR−G」は、株式会社サイヴァース社のホームページ(URL http://www.cyverse.co.jp/jp/Products/3dGrip/)に紹介されている。
さらに、このような力提示装置に置き換える場合には、プロジェクタから出力した映像ないし画像をデスクプレート上に表示する構成に限らず、これらに代えて、LCD,ELパネルまたはCRTなどを用いることもできる。
図1はこの発明の体感作画装置の構成の一例を示す図解図である。 図2は図1に示すデスクトップ装置の構成の一例を示す図解図である。 図3は図2に示すリニアモータの固定子コアに巻かれるコイルの電気的な構成を示す図解図である。 図4は図1に示すポインティング装置の電気的な構成を示す図解図およびそれに設けられるボタンのオン/オフ時に明滅される赤外LEDのパターンを示す図解図である。 図5は図1に示すプロジェクタユニットの具体的な構成を示す図解図である。 図6は図1に示す検出装置の具体的な構成を示す図解図およびそれに設けられる検出素子で赤外光を検出する方法を説明するための説明図である。 図7は図1に示すデスクプレートに表示されるコンピュータ画面の例を示す図解図である。 図8は図7に示すコンピュータ画面のメニュー表示領域に表示されるメニューの一例を示す図解図である。 図9は図7に示すコンピュータ画面の画像表示領域に表示される画像の一例を示す図解図である。 図10は図7に示すコンピュータ画面のメニュー表示領域に表示されるメニューの他の例を示す図解図である。 図11は図7に示すコンピュータ画面の画像表示領域に表示される画像の他の例を示す図解図である。 図12は図7に示すコンピュータ画面の画像表示領域に流れ表示される画像の一例を示す図解図である。 図13は流れデータの一例を示す図解図である。 図14はポインティング装置に加えられる慣性力、流体抵抗力および色摩擦抵抗力を説明するための図解図である。 図15は図1に示すポインティング装置のLED制御回路で実行される処理を示すフロー図である。 図16は図1に示す周辺装置用信号処理装置のクリック検出処理を示すフロー図である。 図17は図1に示す周辺装置用信号処理装置の抵抗値出力処理を示すフロー図である。 図18は図1に示すコンピュータのメイン処理を示すフロー図である。 図19は図1に示すコンピュータのメモリ更新処理を示すフロー図である。 図20は図1に示すコンピュータの作画・モータ駆動処理の一部を示すフロー図である。 図21は図1に示すコンピュータの作画・モータ駆動処理の他の一部を示すフロー図である。 図22は図1に示すコンピュータのメニュー操作処理の一部を示すフロー図である。 図23は図1に示すコンピュータのメニュー操作処理の他の一部を示すフロー図である。 図24は図1に示すコンピュータのメニュー操作処理のその他の一部を示すフロー図である。
符号の説明
10 …体感作画装置
12 …デスクトップ装置
14 …デスクプレート
14a,14b,14c …スライダー抵抗
16 …リニアモータ
18a,18b …インバータ
20 …ポインティング装置
22 …プロジェクタユニット
24 …検出装置
26 …周辺装置用信号処理装置
28 …コンピュータ

Claims (9)

  1. 少なくとも画像をデスクプレートに表示する表示手段、
    前記デスクプレート上に配置される移動体と前記移動体に連結されユーザによって把持可能な把持部とを含み、前記移動体を移動させることにより、少なくとも前記ユーザによる操作情報を入力し、作画するためのポインティング手段、および
    前記ポインティング手段によって作画されるとき、少なくとも作画される画像の色に応じて異なる大きさの反力を前記移動体に与える力提示手段を備える、体感作画装置。
  2. 少なくとも色を決定するための色決定手段をさらに備え、
    前記表示手段は、前記ポインティング手段によって作画されるとき、当該ポインティング手段によって指示される現在位置に、前記色決定手段によって決定された色を貼り付ける色貼り付け手段を含む、請求項1記載の体感作画装置。
  3. 前記表示手段は、前記ポインティング手段によって作画されるとき、操作の開始時点において当該ポインティング手段によって指示される位置に貼り付けられた色に、所定の透過率を掛け合わせつつ、当該ポインティング手段によって現在指示される位置に表示された色を混ぜ合わせる混合手段を含む、請求項1記載の体感作画装置。
  4. 前記表示手段は、前記画像を任意の方向に流れるように表示する、請求項1ないし3のいずれかに記載の体感作画装置。
  5. 少なくとも前記画像の流れる方向を決定する流れ決定手段をさらに備え、
    前記表示手段は、前記流れ決定手段によって決定された方向に前記画像を流れるように表示する、請求項4記載の体感作画装置。
  6. 前記流れ決定手段は前記画像の流れの強さをさらに決定する、請求項5記載の体感作画装置。
  7. 前記力提示手段は、貼り付ける色に対応する色の重さによる慣性力、前記画像の流れによる流体抵抗力および既に作画された画像についての色の境界における色摩擦抵抗力の少なくとも1つに基づく力を前記ポインティング手段に与える、請求項4ないし6のいずれかに記載の体感作画装置。
  8. 前記色の重さは少なくとも色の輝度に応じて決定される、請求項7記載の体感作画装置。
  9. 前記表示手段は、プロジェクタをさらに含み、
    前記ポインティング手段は、前記操作情報を検出する操作情報検出手段をさらに含み、
    前記移動体は導電体を含み、
    前記力提示手段は、前記導電体、前記デスクプレート下に設けられる固定子コア、および前記固定コアに巻かれる固定子コイルを備えるリニアインダクションモータを含む、請求項1ないし8のいずれかに記載の体感作画装置。
JP2004046807A 2004-02-23 2004-02-23 体感作画装置 Expired - Fee Related JP4173114B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004046807A JP4173114B2 (ja) 2004-02-23 2004-02-23 体感作画装置
US10/898,054 US20050184967A1 (en) 2004-02-23 2004-07-23 Sensory drawing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004046807A JP4173114B2 (ja) 2004-02-23 2004-02-23 体感作画装置

Publications (2)

Publication Number Publication Date
JP2005235115A JP2005235115A (ja) 2005-09-02
JP4173114B2 true JP4173114B2 (ja) 2008-10-29

Family

ID=34858151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004046807A Expired - Fee Related JP4173114B2 (ja) 2004-02-23 2004-02-23 体感作画装置

Country Status (2)

Country Link
US (1) US20050184967A1 (ja)
JP (1) JP4173114B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007049253A2 (en) * 2005-10-28 2007-05-03 Koninklijke Philips Electronics N.V. Display system with a haptic feedback via interaction with physical objects
US20090073479A1 (en) * 2007-09-14 2009-03-19 Kabushiki Kaisha Toshiba Image scanning apparatus
US20110102705A1 (en) * 2008-03-14 2011-05-05 Shinichi Miyazaki Area sensor and display device including area sensor
FR2934067B1 (fr) * 2008-07-21 2013-01-25 Dav Dispositif de commande a retour haptique et procede de commande correspondant
CN102203700B (zh) * 2008-11-04 2014-01-15 夏普株式会社 区域传感器和带区域传感器的显示装置
KR100977558B1 (ko) * 2009-12-22 2010-08-23 전자부품연구원 적외선 스크린 방식의 공간 터치 장치
KR100974894B1 (ko) * 2009-12-22 2010-08-11 전자부품연구원 멀티 적외선 카메라 방식의 3차원 공간 터치 장치
US8842096B2 (en) * 2010-01-08 2014-09-23 Crayola Llc Interactive projection system
JP5496032B2 (ja) * 2010-09-17 2014-05-21 京セラ株式会社 触感呈示装置及び触感呈示装置の制御方法
KR20130055119A (ko) * 2011-11-18 2013-05-28 전자부품연구원 싱글 적외선 카메라 방식의 투영 영상 터치 장치
KR101385682B1 (ko) * 2012-08-31 2014-04-18 길아현 전자붓 장치
KR101385683B1 (ko) 2012-08-31 2014-05-14 길아현 전자붓용 전자캔버스
KR101960063B1 (ko) * 2012-09-10 2019-03-19 삼성전자주식회사 터치 입력 디바이스 및 터치 입력 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4200867A (en) * 1978-04-03 1980-04-29 Hill Elmer D System and method for painting images by synthetic color signal generation and control
GB2116407B (en) * 1982-03-11 1986-04-23 Quantel Ltd Electonically synthesised video palette
US5194969A (en) * 1990-12-04 1993-03-16 Pixar Method for borderless mapping of texture images
US5325480A (en) * 1992-09-16 1994-06-28 Hughes Training, Inc. Texture method for producing fluid effects in a real-time simulation
US5300946A (en) * 1992-12-08 1994-04-05 Microsoft Corporation Method for outputting transparent text
US5671091A (en) * 1994-04-15 1997-09-23 The Walt Disney Company Virtual easel
US6219032B1 (en) * 1995-12-01 2001-04-17 Immersion Corporation Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface
US6567830B1 (en) * 1999-02-12 2003-05-20 International Business Machines Corporation Method, system, and program for displaying added text to an electronic media file
US6501464B1 (en) * 2000-10-31 2002-12-31 Intel Corporation On-screen transparent keyboard interface
US6985148B2 (en) * 2001-12-13 2006-01-10 Microsoft Corporation Interactive water effects using texture coordinate shifting

Also Published As

Publication number Publication date
JP2005235115A (ja) 2005-09-02
US20050184967A1 (en) 2005-08-25

Similar Documents

Publication Publication Date Title
JP4173114B2 (ja) 体感作画装置
CN106125463B (zh) 信息处理设备、信息处理方法和程序
JP5256109B2 (ja) 表示装置
JP4301842B2 (ja) ユーザインタフェースの利用方法
CN103155534B (zh) 图像编辑方法和图像编辑装置
US20140240215A1 (en) System and method for controlling a user interface utility using a vision system
CN103543968A (zh) 标签打印设备
JP2004070920A (ja) 情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、情報処理方法、及び情報処理装置
JP6004756B2 (ja) 表示制御装置及びその制御方法
JP2010108070A (ja) ユーザインタフェース制御装置、ユーザインタフェース制御方法およびプログラム
TW201222347A (en) Integrated three-dimensional input system and control method thereof
EP2544082A1 (en) Image display system, information processing apparatus, display apparatus, and image display method
JP6688462B2 (ja) 仮想ラベル表示処理プログラム
US20100199201A1 (en) System and method for displaying a display panel
JP2003337643A (ja) インテント設定方法および映像装置用ユーザインタフェース
JP2007148494A (ja) 印刷装置、印刷方法、印刷プログラム、および記憶媒体
JP6808550B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20140082560A1 (en) Image forming apparatus, method for controlling image forming apparatus, and computer-readable recording medium
JP2002022503A (ja) 測定システム、測定器、表示方法、および表示プログラムを記録した記録媒体
WO2015015006A2 (en) User interface for printing labels
TW201009652A (en) Method for setting parameters of a cursor controller
JP4648217B2 (ja) 画像装置、処理画像の選択方法
JP2007304769A (ja) 素材貼付装置
JP4133743B2 (ja) デスクトップシステム
JP2010092393A (ja) 印刷設定表示プログラム、印刷制御プログラム、印刷設定表示装置および印刷設定表示方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080714

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080812

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080812

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees