JPH0683523A - ワークサーフェスシステム及びその実現方法、及びセンサ利用方法及び人物識別方法 - Google Patents

ワークサーフェスシステム及びその実現方法、及びセンサ利用方法及び人物識別方法

Info

Publication number
JPH0683523A
JPH0683523A JP35242792A JP35242792A JPH0683523A JP H0683523 A JPH0683523 A JP H0683523A JP 35242792 A JP35242792 A JP 35242792A JP 35242792 A JP35242792 A JP 35242792A JP H0683523 A JPH0683523 A JP H0683523A
Authority
JP
Japan
Prior art keywords
input device
sensing elements
force
image
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP35242792A
Other languages
English (en)
Inventor
Thomas H Speeter
エイチ.スピーター トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
American Telephone and Telegraph Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by American Telephone and Telegraph Co Inc filed Critical American Telephone and Telegraph Co Inc
Publication of JPH0683523A publication Critical patent/JPH0683523A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04144Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using an array of force sensing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)
  • Position Input By Displaying (AREA)

Abstract

(57)【要約】 【目的】 インテリジェントワークサーフェスを実現す
る方法及びその装置を提供する。 【構成】 デスクトップ及びフロア等のワークサーフェ
スが、触覚データをプロセッサに供給する触覚センシン
グアレイによって覆われる。センシングアレイ上の領域
はセンシングアレイの所定のセンシングエレメントを含
むように規定され、キーボード、マウスなどの入力デバ
イスとして機能するように設定される。規定された後
も、領域は特定の入力デバイスを再配置するために再規
定されうる。領域は相異なった入力デバイスとして機能
するように再規定されうる。アレイは、個人あるいは物
体を識別するなどの解析目的で所定の間隔でデータを収
集する。例えば、個人の手形あるいは足形などの力のイ
メージが収集され、解析され、既知の個人に対する力の
イメージを表すデータと比較される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は触覚センサアレイに関
し、特にワークサーフェスを実現するために触覚センサ
アレイを用いる方法に関する。
【0002】
【従来の技術】多くのオフィス及び研究所には、コンピ
ュータ及び遠距離通信システムが備え付けられている。
これらのシステムは、キーボード、マウス、電話、及び
ファクシミリなどの、貴重なワークスペースを占有し雑
然としてしまう種々の入力デバイスを必要とする。これ
らの種々の入力デバイスはそれが企図されたほどには便
利ではない。例えば、入力デバイスをワークサーフェス
上に再配置することはしばしば困難である。上述された
キーボードあるいはマウスのような多くの入力デバイス
は、コンピュータシステムに対してケーブルで接続され
ており、それゆえその位置が制限されている。さらに、
相異なったコンピュータユーザの便宜を図るためあるい
はスペースに対する要求が変化したためにこの種のデバ
イスを動かすすなわち再配置することは困難であったり
不便であったりする。
【0003】
【発明が解決しようとする課題】入力デバイスを整理合
併する従来技術の一つは、異なった場合に異なった機能
を実行するアレイを提供するものである。例えば、コン
ピュータのキーボードは、通常、ある場合には数字パッ
ドキーとして定義され、またある場合には、カーソル制
御キーとして定義されるキーアレイを有している。しか
しながら、この種の入力デバイスは、そのアレイがまっ
たく相異なった機能、例えばマウスとしての機能、を実
現するように再配置されることを許容していない。さら
に、この入力デバイスは、デバイス上のアレイの位置や
配置を変更するようには再配置され得ない。
【0004】他の望ましい機能、例えば安全ではないオ
フィスあるいは研究所に対する安価、簡潔かつ信頼しう
るセキュリティ機能、は利用可能ではない。この種のセ
キュリティに対する必要性の一例は、研究所の外面上の
物体の存在をモニタする能力である。例えば、研究所の
化学薬品あるいは実験装置が触られた、動かされたある
いはいじられたか否かを知ることは重要である。同様
に、オフィスにおいても物品が触られたあるいは動かさ
れたか否かを知ることは重要である。
【0005】安全管理された領域あるいはコンピュータ
システムへのアクセスを制限するセキュリティメジャー
も改良されうる。複合鍵とコンピュータのパスワード等
のセキュリティメジャーは、希望されるセキュリティの
レベルを提供し得ない場合がある。例えば、複合鍵とパ
スワードをオーソライズされていない人物による発見等
によって容易に回避され得ない他のセキュリティメジャ
ーによって置換するあるいは増加することが望ましい。
【0006】
【課題を解決するための手段】本発明に従って、触覚セ
ンシングアレイが、情報を受容しかつ種々の入力及び通
信デバイスを実現するように配置されうる多様性及び適
応性を有する”インテリジェント”ワークサーフェスを
生成しモニタするよう配置される。本発明に係るインテ
リジェントワークサーフェスは、相異なったデバイスを
実現するために、望むように再配置されることが可能で
ある。さらに、本発明に係るワークサーフェスは、その
位置や配置を変更するように再配置されうる。
【0007】本発明に係るインテリジェントワークサー
フェスは、インテリジェントデスクトップ、フロア、
壁、あるいは他のサーフェス(表面)として実現されう
る。望ましい実施例においては、本発明に係るインテリ
ジェントサーフェスは、キーボード、数字キーパッド、
マウスなどの入力及び通信デバイスを実現することが可
能なデスクトップサーフェスである。本発明に係るイン
テリジェントデスクトップは、デスクトップ上のアイテ
ムの存在及び位置をモニタすることも可能である。イン
テリジェントサーフェスへの入力により、実現されたデ
バイスからの出力として解釈されることになる触覚アレ
イの出力が生成される。インテリジェントデスクトップ
サーフェス上に実現されたデバイスはテンプレートとし
て実現されることが望ましく、それゆえ貴重なワークス
ペースを占有したり雑然とさせたりしない。実現された
デバイスは、相異なったユーザ及びワークスペースに対
する変化しつつある要求に合致するように配置及び再配
置されうる。デバイスの配置をもつれさせるすなわち制
限するコンピュータケーブルは存在しない。
【0008】本発明の他の実施例においては、インテリ
ジェントワークサーフェスがフロアサーフェスとして実
現される。インテリジェントフロアは、サーフェス上の
物体及び人物の存在を検出しその位置を追跡することが
可能である。本発明のその他の実施例においては、イン
テリジェントサーフェスが、人物を識別するためにサー
フェスに対して印加された力の二次元イメージ(”力イ
メージ”)を生成するように配置されている。例えば、
手形を生成した人物を識別するためにある人物の手形の
力イメージがサンプリングされ、解析され、既知の個人
の力イメージを表すデータと比較される。
【0009】
【実施例】キーボード、数字キーパッド、マウスなどの
種々の入力・通信デバイスを実現する”インテリジェン
ト”ワークサーフェスを生成するために、触覚センシン
グアレイが配置されてモニタされる。インテリジェント
サーフェスへの入力により、触覚アレイから、実現され
たデバイスからの出力としてプロセッサによって解釈さ
れることになる出力信号が生成される。例えば、触覚ア
レイに印加された力により、アレイの出力において電気
的信号が生成される。その後、その電気信号はプロセッ
サによってキーボードからのキーストローク出力として
解釈される。特定のデバイスがもはや必要とされないあ
るいは新たなデバイスが必要とされる場合には、インテ
リジェントワークサーフェスは相異なったデバイスを実
現するために再配置される。例えば、インテリジェント
ワークサーフェスは、前記具体例における触覚アレイか
らの出力がキーボードからのキーストロークではなくマ
ウスからディスプレイスクリーンへの出力として解釈さ
れるように再配置されることが可能である。
【0010】実現されたデバイスは、ワークサーフェス
上で、相異なったユーザあるいは変化しつつあるワーク
スペースに対する要求に合致するよう、配置及び再配置
される。例えば、第一のコンピュータユーザによって第
一の位置にキーボードが配置される。このキーボードの
位置は、例えば次のコンピュータユーザの好みに合わせ
るために左側にシフトさせられうる。
【0011】図1は、本発明に係る触覚センサアレイサ
ーフェス1及びプロセッサ2によって全体が覆われた机
を示している。図1には、キーボード3、数字キーパッ
ド4、入力インターフェース5、及びディスプレイスク
リーン6も示されている。触覚アレイ1はプロセッサ2
に対して接続されており、本発明に係るインテリジェン
トワークサーフェスシステムを形成している。触覚アレ
イ1は、プロセッサ2に対して、触覚アレイ1に対して
印加された入力に関する情報を出力する。触覚アレイ1
を構成しているセンシングエレメントグループ(図3を
参照)は、種々のデバイスを実現する入力インターフェ
ースとして配置されている。例えば、触覚アレイ1を構
成するセンシングエレメントグループは、キーボードイ
ンターフェース3として配置される。ここで、”領域”
という術語は、アレイ1上のセンシングエレメントグル
ープを集合的に指し示すものとする。代表的なアプリケ
ーションにおいては、キーボード3として配置された触
覚アレイの領域内の所定のセンシングエレメントに印加
された力は、キーストロークを表す信号を生成する。同
様に、触覚アレイ1の他のセンシングエレメントグルー
プは、例えば数字キーパッド4あるいはディスプレイス
クリーン6に対する入力インターフェース5として定義
される。
【0012】触覚アレイ1において実現された入力イン
ターフェースあるいはデバイスは、デバイスの位置、大
きさあるいは配置を変更する目的で望むように再配置さ
れうる。さらに、新たなデバイスが触覚アレイ上に配置
されて既存のデバイスが除去されうる。例えば、図2
は、触覚アレイ1上の新しい位置を有するように再配置
されたキーボード3、キーパッド4、及びディスプレイ
入力デバイス5を示している。参照番号3’、4’、及
び5’は、各々のデバイスの図1において示されていた
位置に対応する以前の位置(破線で示されている)を示
している。3’、4’、及び5’によって識別されるセ
ンシングエレメントグループは、その元来の状態(通常
未定義)にリセットされている。キーボード3と重なる
センシングエレメント3’を有する触覚アレイの部分
は、キーボード3に対する適切な機能を実行するよう再
定義されている。
【0013】図3は、触覚アレイ1を構成しているセン
シングエレメント7を示した図である。センシングエレ
メント7は、電気伝導体よりなる列及び行の交点によっ
て構成されている。触覚アレイ1に印加された入力(す
なわち力)により、列及び行導体が接触する。この導体
間の接触により電流が流れるようになり、列及び行導体
の交点に位置するセンシングエレメントからの出力が生
成される。
【0014】図3に示されているように、プロセッサ2
によって数字キーパッド4として定義された触覚アレイ
1の領域は、センシングエレメント7のうちの選択され
たいくつかと重なっている。プロセッサ2は、センシン
グエレメントグループを入力デバイス、この場合は数字
キーパッド、として定義することによって”テンプレー
ト”機能を実行する。プロセッサ2は、センシングエレ
メントの出力を定義された入力デバイスの出力として解
釈する”マッピング”機能も実行する。例えば、キーパ
ッド4のキー”1”及び”4”は、それぞれ参照番号8
及び9によって集合的に示されているセンシングエレメ
ントグループと重なっている。プロセッサ2は、センシ
ングエレメント8及び9からの(これらのエレメントに
対して印加された力の結果としての)出力をキーパッド
4の出力として解釈する。
【0015】数字キーパッド4は、プロセッサ2内でキ
ーパッドに対応する触覚アレイ1の領域の定義を変更す
ることにより再配置されうる。この実施例においては、
領域の再定義は、キーパッド4のキーとして機能する相
異なったセンシングエレメント7を規定することにより
実現される。例えば、キーパッド4はプロセッサ2によ
ってキーパッドのキー”1”が(図3において示されて
いるように参照番号8によって指し示されているセンシ
ングエレメントグループではなく)参照番号9によって
指し示されているセンシングアレイグループと重なるよ
うに再定義されうる。すなわち、キーパッド4が下方に
シフトされ、”1”キーが”4”キーによって占められ
ていた位置を占め、”2”キーが”5”キーによって占
められていた位置を占める等。再定義されると、プロセ
ッサ2はセンシングエレメント9からの出力を、最初に
定義されていたように”4”出力ではなく、キーパッド
4からの”1”出力として解釈する。
【0016】図4は、本発明に係るインテリジェントワ
ークサーフェス(すなわち、図1の触覚アレイ)あるい
はそのようなワークサーフェスを複数個実現するために
用いられる並列に接続された複数個の触覚センサアレイ
12を示した図である。アドレス回路14が各々のセン
サアレイ12に関連させられており、各々のアレイ12
を構成している(”ピクセル”とか”タクセル”と呼称
される)個別のセンシングエレメントをアドレシングす
る。回路14は、アプリケーションスペシフィック集積
回路すなわち”ASIC”として示されている。(サン
プル−ホールド機能を有する)アナログ−デジタル(A
/D)変換回路16がアレイ12からアドレス回路14
を介してデータ出力を受信する。(アレイの特性によっ
て決定される)所定のセトリングタイムの後、データは
A/Dコンバータからデータバス20を介してアドレス
可能な3ステートバッファ18に渡される。データバス
20は、本発明の原理に従ってデータを処理する図1及
び図2のプロセッサ2などの適切なプロセッサを接続し
ている。図4のセンサアレイ回路の具体的な実現の詳細
に関しては、以下においてインテリジェントワークサー
フェスの実現に関する具体的な技法に係る議論の後に議
論される。
【0017】図5から図7は、プロセッサ2において種
々のデスクトップアプリケーションを実現するための具
体的な方法を示した流れ図である。図11及び図12
は、プロセッサ2などのプロセッサにおいて種々のイン
テリジェントフロアアプリケーションを実現するための
具体的な方法を示した流れ図である。
【0018】本発明に係る種々のアプリケーションの詳
細を記述する前に、ほとんどのアプリケーションに対し
て共通の2つの画像処理技法が記述される。これらの技
法は、”連結領域解析”(すなわち”クラスタリン
グ”)であり、画像の重心を決定するものである。クラ
スタリングは、12個のアレイよりなるサンプルピクセ
ルを連結領域にグループ分けする段階を有している。ク
ラスタリング技法は画像処理の分野において公知であ
り、ティー・パブリデス(T.Pavlides)によ
る”グラフィックス及び画像処理に関するアルゴリズ
ム”(コンピュータ・サイエンス・プレス社、1982
年)に記載されている。クラスタ化された領域の各々の
重心は、n×m個のセンサアレイに関して以下に示され
る数式を用いて決定される:
【数1】
【数2】 ここで、n及びmは各々センサアレイの列数及び行数、
i及びjは各々列及び行の変位、Vは座標(i,j)の
ピクセルのグレイスケール値である。
【0019】デスクトップアプリケーションにおいて
は、データはプロセッサに対して以下の3種類の型のイ
ンターフェースの内の一つを介して入力される:”キー
ボード”インターフェース、”マウス”インターフェー
ス、及び”画像”インターフェース。デスクトップサー
フェスの各部分は、初期化手続きにおいて、これらの型
の内の一つのインターフェースとしての入力デバイスと
して規定される。プロセッサは入力デバイスを前述され
たテンプレート及びマッピング機能によって規定する。
すなわち、プロセッサは、まず、選択されたセンシング
エレメントを入力デバイスとして識別する。その後、プ
ロセッサは選択されたセンシングエレメントの出力を入
力デバイスの出力として解釈する。プロセッサは、デス
クトップ上の相異なった部分を、複数個の入力デバイス
として同時に規定しうる。
【0020】図5の流れ図は、本発明に従ってキーボー
ドインターフェースを実現する具体的な方法を示した図
である。キーボードインターフェースは、(図1に示さ
れたキーボード3のような)キーボード、数字キーパッ
ド、及び他の同様のデバイスを提供するために用いられ
うる。(これらのデバイスは、柔らかい材料よりなるシ
ートをパターンが形成されたテンプレートと重ね合わせ
ることによって構成される。)以下に詳細に記述されて
いるように、図5に示された方法は、他の、キーボード
ではないデバイスを規定するためにも用いられうる。
【0021】ボックス30に示されているように、プロ
セッサ(例えば図1のプロセッサ2)はセンサアレイ1
2をサンプリングする。このことは、例えば各々のセン
シングエレメントをアドレシングするためにアレイ全体
にわたってサイクルすることによって実行されうる。そ
の後、センシングポイントは連結領域に”クラスタリン
グ”され、プロセッサはそれぞれの領域の重心を計算す
る。データがアレイから集められると、プロセッサは3
つの一般的な操作の内の一つを実行する。すなわち、プ
ロセッサはデバイスを規定するか、既に規定されたデバ
イスに対する処理操作を実行するか、あるいはある所定
の事象(例えば、規定された領域外の触覚アレイ1への
接触)の発生による”オプション”の、すなわち特別の
処理操作を実行するかのいずれかである。
【0022】ボックス32、34、36、38は、モジ
ュール(すなわち、センサアレイ上のキーボードやマウ
スなどと規定された領域)が”アクティブ”なデバイス
のリストに追加される方法を示している。アレイは、少
なくとも一つのクラスタが検出されるまでサンプリング
される。クラスタを検出すると、プロセッサは、3つの
クラスタが存在するか否かを決定する。3つのクラスタ
が検出された場合には、プロセッサはその3つのクラス
タの重心が既知のモジュールの”足跡”に対応している
か否かを決定する。その場合には、そのモジュール及び
その位置及びその方向がアクティブデバイスのリストに
追加される。重心が既知のモジュールの”足跡”に対応
しない場合は、入力が無視され、再びアレイがサンプリ
ングされる。
【0023】ひとたびデバイスがアクティブとなると、
プロセッサは、例えばアクティブ領域内のキーが押され
たか否かを決定するためにアレイをモニタする。決定ボ
ックス34への応答が”ノー”である(すなわち、クラ
スタ数が3に等しくない)場合は、プロセッサは一つの
クラスタのみが存在するのか否か(ボックス40)及び
このクラスタがどのデバイスに属しているのか(ボック
ス44)を決定する。各々のデバイスが重なりを有さな
い領域に分割されるため、単一のクラスタの重心は、例
えばキーボード上の押された”キー”を識別する単一の
領域内に存在する。プロセッサ2上で実行されているデ
バイススペシフィックなソフトウエアは、触覚アレイの
出力を規定された入力デバイスの出力として解釈し、検
出されたキーストロークに基づいて所定の機能を実行す
る。
【0024】ボックス40における決定結果が”ノー”
である(すなわち複数個のクラスタが存在する)場合に
は、プロセッサはセンサアレイ上への複数個の接触に基
づいて機能する付加的な処理を実行することが望ましい
(ボックス48)。このことにより、システムのオン/
オフ、最後の入力の削除、セッションの終了あるいは再
起動、あるいは他の型のモジュール(例えばマウス)に
対する領域規定などのモジュールに依存しない機能を許
容する手段が供給される。同様に、決定ボックス42へ
の答えが”イエス”である場合には、プロセッサはあら
ゆる既知のモジュールのアクティブ領域外への接触に対
する付加的な処理(例えば、計算機領域外を押すことに
より計算のための直前のキーストロークを削除するな
ど)を実行することが望ましい。
【0025】触覚アレイ1上で第二の型のインターフェ
ース、すなわちマウスデバイス、を実現するための方法
の具体例が図6の流れ図に示されている。まず、触覚ア
レイ1上でのマウスのアクティブ領域(すなわち、その
デバイスの範囲を規定するセンシングエレメント)が規
定されなければならない(ボックス50)。このこと
は、図5の流れ図に示されたステップを用いてなされ
る。その後、マウスは3つの相異なった操作を実行する
ことによって実現される。第一に、マウス領域の原点が
設定されなければならない。この原点はディスプレイモ
ニタのスクリーン上のカーソルの位置を設定する。第二
に、クリックという事象が検出されて表示されなければ
ならない。クリック事象は、所定の処理操作がなされな
ければならないことを表すマウスデバイスへの入力であ
る。第三に、ディスプレイモニタのスクリーン上のカー
ソルが、マウス領域の原点の再配置に応答して再配置さ
れなければならない。
【0026】マウスのアクティブ領域が決定されると、
規定されたマウス領域内でクラスタが検出されるまで触
覚アレイがサンプリングされる(ボックス52)。クラ
スタが検出されると、プロセッサは原点が設定されたか
否かを決定する(ボックス56)。原点が設定されてい
ない場合には、処理は、図示されているように、ボック
ス58へ進む。プロセッサはセンサアレイのマウス領域
を数回サンプリングする。重心の平均が、重心のx及び
yの値を仮総和に追加し、その仮総和をなされたサンプ
リングの回数で割ることにより計算される。その後、原
点がマークされる。所定の回数のサンプリングがなされ
たことを保証するためにサンプリングカウンタが用いら
れる(ボックス60)。サンプリング回数は、そもそも
の接触の原点を充分な信頼性を有して配置するために必
要とされる回数を超過していなければならない。元とな
るクラスタがアクティブマウス領域内に存在しない場合
には、仮総和はリセットされ(ボックス54)、原点は
設定されず、新たなサンプリングがなされることにな
る。
【0027】前述されているように、ひとたび原点が設
定されると、プロセッサはアレイのサンプリングを続行
する。プロセッサは、続行されたサンプリングに対し
て、各々のサンプリングクラスタ内のピクセル値の総和
が”クリックスレッショルド”を超過したか否かを決定
する。クリックスレッショルドは、それを超過するとマ
ウスの”クリック”事象が発生したと仮定されるような
所定の値である。クリックスレッショルドを超過するこ
とは、従来のマウスのボタンを押し下げたことと同一の
効果を有している。クリック事象が発生すると、プロセ
ッサはクリック事象の発生に係る特定のアプリケーショ
ンによって要求されるインストラクションを実行する
(ボックス66)。クラスタのピクセル値の総和がクリ
ックスレッショルドを超過しない場合には、プロセッサ
は、クラスタの重心が原点の重心から所定の距離(”原
点距離”)だけ移動したか否かを決定する。移動してい
ない場合には、触覚アレイが再びセンスされる。重心が
充分な距離だけ移動した場合には、関連するディスプレ
イモニタのスクリーン上に表示されているカーソルが新
たなサンプリングがなされる前に新しい位置に移動させ
られる(ボックス70)。ディスプレイモニタ上のカー
ソルは、元の位置から現時点での重心の位置方向に移動
させられる。カーソルは、”速度定数”と原点と現時点
での重心との距離との積に等しい距離だけ移動させられ
る。速度定数は、センサの解像度、ディスプレイモニタ
の解像度、及びサンプリングレートに依存し、如何に速
くカーソルが移動すべきかというユーザの好みに合わせ
るようユーザによって変更されうることが望ましい。新
たな重心に応答してカーソルを移動するための技法は、
従来のマウスの動きに応答してディスプレイカーソルを
移動させる技法と同様である。これらの技法は当業者に
は公知である。
【0028】画像インターフェースが図7を参照して記
述される。画像を処理する場合には、センサアレイがサ
ンプリングされ(ボックス72)、そのアレイからのグ
レイスケールピクセル値(あるいは他のマルチスケール
値)が画像(すなわち、各々のピクセルが列及び行アド
レスを有している)としてストアされる(ボックス7
4)。その後、画像グレイスケールデータは特定のアプ
リケーションに対して必要とされるように処理される
(ボックス76)。その種のアプリケーションの一例
が、図8から図10を参照して記述される。
【0029】図8は、個人をその手形に基づいて識別す
る具体的な方法を示している。このアプリケーション
は、例えば管理領域あるいはコンピュータ端末への個人
のアクセスを保証あるいは否定するために用いられう
る。このプロセスの第一段階は、ボックス78に示され
ているように、連続したアレイのサンプリングを行な
い、かつそれらのサンプルデータの総和を計算して手形
の全体像を形成することである。プロセッサはセンシン
グアレイを例えば50Hzでサンプリングし、信頼しう
る画像を得るようサンプリングデータの総和を求める。
【0030】その後、当該画像に対して、全ての非零ピ
クセルの値を見出すことによってスレッショルドがかけ
られ、各々の非零ピクセルから所定の値(例えば平均の
ピクセル値に0.3を乗じたもの)が差し引かれる。こ
の減算に引き続いて、0未満の値を有する全てのピクセ
ルを0に設定することにより、さらにスレッショルドが
かけられる。このプロセスにより雑音が除去され、プロ
セッサによるクラスタリングが行なわれるあらゆる時間
の間に、人間がセンシングアレイに対して手を保持して
おくことを許容する。
【0031】次のステップ(ボックス82)は、グレイ
スケール手形画像を2値画像に変換することである。非
零ピクセルに対しては、1の値が与えられる。このこと
により、各々のピクセルに対して同一の重みが与えられ
たことになり、その後の操作に対して、グレイスケール
の重心を用いて利用可能なものよりもより良い基準が提
供される。図9は、このプロセスによって得られた手形
画像106を示した図である。この処理方法の残りの部
分は図9及び図10を参照して記述される。
【0032】次のステップ(図8のボックス84)は、
2値画像106の重心108と主軸を配置することであ
る。重心108は、前述されたクラスタリングに関する
式を用いて決定される。ここで、全ての非零ピクセル値
は1である。原点を重心108に有する象限のX軸11
0はより小さい主モーメントに対応する主軸に平行であ
り、手のひらの付け根の部分に向かっている。Y軸11
2はX軸110に垂直であり、右手座標系を構成してい
る。このことにより、手の向きが規定される。
【0033】2値画像は連結領域にクラスタリングされ
(ボックス86)、各々の連結領域の重心が決定され
る。その後、親指の先に対応するクラスタ114が配置
される(ボックス88)。クラスタ114はX軸110
から最も離れた重心を有するクラスタであり、その重心
のx座標は−1.2から3.5インチの間の値を有す
る。
【0034】次に、右手であるか左手であるかが決定さ
れる。親指の重心のy座標が正であればその手形は左手
であり、y座標が負であれば右手である。
【0035】次に、各々の指先に対応するクラスタが識
別されて順序付けられる(ボックス90及び92)。こ
のことを行なうために、プロセッサは重心108と負の
x座標を取る重心を有する各々のクラスタ(親指は除
く)の重心との間の距離を計算する。プロセッサはこの
値を重心のx座標の2乗に加算する。最大の値を有する
4つの重心が指先である。その後、指先はそのy座標に
従って親指を含めて順序付けられる。手形が左手である
場合は、親指は最大のy座標を有しており、人差し指は
その次、さらに中指、薬指、小指と続く。手形が右手で
ある場合はその逆となる。
【0036】ボックス94に示されているように、プロ
セッサは、その後、指先に対応する各々のクラスタ11
4、116、118、120及び122の重心から最も
遠いピクセルの位置を決定する。
【0037】次に、手のひらの付け根の中心点124の
位置が決定される(ボックス96)。このことを行なう
ために、図10に示されている新たな座標軸が決定され
る。この新たな座標軸は、もとの座標軸と同一の原点に
基づいている。新たなX軸は、中指に対応するクラスタ
120内の重心から最も遠いピクセル126と、親指に
対応するクラスタ114の重心と小指に対応するクラス
タ116の重心とを結んだ線分の中点128とを結ぶ直
線に平行であるように決定される。新たなY軸134に
より右手座標系が完成する。この座標軸を用いると、手
のひらの付け根の中心点124のx座標は、新たな座標
軸における最大のx座標を有する非零ピクセルのx座標
となる。y座標は、x座標が0より大きく、それぞれ最
大及び最小のy座標を有する2つの非零ピクセル(親指
に対応するピクセル114は除く)を見出すことによっ
て決定される。この2つのy座標の平均が、手のひらの
付け根の中心点124のy座標となる。
【0038】その後、プロセッサは手のひらの幅を決定
する(ボックス98)。手のひらの幅は、指として識別
されたクラスタを除いたy座標の最大値と最小値との間
隔の絶対値として定義される。プロセッサは、さらに、
手のひらの付け根の中心点124と各々の指先の最も遠
いピクセルとの間の距離も決定する(ボックス10
0)。
【0039】個人の手形を特徴付けるために、6つの数
値からなる組が用いられる(ボックス102)。この6
つの数値の組を構成しているのは、手のひらの付け根の
中心点124から各々の指先の最も遠いピクセルまでの
距離、及び手のひらの幅である。6つの数値の組は、手
形のライブラリを構成している6つの数字の組のライブ
ラリと比較される(ボックス104)。よって、未知の
個人の手形が6つの数値の組<d1,...,d6>を計
算し、それを既知の個人に対してストアされた6つの数
値の組<cx1,...,cx6>と比較することによって
識別されうる。この比較は、次式に従って、既知の各々
の個人に対する6つの数値の組との間の距離を計算する
ことによってなされる:
【数3】 未知の手形は、Dxの最小値に係る既知の個人に属する
ものと識別される。
【0040】図11及び図12の流れ図は、本発明に従
ったインテリジェントフロアアプリケーションをプロセ
ッサ2において実現するための具体的方法を示した図で
ある。
【0041】図11は、センサアレイによってカバーさ
れている(フロアなどの)表面上で動作させられている
モーター付き台車を認識しかつ制御するための方法を示
した流れ図である。台車は識別され、その位置が決定さ
れる。その後、台車はフィードバック制御下で希望する
位置まで移動させられる。台車と他の物体との衝突は、
プライオリティ(優先順位)を決定する手続きを用いて
回避される。
【0042】モーター付き台車を制御する第一のステッ
プは、ボックス140に示されているようにフロアセン
サアレイをサンプリングすることである。その後、この
プロセスは、台車をその”足形”で識別する(ボックス
142)。このことを行なうために、プロセッサは前述
されているようなクラスタ解析を行ない、検出されたク
ラスタの重心及び重心間のすべての距離を決定し、この
情報を台車に関する既知の足形と比較する。その後、プ
ロセッサはフロア上の台車の位置を決定し(ボックス1
14)、その位置を希望する位置と比較する。利用可能
である場合には、台車の直前の位置が台車の現時点での
位置の検索を制限するために用いられうる。台車のモー
ター及び舵取りユニットが(動作させられている台車の
型に対して要求されているように)起動させられて台車
が希望する位置へ駆動される。プロセッサはフロア上の
センシングアレイを繰り返しサンプリングし、台車が希
望する位置に到達するまでモーター及び舵取りユニット
を調節する(ボックス146)。
【0043】プロセッサは、例えば他の台車や人間など
の障害物との衝突を回避する手段を提供することが望ま
しい(ボックス141)。ある実施例においては、台車
が他の台車(あるいは物体)から所定の距離内に入る
と、2つの台車間の相対的な優先準位が決定される(ボ
ックス143)。より高い優先準位を有する台車が希望
する位置まで駆動される(ボックス145)。低い優先
準位を有する台車は、高い優先準位を有する台車が範囲
外に去るまで停止されたままとなり(ボックス14
7)、その後希望する位置まで駆動される。台車には、
通常、動かない物体よりも高い優先準位が与えられる
が、人間よりは低い。台車の方向及び速さは、障害物を
回避するために必要となるように、及びフロア上の交通
パターンに依存して修正されうる。
【0044】図12は、”足形”解析に基づいて個人を
識別する方法を示した流れ図である。足形解析の第一ス
テップは、ボックス148に示されているように、アレ
イをサンプリングすることである。足跡が一定のレート
でサンプリングされなければならず、その結果一連の足
形画像よりなる足跡のテンプレートが構成されることに
なる。一度構成されると、その”未知の”(すなわち未
だ識別されていない)足跡のテンプレートが”既知の”
足跡のテンプレートのライブラリと比較され、未知の足
跡が識別される。
【0045】プロセッサは、足跡のかかとの部分がフロ
アに接触したのを検出したセンサアレイサンプルを第一
フレーム(足跡の第一の足形画像)として規定すること
によって足跡の”原点”を計算することが望ましい(ボ
ックス150)。この第一の足形画像の重心及び第二の
足型画像が計算されてその平均が計算される。この重心
の平均が原点を規定する。
【0046】その後の足形画像の各々に対して、足跡の
端において爪先がフロアから離れるまで、プロセッサは
センサアレイをサンプリングし、足形画像の重心を計算
しそれをストアする(ボックス152、154、及び1
56)。プロセッサは、さらに、各々の足形の重心から
原点までの距離(ボックス158)、及び全てのピクセ
ル値の総和(ボックス160)を計算してストアする。
全てのピクセル値の総和は、アレイに印加された重量に
比例する。全ての足形サンプルが取られると(すなわ
ち、足がもはやフロアと接触していなくなると)、プロ
セッサはデータを再び補間する(ボックス162)。
【0047】一組の足跡においてプロセッサがN個のデ
ータ(すなわち、N個の足形画像)をサンプリングする
と、(N−2)個の計算された距離及びピクセル値の総
和(すなわち重量)が得られることになる。図13に示
されているように、この方法においては、距離と重量と
の関係に注目している。図13のグラフは、かかとがセ
ンサアレイに接触した時刻から爪先がセンサアレイから
離れた時刻までの間の一連のアレイのサンプリングを通
じて集められた時間と重量及び時間と距離の情報から導
出されたものである。横座標上で等間隔のデータを得る
ために、データが15/128距離単位の間隔で再補間
されることが望ましい。このことにより、0から15距
離単位(たとえばインチ)の間に128個のデータポイ
ントが得られる。(15という数は、足形が最大でも1
5インチの長さを超過しないことから選択された。)こ
れらの128個のデータ(そのうちの幾つかは0である
可能性がある)は、未知の足跡を特徴付ける128個の
数よりなる組<d1,...,d128>を規定する(図1
2のボックス164を参照)。未知の足跡に係る128
個のデータの組は、足跡のライブラリ中の既知の個人に
対する128個のデータの組(個人”x”に対する<C
x1,...,Cx128>)と比較される(図12、ボック
ス166)。足跡は、ユークリッド幾何学的な距離測度
【数4】 を用いて比較される。未知の足跡(及びその未知の足跡
が属する未知の個人)は、最小のDxを有する足跡(及
び個人)として識別される。
【0048】図4に戻って、本発明に係るインテリジェ
ントワークスペースを実現する具体的な回路の詳細が以
下に記述される。センサアレイは、表面の高さあるいは
プロファイルを著しく変更することなくワークサーフェ
スをカバーすることが望ましい。センサアレイ12の各
々は、通常、ポリマーインクアレイなどのピエゾ抵抗触
覚センサアレイである。センサアレイ12は個別のアド
レス可能なセンシング素子を有しており、これらは通常
列導体及び行導体の交点を形成している。よって、アレ
イ12は行及び列を順次アドレシングすることにより”
サンプリング”される。アレイ12用に適したセンサア
レイは、インターリンクエレクトロニクス(Inter
link Electronics)社(カリフォルニ
ア州カーピンテリア(Carpinteria)、93
013)より市販されている。もちろん、例えば可変容
量センサなどの他のタイプのセンサが本発明の範疇及び
その精神を逸脱することなく用いられうることは当業者
には自明である。
【0049】アドレシング回路14は、通常、アレイ1
2におけるパラレルパスを望ましくない電流が流れるの
を防ぐために、各々のセンシング素子をアイソレートす
る回路を有している。アドレシング回路14を実現する
ための回路は、本発明の発明者が共発明者となっている
出願中の米国特許出願第07/775、881号(19
91年10月11日付け)に記載されている。A/Dコ
ンバータ16は、市販のA/Dコンバータ回路を用いて
実現されうる。
【0050】アドレシング回路14、A/Dコンバータ
16、及びバッファ18はコントロール線22を介して
コントロールされる。コントロール信号は回線22を介
して全てのセンサアレイ12に対して同時に伝達され、
データはバッファ18を介して共通データバス20上に
シーケンシャルに書き出される。ストローブ信号によ
り、センサアレイ12からの(アドレシング回路14を
介した)アナログデータ出力のA/Dコンバータ16に
よる変換が行なわれる。
【0051】アレイを選択するため及びデータをアレイ
からバス20に出力するために必要とされる時間がセト
リングタイム未満である限り、センサアレイ12のすべ
て(センサ選択コードの限界まで)が単一のアレイとし
て同一レートでアクセスされうる。28個より多いセン
サアレイ12が要求される場合には、付加されたセンサ
アレイを適応させるためにデータバスが拡張されうる。
【0052】インテリジェントワークサーフェスアプリ
ケーションにおいて決定さるべき一時パラメータは、セ
ンシングエレメントの密度及びアレイのサンプリング周
波数である。これらのパラメータは、アプリケーション
によってほぼ制御される。例えば、インテリジェントデ
スクトップは、一般に、インテリジェントフロアよりも
大きいセンシングエレメント密度を要求する。
【0053】32μsのセトリングタイム、800ns
のストローブ(市販の代表的なA/Dコンバータのよう
に、ストローブ後800nsした時点でデータが確定す
るものとする)及び1μsのアドレシングピリオドを仮
定すると、アレイのセンシングエレメントは平均して3
3.8μs毎にアドレスされてサンプリングされる。よ
って、16×16個のセンサよりなるアレイ(すなわ
ち、各々のアレイは256個のセンシングエレメントを
有している)は、7.54Mbits/secのレート
でデータを生成する。このデータレートは、30Hzで
更新されて7.37Mbits/secのデータを生成
する512×480ピクセルよりなる標準的なビデオ画
像と同様のものである。
【0054】代表的なモジュラー入力デバイス、例えば
キーボードやマウス、を実現するためには、0.125
から0.25平方インチのセンシングエレメント密度が
通常適切である。この分解能では、インテリジェントデ
スクトップは1.2から4.9Mpixels/sec
のレートでデータを生成する。これは、30Hzのビデ
オ画像と同程度のものである。
【0055】12フィート×12フィートが通常のオフ
ィスあるいはオフィスビルの小さな共用装置領域であ
る。このような大きさの領域において、1.5から0.
25平方インチのセンシングエレメント密度を用いる
と、0.27Mpixels/secから9.78Mp
ixels/secのレートでデータが生成されること
になる。中間の値としてセンサ密度3/4平方インチを
用いると、インテリジェントフロアは1.10Mpix
els/secのレートでデータを生成する。これは、
単一のビデオカメラによって生成されるデータのおよそ
15%である。これらのデータレートは、例えば前掲の
米国特許出願第07/775、881号に記載されてい
るように、サンプリングレートを115Hzまで上昇さ
せることあるいはアレイの分解能を上昇させることによ
って実質的に変化させられうる。
【0056】以上の説明は、本発明の一実施例に関する
もので,この技術分野の当業者であれば、本発明の種々
の変形例が考え得るが、それらはいずれも本発明の技術
的範囲に包含される。
【0057】
【発明の効果】以上述べたごとく、本発明によれば、多
様性及び適応性を有するインテリジェントワークサーフ
ェスが提供される。
【図面の簡単な説明】
【図1】本発明のインテリジェントワークサーフェスと
して配置されたセンシングアレイによって覆われたデス
クトップサーフェスを模式的に示す図である。
【図2】本発明のインテリジェントワークサーフェスと
して配置されたセンシングアレイによって覆われたデス
クトップサーフェスを模式的に示した図である。
【図3】図2に示されたインテリジェントワークサーフ
ェスの一部を分解した様子を簡潔に示した図。
【図4】本発明の原理に従うインテリジェントワークサ
ーフェスを実現する回路を示したブロック図。
【図5】本発明のインテリジェントデスクトップサーフ
ェス上でキーボードタイプのインターフェースを実現す
るための流れ図。
【図6】本発明のインテリジェントデスクトップサーフ
ェス上でマウスタイプのインターフェースを実現するた
めの流れ図。
【図7】本発明のインテリジェントデスクトップサーフ
ェス上で画像タイプのインターフェースを実現するため
の流れ図。
【図8】本発明のインテリジェントデスクトップサーフ
ェスを用いて手形によって個人を識別するための流れ
図。
【図9】本発明のインテリジェントワークサーフェス上
で生成された手形画像を示す図。
【図10】本発明のインテリジェントワークサーフェス
上で生成された手形画像を示す図。
【図11】本発明のインテリジェントフロアサーフェス
を用いて可動式機械を制御するための流れ図。
【図12】本発明のインテリジェントフロアサーフェス
を用いて足形解析から個人を識別するための流れ図。
【図13】連続する足形画像サンプルから得られたデー
タを示すグラフ。
【符号の説明】 1、1’ 触覚センサアレイサーフェス 2 コンピュータ 3、3’ キーボード 4、4’ 数字キーパッド 5、5’ ディスプレイ入力デバイス 6、6’ ディスプレイ 8、9 センシングエレメントグループ 12 センサアレイ 14 アドレス回路 16 A/Dコンバータ 18 3ステートバッファ 20 データバス 22 制御回線 106 2値画像 108 重心 110 X軸 112 Y軸 114 親指の指先 116、118、120、122 指先 124 手のひらの付け根の中心点 126 重心から最も遠いピクセル 128 クラスタ114の重心130とクラスタ116
の重心132とを結ぶ線分の中点 130 クラスタ114の重心 132 クラスタ116の重心 134 新たなY軸 136 新たなX軸

Claims (24)

    【特許請求の範囲】
  1. 【請求項1】 ワークサーフェスを構成するセンシング
    エレメントよりなるアレイと、 当該アレイの各々のセンシングエレメントは、当該セン
    シングエレメントへの入力に応答してデータ出力を生成
    し、 第一の複数個のセンシングエレメントよりなる第一の入
    力デバイスを規定する手段と、 前記第一の複数個のセンシングアレイからの各々のデー
    タ出力を前記第一の入力デバイスの対応する出力にマッ
    ピングする手段と、 前記第一の入力デバイスを第二の複数個のセンシングエ
    レメントよりなるものとして再規定する手段と、からな
    り、 前記マッピング手段が、前記第二の複数個のセンシング
    エレメントからのデータ出力を前記第一の入力デバイス
    の対応する出力としてマッピングすることを特徴とする
    ワークサーフェスシステム。
  2. 【請求項2】 前記第一の複数個のセンシングエレメン
    トの少なくとも一部からのデータ出力を第二の入力デバ
    イスの対応する出力にマッピングする手段を更に有する
    ことを特徴とする請求項第1項に記載のシステム。
  3. 【請求項3】 第二の入力デバイスを第三の複数個のセ
    ンシングエレメントよりなるものとして規定する手段
    と、 前記第三の複数個のセンシングエレメントからの各々の
    データ出力を第二の入力デバイスからの対応する出力に
    マッピングする手段とを更に有することを特徴とする請
    求項第1項に記載のシステム。
  4. 【請求項4】 前記第一の入力デバイスからの出力を連
    結領域に分割するために、当該出力に基づいて連結領域
    解析を実行する手段を更に有することを特徴とする請求
    項第1項に記載のシステム。
  5. 【請求項5】 少なくとも一つの連結領域の重心を決定
    する手段を更に有することを特徴とする請求項第4項に
    記載のシステム。
  6. 【請求項6】 前記第一の入力デバイスが、画像インタ
    ーフェースを有しており、 前記第一の複数個のセンシングエレメントへの入力のマ
    ルチレベル表示を画像としてストアする手段を更に有す
    ることを特徴とする請求項第1項に記載のシステム。
  7. 【請求項7】 前記規定手段が、前記アレイ上で複数個
    の入力デバイスを同時に規定する手段を有し、 前記複数個の入力手段の各々が、前記センシングエレメ
    ントの内の所定のものよりなることを特徴とする請求項
    第1項に記載のシステム。
  8. 【請求項8】 ワークサーフェスを構成するセンシング
    エレメントよりなるアレイと、 当該アレイの各々のセンシングエレメントは当該センシ
    ングエレメントへの入力に応答してデータ出力を生成
    し、 第一の複数個のセンシングエレメントよりなる第一の入
    力デバイスを規定する手段と、 前記第一の複数個のセンシングアレイからの各々のデー
    タ出力を前記第一の入力デバイスの対応する出力にマッ
    ピングする手段と、 前記第一の複数個のセンシングエレメントの内の少なく
    とも一部からのデータ出力を第二の入力デバイスの対応
    する出力にマッピングする手段とを有することを特徴と
    するワークサーフェスシステム。
  9. 【請求項9】 各々入力に応答してデータ出力を生成す
    る複数個のセンシングエレメントを有するセンサを用い
    る方法において、 第一の複数個の前記センシングエレメントよりなるもの
    として第一の入力デバイスを規定するステップと、 前記第一の複数個のセンシングエレメントからのデータ
    出力を前記第一の入力デバイスの対応する出力にマッピ
    ングするステップと、 前記第一の入力デバイスを第二の複数個の前記センシン
    グエレメントよりなるものとして再規定するステップ
    と、 からなり、 前記マッピングステップは、前記第二の複数個のセンシ
    ングエレメントからの出力を前記第一の入力デバイスの
    対応する出力にマッピングすることを特徴とするワーク
    サーフェスシステム実現方法。
  10. 【請求項10】 前記第一の複数個のセンシングエレメ
    ントの少なくとも一部からのデータ出力を第二の入力デ
    バイスの対応する出力にマッピングするステップを更に
    有することを特徴とする請求項第9項に記載の方法。
  11. 【請求項11】 第二の入力デバイスを第三の複数個の
    センシングエレメントよりなるものとして規定するステ
    ップと、 前記第三の複数個のセンシングエレメントからの各々の
    データ出力を第二の入力デバイスからの対応する出力に
    マッピングするステップとを更に有することを特徴とす
    る請求項第9項に記載の方法。
  12. 【請求項12】 前記規定ステップが、 センサのセンシングエレメントをサンプリングするステ
    ップと、 所定のパターンを有する力が前記センサに対して印加さ
    れたか否かを決定するステップと、 前記所定のパターンを有する力に応答して所定の入力デ
    バイスの位置及び方向を規定するステップと を有する
    ことを特徴とする請求項第9項に記載の方法。
  13. 【請求項13】 前記第一の入力デバイスからの出力を
    連結領域に分割するために当該出力に基づいて連結領域
    解析を実行するステップを更に有することを特徴とする
    請求項第9項に記載の方法。
  14. 【請求項14】 少なくとも一つの連結領域の重心を決
    定するステップを更に有することを特徴とする請求項第
    9項に記載の方法。
  15. 【請求項15】 原点を前記規定された領域内で第一の
    力が印加された重心であると規定するステップと、 第二の力の重心が前記原点から少なくとも第一の所定の
    距離だけ離れているか否かを決定するステップと、 前記第二の力の重心が前記原点から少なくとも前記第一
    の所定の距離だけ離れている場合に、ディスプレイスク
    リーン上のカーソルの所定の方向への第二の所定の距離
    だけの移動を表す信号を生成するステップとを更に有す
    ることを特徴とする請求項第14項に記載の方法。
  16. 【請求項16】 所定の値を超過した第三の力の検出に
    基づいてクリック事象の発生を通知する信号を送出する
    ステップを更に有することを特徴とする請求項第15項
    に記載の方法。
  17. 【請求項17】 各々入力に応答して出力を生成する複
    数個のセンシングエレメントを有するセンサを用いる方
    法において、 第一の複数個の前記センシングエレメントよりなるもの
    として第一の入力デバイスを規定するステップと、 前記第一の複数個のセンシングエレメントからのデータ
    出力の各々を前記第一の入力デバイスの対応するデータ
    にマッピングするステップと、 前記第一の複数個のセンシングエレメントの内の少なく
    とも一部からのデータ出力を第二の入力デバイスの対応
    する出力にマッピングするステップと、を有することを
    特徴とするセンサ利用方法。
  18. 【請求項18】 人物を識別する方法において、 人物に特徴的な力のイメージを記録するために触覚セン
    サアレイをサンプリングするステップと、 記録された力のイメージ情報から前記人物に特徴的な情
    報を決定するステップと、 前記人物に特徴的な前記情報を既知の個人に特徴的な情
    報と比較するステップと、 前記比較段階に基づいて前記人物を既知の個人として識
    別するステップとを有することを特徴とする人物識別方
    法。
  19. 【請求項19】 人物に特徴的な前記力のイメージが手
    形の力のイメージを構成していることを特徴とする請求
    項第18項に記載の方法。
  20. 【請求項20】 前記サンプリングステップが、 前記力のイメージを生成するために前記せんさアレイか
    らの連続したサンプリングによるピクセル出力の総和を
    計算するステップと、 各々の非零ピクセルから所定の値を減ずるステップと、 0未満の値を有する全てのピクセルを0にセットするス
    テップと、 全ての非零ピクセルと1にセットするステップと を有
    することを特徴とする請求項第18項に記載の方法。
  21. 【請求項21】 前記決定ステップが、 前記力のイメージの重心における原点を規定するステッ
    プと、 前記力のイメージの主軸をセットするステップと、 前記力のイメージを複数個の接続領域に分割するために
    前記力のイメージの接続領域解析を実行するステップ
    と、 前記力のイメージの指先に対応する前記接続領域を識別
    するステップと、 前記原点から最も離れた各々の指先のピクセルを識別す
    るステップと、 前記力のイメージ上の所定の点と前記原点から最も離れ
    た各々の指先のピクセルとの間の距離を計算するステッ
    プと、 前記力のイメージの手のひらの幅を計算するステップと
    を更に有することを特徴とする請求項第18項に記載の
    方法。
  22. 【請求項22】 前記人物に特徴的な前記力のイメージ
    が、一連の連続的な足形の力のイメージよりなることを
    特徴とする請求項第18項に記載の方法。
  23. 【請求項23】 前記決定ステップが、 前記一連の連続的な力のイメージの第一の力のイメージ
    の重心における原点を規定するステップと、 その後の前記連続する力のイメージの各々に対して、前
    記力のイメージの重心、前記力のイメージの重心と前記
    原点と間の距離、及び前記力のイメージの全てのピクセ
    ル値の総和、を計算するステップと、 前記人物を特徴付けるために前記各々の力のイメージを
    前記総和と前記重心と前記原点との間の前記距離とに関
    連付けるステップとを更に有することを特徴とする請求
    項第18項に記載の方法。
  24. 【請求項24】 前記人物を特徴付ける所定の間隔にお
    けるデータ値を得るために前記総和及び前記距離を再補
    間するステップを有することを特徴とする請求項第23
    項に記載の方法。
JP35242792A 1991-12-13 1992-12-11 ワークサーフェスシステム及びその実現方法、及びセンサ利用方法及び人物識別方法 Pending JPH0683523A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US80752491A 1991-12-13 1991-12-13
US807524 1991-12-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP8173480A Division JPH0969021A (ja) 1991-12-13 1996-07-03 人物識別方法

Publications (1)

Publication Number Publication Date
JPH0683523A true JPH0683523A (ja) 1994-03-25

Family

ID=25196578

Family Applications (2)

Application Number Title Priority Date Filing Date
JP35242792A Pending JPH0683523A (ja) 1991-12-13 1992-12-11 ワークサーフェスシステム及びその実現方法、及びセンサ利用方法及び人物識別方法
JP8173480A Pending JPH0969021A (ja) 1991-12-13 1996-07-03 人物識別方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP8173480A Pending JPH0969021A (ja) 1991-12-13 1996-07-03 人物識別方法

Country Status (4)

Country Link
US (1) US5479528A (ja)
EP (1) EP0546704A3 (ja)
JP (2) JPH0683523A (ja)
CA (2) CA2078607A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053678A (ja) * 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム
JP2007184007A (ja) * 1998-01-26 2007-07-19 Wayne Westerman 手操作入力を統合する方法
US7461356B2 (en) 2002-06-03 2008-12-02 Fuji Xerox Co., Ltd. Function control unit and method thereof
JP2010039558A (ja) * 2008-07-31 2010-02-18 Canon Inc 情報処理装置及びその制御方法
JP2011022997A (ja) * 2009-07-14 2011-02-03 Cywee Group Ltd 動作に基づいて入力イベントを生成する動作入力システム及び操作方法
WO2015181979A1 (ja) * 2014-05-30 2015-12-03 楽天株式会社 入力装置、入力方法およびプログラム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0593386A3 (en) * 1992-10-16 1996-07-31 Ibm Method and apparatus for accessing touch screen desktop objects via fingerprint recognition
DE4424138C1 (de) * 1994-07-08 1995-09-07 Siemens Ag Modular aufgebaute und erweiterbare elektronische Arbeitsfläche
US5777596A (en) * 1995-11-13 1998-07-07 Symbios, Inc. Touch sensitive flat panel display
US5745591A (en) * 1995-12-29 1998-04-28 Feldman; Stephen E. System and method for verifying the identity of a person
US6163616A (en) * 1995-12-29 2000-12-19 Feldman; Stephen E. System and method for verifying the identity of a person
GB9601955D0 (en) * 1996-01-31 1996-04-03 Crossling Dudley B Imprint identification system
US5764222A (en) * 1996-05-28 1998-06-09 International Business Machines Corporation Virtual pointing device for touchscreens
US5790104A (en) * 1996-06-25 1998-08-04 International Business Machines Corporation Multiple, moveable, customizable virtual pointing devices
US6337918B1 (en) * 1996-11-04 2002-01-08 Compaq Computer Corporation Computer system with integratable touchpad/security subsystem
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
JP2944602B2 (ja) * 1998-01-14 1999-09-06 警察庁長官 掌紋印象の登録・照合方法およびその装置
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US6388247B2 (en) 1998-02-20 2002-05-14 Massachusetts Institute Of Technology Fingernail sensors for measuring finger forces and finger posture
US6236037B1 (en) 1998-02-20 2001-05-22 Massachusetts Institute Of Technology Finger touch sensors and virtual switch panels
DE29804165U1 (de) * 1998-03-09 1998-05-07 Scm Microsystems Gmbh Vorrichtung zur peripheren Datenkommunikation
DE29805869U1 (de) * 1998-03-31 1999-09-02 Fitzner Kurt Dieter Ein-/Ausgabegerät mit Display
US6257486B1 (en) * 1998-11-23 2001-07-10 Cardis Research & Development Ltd. Smart card pin system, card, and reader
US6337678B1 (en) 1999-07-21 2002-01-08 Tactiva Incorporated Force feedback computer input and output device with coordinated haptic elements
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
EP1331593A1 (en) * 2002-01-25 2003-07-30 Hewlett-Packard Company, A Delaware Corporation Optical connection device for a computer
DE10232197B4 (de) * 2002-07-16 2005-03-03 Peter Seitz Kennzeichnungselement und Verwendung desselben
JP2005537581A (ja) * 2002-09-03 2005-12-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 人識別システム
FR2863070B1 (fr) 2003-12-02 2006-03-03 Sensitive Object Procede et dispositif d'interface homme - machine
US7376841B2 (en) * 2004-01-12 2008-05-20 International Business Machines Corporation Portable computer with a hand impression
US7379562B2 (en) * 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20060038780A1 (en) * 2004-08-20 2006-02-23 Mese John C System and method for automatically establishing handedness settings of mouse-like input device
US20060038774A1 (en) * 2004-08-20 2006-02-23 Mese John C System and method for automatically establishing handedness settings of embedded input device
US7609178B2 (en) * 2006-04-20 2009-10-27 Pressure Profile Systems, Inc. Reconfigurable tactile sensor input device
JP4868347B2 (ja) * 2005-09-12 2012-02-01 国立大学法人 東京大学 触覚センサ用モジュールおよび触覚センサの実装方法
FI20060396A0 (fi) * 2006-04-25 2006-04-25 Teknillinen Korkeakoulu Tasopinta ja siihen integroitu pinta kuten näyttöpinta
HUP0600488A2 (en) * 2006-06-13 2008-05-28 Mta Mueszaki Fiz Es Anyagtudom Method for producing micromechanical elements can be integrated into cmos technology, carrying monolith si and monolith sio produced by porous si micromanufacturing process
US8130203B2 (en) 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
US8269727B2 (en) 2007-01-03 2012-09-18 Apple Inc. Irregular input identification
US7855718B2 (en) 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US8174503B2 (en) 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US8564555B2 (en) 2009-04-30 2013-10-22 Synaptics Incorporated Operating a touch screen control system according to a plurality of rule sets
GB2496080A (en) * 2010-07-29 2013-05-01 Ultra Scan Corp Device and method of controlling a computer using centroids
DE102010053684A1 (de) * 2010-12-08 2012-06-14 Trw Automotive Electronics & Components Gmbh Verfahren zur Bestimmung einer Position einer Berührung auf einem kapazitiven Sensorfeld
FR2987929B1 (fr) * 2012-03-09 2014-04-11 Digital Art Internat Dispositif pour la diffusion en surface d'images lumineuses a l'echelle du corps humain
KR101288949B1 (ko) * 2012-06-20 2013-07-24 동국대학교 산학협력단 신발 발자국 이미지를 이용한 사용자 인식방법 및 그 장치
KR101436884B1 (ko) * 2012-06-20 2014-09-02 동국대학교 산학협력단 발자국 에너지 이미지를 이용한 사용자 인식방법 및 그 장치
TWI567598B (zh) * 2012-10-03 2017-01-21 鴻海精密工業股份有限公司 觸控感應裝置及方法
FR3023630B1 (fr) * 2014-07-09 2017-12-08 Commissariat Energie Atomique Meuble domestique ou cloison tactile
US9342227B2 (en) * 2014-09-02 2016-05-17 Microsoft Technology Licensing, Llc Semantic card view
JP7014071B2 (ja) * 2018-07-12 2022-02-01 トヨタ自動車株式会社 クラッチの断接装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4716542A (en) * 1985-09-26 1987-12-29 Timberline Software Corporation Method and apparatus for single source entry of analog and digital data into a computer
JPH03166618A (ja) * 1989-10-13 1991-07-18 Microslate Inc タッチ形ディスプレイ上に模擬キーボードを表示する方法及び装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4107775A (en) * 1976-03-16 1978-08-15 Novar Electronics Corporation Human body comparison using driving point parameters
JPS5487251A (en) * 1977-12-23 1979-07-11 Toshiba Corp Personal discriminator
GB2033632B (en) * 1978-09-22 1982-07-21 Secr Defence Touch-sensitive switch units
US4236082A (en) * 1979-01-29 1980-11-25 Palmguard, Inc. Method and apparatus for recording image details of the palm of a hand
US4481815A (en) * 1982-12-23 1984-11-13 Overton Kenneth J Tactile sensor
US4526043A (en) * 1983-05-23 1985-07-02 At&T Bell Laboratories Conformable tactile sensor
JPS6029135A (ja) * 1983-07-25 1985-02-14 三菱電機株式会社 個人識別装置
US4640137A (en) * 1985-05-31 1987-02-03 Lord Corporation Tactile sensor
US4857916A (en) * 1987-02-26 1989-08-15 Bellin Robert W System and method for identifying an individual utilizing grasping pressures
US4855923A (en) * 1988-01-06 1989-08-08 Xerox Corporation Parts assembly using signature analysis
US5025476A (en) * 1988-10-31 1991-06-18 Nathaniel Gould Diagnostics, Inc. Redotopography apparatus and method using moire fringe analysis to measure foot shapes
JPH1178836A (ja) * 1997-09-02 1999-03-23 Toyota Motor Corp 四輪駆動車の駆動力制御装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4716542A (en) * 1985-09-26 1987-12-29 Timberline Software Corporation Method and apparatus for single source entry of analog and digital data into a computer
JPH03166618A (ja) * 1989-10-13 1991-07-18 Microslate Inc タッチ形ディスプレイ上に模擬キーボードを表示する方法及び装置

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9448658B2 (en) 1998-01-26 2016-09-20 Apple Inc. Resting contacts
US9348452B2 (en) 1998-01-26 2016-05-24 Apple Inc. Writing using a touch sensor
JP2007184007A (ja) * 1998-01-26 2007-07-19 Wayne Westerman 手操作入力を統合する方法
JP2007184006A (ja) * 1998-01-26 2007-07-19 Wayne Westerman 手操作入力を統合する方法
JP2007184008A (ja) * 1998-01-26 2007-07-19 Wayne Westerman 手操作入力を統合する方法
JP2007193840A (ja) * 1998-01-26 2007-08-02 Wayne Westerman 手操作入力を統合する方法
JP2007226820A (ja) * 1998-01-26 2007-09-06 Wayne Westerman マルチタッチ表面装置
US9626032B2 (en) 1998-01-26 2017-04-18 Apple Inc. Sensor arrangement for use with a touch sensor
US9298310B2 (en) 1998-01-26 2016-03-29 Apple Inc. Touch sensor contact information
US9552100B2 (en) 1998-01-26 2017-01-24 Apple Inc. Touch sensing with mobile sensors
US9329717B2 (en) 1998-01-26 2016-05-03 Apple Inc. Touch sensing with mobile sensors
US9804701B2 (en) 1998-01-26 2017-10-31 Apple Inc. Contact tracking and identification module for touch sensing
JP2012099161A (ja) * 1998-01-26 2012-05-24 Wayne Westerman 手操作入力を統合する方法
US9383855B2 (en) 1998-01-26 2016-07-05 Apple Inc. Identifying contacts on a touch surface
US9342180B2 (en) 1998-01-26 2016-05-17 Apple Inc. Contact tracking and identification module for touch sensing
JP2012113761A (ja) * 1998-01-26 2012-06-14 Wayne Westerman 手操作入力を統合する方法
US8866752B2 (en) 1998-01-26 2014-10-21 Apple Inc. Contact tracking and identification module for touch sensing
US8902175B2 (en) 1998-01-26 2014-12-02 Apple Inc. Contact tracking and identification module for touch sensing
US9001068B2 (en) 1998-01-26 2015-04-07 Apple Inc. Touch sensor contact information
US9098142B2 (en) 1998-01-26 2015-08-04 Apple Inc. Sensor arrangement for use with a touch sensor that identifies hand parts
JP2015167028A (ja) * 1998-01-26 2015-09-24 ウェスターマン,ウェイン 手操作入力を統合する方法および装置
US7461356B2 (en) 2002-06-03 2008-12-02 Fuji Xerox Co., Ltd. Function control unit and method thereof
US7433179B2 (en) 2004-08-10 2008-10-07 Kabushiki Kaisha Toshiba Electronic apparatus having universal human interface
JP2006053678A (ja) * 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
JPWO2006104132A1 (ja) * 2005-03-28 2008-09-11 松下電器産業株式会社 ユーザインタフェイスシステム
JP4702959B2 (ja) * 2005-03-28 2011-06-15 パナソニック株式会社 ユーザインタフェイスシステム
US7810050B2 (en) 2005-03-28 2010-10-05 Panasonic Corporation User interface system
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム
JP2010039558A (ja) * 2008-07-31 2010-02-18 Canon Inc 情報処理装置及びその制御方法
JP2011022997A (ja) * 2009-07-14 2011-02-03 Cywee Group Ltd 動作に基づいて入力イベントを生成する動作入力システム及び操作方法
WO2015181979A1 (ja) * 2014-05-30 2015-12-03 楽天株式会社 入力装置、入力方法およびプログラム

Also Published As

Publication number Publication date
JPH0969021A (ja) 1997-03-11
EP0546704A2 (en) 1993-06-16
CA2203297A1 (en) 1993-06-14
CA2078607A1 (en) 1993-06-14
US5479528A (en) 1995-12-26
EP0546704A3 (en) 1993-08-25

Similar Documents

Publication Publication Date Title
JPH0683523A (ja) ワークサーフェスシステム及びその実現方法、及びセンサ利用方法及び人物識別方法
KR100327209B1 (ko) 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법
US10514805B2 (en) Method and apparatus for data entry input
KR102264130B1 (ko) 터치 센서 상의 입력을 검출하고 특징화하기 위한 시스템
US6654001B1 (en) Hand-movement-sensing input device
EP2359224B1 (en) Generating gestures tailored to a hand resting on a surface
CN101387927B (zh) 触控面板的触控检测方法
US5825352A (en) Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
TWI291161B (en) Automatic switching for a dual mode digitizer
CN101198925B (zh) 用于触敏输入设备的手势
EP2717120B1 (en) Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US20030048280A1 (en) Interactive environment using computer vision and touchscreens
KR101352994B1 (ko) 적응형 온 스크린 키보드 제공 장치 및 그 제공 방법
US6292173B1 (en) Touchpad computer input system and method
US20020122026A1 (en) Fingerprint sensor and position controller
US8816964B2 (en) Sensor-augmented, gesture-enabled keyboard and associated apparatus and computer-readable storage medium
EP2389622A1 (en) Device and method for monitoring an object's behavior
US6937226B2 (en) Input device and pointer control method
JPH0683512A (ja) コマンド及びデータ入力方法及び入力装置
EP0777875A1 (en) Object position detector with edge motion feature
KR20150010702A (ko) 제스처 인식 디바이스들 및 방법들
JP2011513873A (ja) 接触センサ装置及びその装置のポインティング座標決定方法
US20130222315A1 (en) Smart touchscreen key activation detection
US20120274567A1 (en) Touch-enabled input device
KR20160097410A (ko) 동작 인식을 통한 비접촉식 입력 인터페이스 제공 방법 및 그 장치