JP2007128497A - 表示装置および表示方法 - Google Patents

表示装置および表示方法 Download PDF

Info

Publication number
JP2007128497A
JP2007128497A JP2006246875A JP2006246875A JP2007128497A JP 2007128497 A JP2007128497 A JP 2007128497A JP 2006246875 A JP2006246875 A JP 2006246875A JP 2006246875 A JP2006246875 A JP 2006246875A JP 2007128497 A JP2007128497 A JP 2007128497A
Authority
JP
Japan
Prior art keywords
display
image
unit
light
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006246875A
Other languages
English (en)
Inventor
Kazunori Yamaguchi
和範 山口
Tsutomu Harada
勉 原田
Mitsuru Tateuchi
満 建内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006246875A priority Critical patent/JP2007128497A/ja
Priority to KR1020060097261A priority patent/KR101454210B1/ko
Priority to US11/537,825 priority patent/US8704804B2/en
Priority to EP10179622A priority patent/EP2261782A1/en
Priority to EP06121831.9A priority patent/EP1772800B1/en
Publication of JP2007128497A publication Critical patent/JP2007128497A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

【課題】表示画面上の複数の接触箇所を検出し、その位置や大きさなどを連続的に検出することにより、高度な操作を可能にする表示装置を提供する。
【解決手段】表示/受光ディスプレイパネル部120として、マトリクス状に配置された複数の表示素子で表示を行い、複数の表示素子のそれぞれに近接して配置された受光素子が表示面に接触又は近接した物体の画像を取得できる表示装置を用いて、受光信号レシーバ113が取得した受光信号を基に受光画像生成部114が受光画像を生成し、画像処理演算部115で接触部の形状や位置の検出を行う。指示判定部116が、画像処理演算部115にて検出された接触部の形状や位置に対応した指示を判断し、その指示に応じて所定の処理を行うようにした。
【選択図】図3

Description

本発明は、例えば、液晶表示ディスプレイやEL(electro−luminescence )ディスプレイに適用して好適な表示装置及び表示方法に関し、特にディスプレイを通じた操作を効率的、効果的に行う技術に関する。
従来、テレビジョン受像機などの表示装置の表示画面上に、その画面に触れることで操作が可能なタッチパネルを構成させる場合、表示装置とは別体のタッチパネルを表示画面上に重ねる構成としてあった。
別体のタッチパネルを使用する構成としては、例えば、画面の上に透明で薄い入力検出装置を貼り付けたものがある。ディスプレイの表面に接触したことを検知する手段としては、圧力の変化を感知する抵抗膜式や、人体との接触で変化する静電気による電気信号を感知する静電容量式などのタッチパネルが実用化されている。しかし、これらのタッチパネルは、基本的に表面の一点のみの位置検出が可能であり、複数点の同時検出はできない。そのためタッチパネルを用いた操作入力装置においては、接触した1点の位置を基に使用者からの指示を判別するか、あるいは一点の位置の変化を基に指示を判別する方法が一般的であった。
特許文献1には、表示画面上の2 次元方向の指示位置の移動入力を受け付け、移動開始から移動終了までの指示位置の座標変化に基づいて使用者からの指示内容を判別し、指示内容に応じた処理を行う操作入力受付装置についての開示がある。
特開2004−336597号公報
ディスプレイを通した操作を分かりやすく、効率的に行うためには、ディスプレイの表面に直接触れて指示する方法が有効であるが、従来のタッチパネルでは表示画面上の接触箇所を1点しか認識できないため、操作方法が限定され、画面上で実行できる処理に限界があった。
これらの従来のタッチパネルの不都合を解決するために、パネルを分割して複数点を検出できるようにしたタッチパネルも考案されているが、各々限られた範囲の中で1点ずつを検出するものであり、画面上の自由な位置で複数の点を検知する事は難しい。また、赤外線式などの検出部を複数備えることで、複数点の位置検出ができる接触位置検出装置も考案されているが、画面外部に検出部を設置する必要があるなど、装置が大型化、複雑化するという問題があった。
本発明は、表示画面上の複数の接触箇所を検出し、その位置や大きさなどを連続的に検出することにより、高度な操作を可能にする表示装置を提供することを目的とする。
上記問題を解決するために、本発明は、マトリクス状に配置された複数の表示素子で表示を行い、複数の表示素子のそれぞれに近接して配置された受光素子が出力する受光信号に基づいて、表示面に接触又は近接した物体の画像を取得できる表示装置を用い、ディスプレイの表示面に接触又は近接した物体の画像を用いて、接触あるいは近接する複数の物体の位置や大きさを連続的に検出し、その変化に応じて所定の処理を行うようにしたものである。
このようにしたことで、複数箇所の接触位置又は近接する複数の物体の位置の変化に応じて、操作者の指示を判断させることにより、各種処理を実行することが可能になる。
本発明によると、表示画面上の複数箇所の接触位置又は近接位置や、接触又は近接する複数の物体の大きさや位置の変化に応じて、各種処理が可能になるため、表示画面を通した操作の種類が増え、高度な操作が可能になる。
以下、本発明の一実施の形態を、図1乃至図44を参照して説明する。
図1は、本発明が適用される情報処理システムの機能的構成例を示す機能ブロック図である。
図1の情報処理システムは、本発明が適用される画像処理装置としての画像入出力装置1と、情報処理装置2とから構成されている。
画像入出力装置1は、自身が生成した画像データや、情報処理装置2から入力された画像データを、操作者に認識可能な画像として表示することができる。また、画像入出力装置1は、所定の画像データを取得するためのコマンド等の各種情報を、情報処理装置2に適宜出力することもできる。
詳細には、画像入出力装置1は、表示画像生成部11乃至コマンド認識/発行部17を含むように構成されている。
表示画像生成部11は、表示部13において動画像や静止画像を表示するための画像データを生成し、表示制御部12に提供する。なお、以下、動画像と静止画像とを区別する必要がない場合、それらをまとめて単に画像と称する。
また、表示画像生成部11は、必要に応じて、情報処理装置2と各種情報の授受を行う。なお、授受される情報の具体例については、後述する。
表示制御部12は、表示画像生成部11からの画像データを、表示部13の画面に表示できる形式およびタイミングの形態に変換し、表示部13に提供する。表示部13は、表示制御部12からの画像データを、認識可能な画像として画面に表示する。これにより、操作者は画像を視認できるようになる。
受光部14は、複数の受光素子がマトリクス状に配置されて構成されている。複数の受光素子のそれぞれからは、受光量に基づく信号(以下、受光信号と称する)が出力され、受光画像生成部15にそれぞれ提供される。
受光部14は、例えば、表示部13と同一平面上又は重ね合わさられて配置されている。従って、受光部14は、表示部13が画像を表示している最中にその表示部13に対して入射された光を、受光することになる。
換言すると、操作者は、表示部13に表示された画像を観察しつつ、光による指示を表示部13に対して行うことができる。このとき、その光が受光部14の各受光素子に入射され、その指示に応じたレベルをそれぞれ有する受光信号が各受光素子から出力されることになる。ここに、「光による指示」とは、受光部14の複数の受光素子のうちの少なくとも一部の入射光の光量を変化させることをいう。この場合、入射光の光源は特に限定されず、また、入射光の光量の変化量、変化率、変化方向(明→暗の方向、または暗→明の方向)等も特に限定されない。例えば、外部の光源からの光を受光部14に照射することによる指示(光量を増加させる指示)、外部の光源からの光を遮って影として与える指示(光量を減少させる指示)、或いは、光源として、外部の光源ではなく、表示部13からの照射光の反射光を用いる指示等の様々な指示を、「光による指示」として採用することができる。
受光画像生成部15は、受光部14の複数の受光素子のそれぞれから出力された各受光信号に基づいて、1枚の静止画像の画像データ(以下、受光画像データと称し、それに対応する静止画像を受光画像と称する)を生成し、オブジェクト検出部16に提供する。より正確には、受光部14の各受光素子からの受光信号は順次出力されてくるので、受光画像生成部15においては、複数の受光画像データが連続的に生成され、生成された順番で1枚ずつオブジェクト検出部16に順次提供される。即ち、受光画像生成部15は、1つの受光画像を例えばフィールドまたはフレームとして、複数のフィールドまたはフレームから構成される動画像のストリームデータを生成して、オブジェクト検出部16に提供する。換言すると、以下、単に受光画像と称している場合、それは、1つのフレームまたはフィールドを意味する。
オブジェクト検出部16は、受光画像生成部15からの受光画像データからオブジェクトを1以上検出する。
ここに、オブジェクトとは、受光画像内の領域であって、所定の規則に従って形成される一領域をいう。例えば、受光画像が複数の画素から構成されているとすると、所定の規則に従って連結される1以上の画素の集合体(以下、連結要素と称する)が、オブジェクトの一例である。
オブジェクト検出部16は、さらに、各オブジェクトに関する各種情報(以下、これらの各種情報をまとめてオブジェクト情報と称する)をそれぞれ生成する。例えば、オブジェクトが持つ様々な属性情報、より具体的には例えば、その重心の座標、その中心の座標、その面積、その形状等が、オブジェクト情報としてオブジェクト検出部16により生成される。
オブジェクト検出部16により生成された各オブジェクト情報は、コマンド認識/発行部17に提供される。
なお、オブジェクト情報の生成機能は、オブジェクト検出部16が有する必要は特に無く、後述するコマンド認識/発行部17に委譲してもよい。この場合、オブジェクト検出部16が、オブジェクトを検出し、その検出結果をコマンド認識/発行部17に提供する。そして、コマンド認識/発行部17が、その検出結果に基づいて、オブジェクト情報を生成することになる。
いずれにしても、コマンド認識/発行部17は、各オブジェクト情報に基づいて、表示部13に対して操作者が与えた「光による指示」とは如何なるコマンドであったのかを認識し、即ち、操作者が画像入出力装置1に対して与えたコマンドを認識し、そのコマンドを表示画像生成部11に発行する。
なお、コマンド認識/発行部17の詳細例やコマンド例等については、図2を参照して後述する。
このようにしてコマンド認識/発行部17から所定のコマンドが発行されると、表示画像生成部11は、その所定のコマンドに従って表示部13の表示画像を変更すべく、新たな画像データを生成し、表示制御部12に提供する。すると、表示部13の表示画像は、その所定のコマンドに従って更新されることになる。
なお、表示画像生成部11は、表示画像データを自身で生成せずに、コマンド認識/発行部17から発行されたコマンドを、外部の情報処理装置2に提供するようにしてもよい。この場合、情報処理装置2は、得られたコマンドによって表示させる画像データを変更し、即ち新たな画像データを生成し、表示画像生成部11に提供する。表示画像生成部11は、その画像データを表示制御部12に提供する。すると、この場合も、表示部13の表示画像は、そのコマンドに従って更新されることになる。換言すると、画像データの生成機能は、画像入出力装置1が有する必要は特に無く、外部の情報処理装置2に委譲することも可能である。
なお、表示部13の画面表示の状態によっては、ある時だけコマンドの発行が必要になる場合がある。例えば、画面の右端にソフトウエアボタンが出現する場合である。この場合は、コマンド認識/発行部17は、自身でコマンドを認識せずに、オブジェクト情報を表示画像生成部11を介して情報処理装置2に提供し、情報処理装置2側でコマンドを認識させるようにしてもよい。或いは、情報処理装置2または表示画像生成部11が、表示画像内のソフトウエアボタンの座標位置およびその有無を認識し、点線矢印で示されているように、その認識結果をコマンド認識/発行部17に提供し、コマンド定義を新たに追加して、コマンド認識/発行部17がコマンドの発行有無を判断するようにしてもよい。
図2は、図1の画像入出力装置1のうちのコマンド認識/発行部17の詳細な機能的構成例を示している。
図2の例のコマンド認識/発行部17は、検出結果保持部21乃至コマンド発行部27を含むように構成されている。
オブジェクト検出部16から出力された各オブジェクト情報は、検出結果保持部21、時間位置変化型コマンド認識部22、位置関係型コマンド認識部23、形状型コマンド認識部24、および複合型コマンド認識部25のそれぞれに提供される。
コマンド定義保持部26には、所定のオブジェクト情報に基づいて所定のコマンドを判定するための条件が1以上保持されている。
本実施の形態では、判定されるオブジェクト情報の種類に応じて次の4つの型のコマンドが定義されている。
即ち、1つ目の型のコマンドは、オブジェクト情報のうちの、オブジェクトの形状に基づいて判定されるコマンドである。以下、このような1つ目の型のコマンドを、形状型コマンドと称する。
2つ目の型のコマンドは、オブジェクト情報のうち、オブジェクトの座標位置に基づいて判定されるコマンドである。かかる2つ目の型のコマンドには、1つのオブジェクトの座標位置のみに基づいて判定されるコマンドと、複数のオブジェクトの各々の座標位置の関係に基づいて判定されるコマンドとが存在する。以下、このような2つ目の型のコマンドを、位置関係型コマンドと称する。
3つ目の型のコマンドは、オブジェクト情報のうち、オブジェクトの時間位置変化に基づいて判定されるコマンドである。即ち、上述したように、受光画像生成部15においては、時間的に連続して複数の受光画像データが順次生成される。それらに対応する複数の受光画像のうちの時間差がある2以上の受光画像における、同一オブジェクトの座標位置の変化の関係に基づいて判定されるコマンドが、3つ目の型のコマンドである。以下、このような3つ目の型のコマンドを、時間位置変化型コマンドと称する。
4つ目の型のコマンドは、オブジェクト情報のうちの、上述したオブジェクトの形状、オブジェクトの座標位置、および、オブジェクトの時間位置変化のうちの2以上の情報を複合的に用いて判定されるコマンドである。以下、このような4つ目の型のコマンドを、複合型コマンドと称する。
さらに以下、形状型コマンド、位置関係型コマンド、時間位置変化型コマンド、および複合型コマンドのそれぞれの詳細について、その順番で個別に説明していく。
はじめに、形状型コマンドについて説明する。
1つの形状型コマンドに対してオブジェクトの1以上の形状が対応付けられており、この対応関係が条件として、コマンド定義保持部26に保持されている。そこで、形状型コマンド認識部24は、オブジェクト検出部16から提供されたオブジェクト情報のうちのオブジェクトの形状を取得し、その形状と、コマンド定義保持部26に保持されている各種条件とを比較する。そして、その形状と合致する条件がコマンド定義保持部26に保持されている場合には、形状型コマンド認識部24は、その条件により特定される形状型コマンド、即ち、その形状に対応付けられた形状型コマンドが、操作者により指示されたコマンドであると認識し、その認識結果をコマンド発行部27に通知する。
ここで、オブジェクトの形状とは、丸や四角等のオブジェクトのかたちの他、オブジェクトの所定部分の長さや幅、オブジェクトの大きさ(面積)等、或いは、それらの1以上の組合せを含む広義な概念である。
なお、オブジェクトの形状としてオブジェクトの面積が採用され、かかるオブジェクトの面積と対応付けられた形状型コマンドが採用された場合の具体例について、図40等を用いて後述する。
次に、位置関係型コマンドについて説明する。
1つの位置関係型コマンドに対して、1つのオブジェクトの所定の座標位置、または、複数のオブジェクトの各々の座標位置の所定の関係が対応付けられており、この対応関係が条件として、コマンド定義保持部26に保持されている。そこで、位置関係型コマンド認識部23は、オブジェクト検出部16から提供されたオブジェクト情報のうちの各オブジェクトの各座標位置を取得し、座標位置単体や2以上の座標位置の関係と、コマンド定義保持部26に保持されている各種条件とをそれぞれ比較する。そして、各座標位置のうちの所定の1つの位置、または、2以上の座標位置の所定の関係と合致する条件がコマンド定義保持部26に保持されている場合には、位置関係型コマンド認識部23は、その条件により特定される位置関係型コマンド、即ち、各座標位置のうちの所定の1つの位置、または、2以上の座標位置の所定の関係に対応付けられた位置関係型コマンドが、操作者により指示されたコマンドであると認識し、その認識結果をコマンド発行部27に通知する。
なお、オブジェクトの座標位置は、受光画像内におけるオブジェクトを一意に特定できる位置であれば特に限定されない。例えば、オブジェクトの重心、中心、所定の端点等の各座標位置を、オブジェクトの座標位置として採用できる。なお、受光画像生成部15により生成される受光画像が複数の画素からなる場合、受光画像における所定の画素位置が、オブジェクトの座標位置として採用される。
また、複数のオブジェクトの各々の座標位置の所定の関係とは、各々の座標位置が示す各点の絶対的な位置関係、受光画像内における各点の相対的な位置関係、それらを組み合わせた関係等を含む広義な概念である。
前者の関係、即ち、各点の絶対的な位置関係としては、例えば、各点の絶対距離に基づく関係や、各点を結んで形成される形状に基づく関係を採用できる。なお、各点の絶対距離に基づく関係が採用され、かかる関係と対応付けられた位置関係型コマンドが採用された場合の具体例については、図38を用いて後述する。また、各点を結んで形成される形状に基づく関係として、例えば、各点がほぼ直線状に並んでいる(縦または横に並んでいる)という関係が採用され、かかる関係と対応付けられた位置関係型コマンドが採用された場合の具体例については、図8、図22等を用いて後述する。
一方、後者の関係、即ち、各点の相対的な位置関係としては、例えば、受光画像を基準とした各点の配置関係、具体的には例えば、各点の全てが受光画像の下側または上側にあるという関係を採用できる。かかる関係と対応付けられた位置関係型コマンドが採用された場合の具体例については、図22等を用いて後述する。なお、より正確に言えば、図22の例は、3点がほぼ横に並んでいるとう前者の関係(ステップS114参照)と、ほぼ横に並んでいるその3点が画面(静止画像)の上側または下側にあるという後者の関係(ステップS116参照)との組み合わせが採用され、かかる組合せの関係と対応付けられた「表示画面を所定の方向にスクロールさせる」という位置関係型コマンドが採用された場合の例である。
次に、時間位置変化型コマンドについて説明する。
1つの時間位置関係型コマンドに対して、オブジェクトの所定の時間位置変化が対応付けられており、この対応関係が条件として、コマンド定義保持部26に保持されている。そこで、時間位置変化型コマンド認識部22は、オブジェクト検出部16から提供されたオブジェクト情報のうちのオブジェクトの座標位置を取得し、また、検出結果保持部21に保持されている同一オブジェクトの過去の座標位置を1以上取得し、それらの座標位置の時間位置変化を認識し、その変化と、コマンド定義保持部26に保持されている各種条件とを比較する。そして、その変化と合致する条件がコマンド定義保持部26に保持されている場合には、時間位置変化型コマンド認識部22は、その条件により特定される時間位置変化型コマンド、即ち、その時間位置変化に対応付けられた時間位置変化型コマンドが、操作者により指示されたコマンドであると認識し、その認識結果をコマンド発行部27に通知する。
なお、オブジェクトの座標位置は、位置関係型コマンド認識部23で利用される情報と基本的に同様のものを採用できる。
また、オブジェクト検出部16から提供されるオブジェクトの座標位置とは、動画像を構成する複数の受光画像(フレームまたはフィールド)のうちの、処理対象として注目すべき受光画像(以下、注目受光画像と称する)における座標位置をいう。一方、検出結果保持部21から提供されるオブジェクトの過去の座標位置とは、注目受光画像より過去に処理された受光画像における座標位置をいう。
即ち、検出結果保持部21においては、受光画像生成部15により1枚の受光画像データが生成され、それからオブジェクト情報がオブジェクト検出部16により生成される度に、このオブジェクト情報が更新されていく。これにより、時間位置変化型コマンド認識部22においては、注目受光画像におけるオブジェクトの座標位置(最新のデータ)と、例えば注目受光画像の1つ前の受光画像における同一オブジェクトの座標位置(1つ前のデータ)との比較が可能になる。もちろん、検出結果保持部21は、1つ前の状態のみを残しておくだけでなく、複数枚の過去の受光画像データ毎のオブジェクト情報をそれぞれ保持しておくこともでき、この場合には、過去一定時間との間での比較も可能になる。
また、時間位置変化型コマンド認識部22が認識するオブジェクトの時間位置変化は、時間的変化を表現可能な情報であれば特に限定されず、オブジェクトの移動方向、移動量、それらを組み合わせた移動ベクトル、移動速度等を採用できる。
なお、時間位置変化型コマンドが採用された場合の具体例については、図24を用いて後述する。なお、より正確に言えば、図24の例は、3点がほぼ円周状に並んでいるとう位置関係(ステップS120)と、その円周が拡大または縮小方向に移動しているという時間位置変化(ステップS123参照)との組み合わせが採用され、かかる組合せと対応付けられた「表示画面を拡大/縮小させる」という複合型コマンドが採用された場合の例である。
次に、複合型コマンドについて説明する。
1つの複合型コマンドに対しては、オブジェクトの形状、座標位置、時間位置変化等のうちの2以上が複合されたものが条件として対応付けられており、かかる条件が、コマンド定義保持部26に保持されている。そこで、複合型コマンド認識部25は、オブジェクト検出部16から提供された各種オブジェクト情報を取得し、また必要に応じて、検出結果保持部21に保持されている過去のオブジェクト情報(座標位置等)を取得し、それらを用いた各種組合せと、コマンド定義保持部26に保持されている各種条件とを比較する。そして、所定の組合せと合致する条件がコマンド定義保持部26に保持されている場合には、複合型コマンド認識部25は、その条件により特定される複合型コマンドが、操作者により指示されたコマンドであると認識し、その認識結果をコマンド発行部27に通知する。
コマンド定義保持部26は、上述した様に、オブジェクト検出部16から提供されたオブジェクト情報等が、所定のコマンドに対応付けられているか否かを判断するための定義(条件)を保持している。コマンド定義保持部26は、あらかじめ設定されている定義だけでなく、時間位置変化型コマンド認識部22乃至複合型コマンド認識部25からコマンド定義保持部26に引かれた各矢印で示されるように、操作者の操作によって発生したオブジェクト情報に基づく新たな定義を保持することも可能である。また、上述したように、表示部13の画面表示の状態との比較が必要になる場合、例えば、画面の右端にソフトウエアボタンが出現するような場合、表示画像生成部11からコマンド定義保持部26に引かれた矢印で示されるように、コマンド定義保持部26は、表示画像生成部11または情報処理装置2から新たな定義を取得して、保持することもできる。
コマンド発行部27は、時間位置変化型コマンド認識部22乃至複合型コマンド認識部25のうちの何れかにより認識されたコマンドを、表示画像生成部11に対して発行する。
なお、複合型コマンド認識部25の機能を、コマンド発行部27に委譲することも可能である。この場合、コマンド発行部27は、時間位置変化型コマンド認識部22乃至形状型コマンド認識部24の各認識結果を総合的に判断して、どのようなコマンドが操作者から発せられたかを最終的に判断して、そのコマンドを表示画像生成部11に対して発行する。特に、オブジェクトの形状、位置関係、および時間位置変化のうちの2以上の条件が重なりあった状態が発生する場合、コマンド発行部27は、その意味を判断し、最終的なコマンド、即ち、上述した複合型コマンドを発行する役目を負う。
以上説明した図1または図2に示される1つの機能ブロックは、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、それらの組合せで構成してもよい。また、図1または図2に示される機能ブロックは、特に図示しないが、他の機能ブロックと結合した機能ブロックとして構成してもよいし、分割して複数の小機能ブロックとして構成してもよい。
以下の図3乃至図43の例(以下、本例と称する)は、図2の機能的構成を有する画像入出力装置1を、液晶表示ディスプレイとして構成された表示装置に適用した例であり、その液晶表示ディスプレイを構成する各発光素子に隣接して受光素子を配置して、発光(表示)と受光(読み取り)とを並行して行えるように構成した例である。ここでは、発光(表示)と受光(読み取り)を並行して行える本例のディスプレイを、表示/受光ディスプレイと称する。即ち、図1の表示部13と受光部14とを組み合わせたものの一例が、本例の表示/受光ディスプレイである。また、後述するように本例の表示/受光ディスプレイは、画面を触れた状態である接触だけでなく、画面に近接した物体についても検出が可能であり、以下の説明で接触の検出と述べた場合には、特に説明がある場合を除いて、近接の検出をも含むようにしてある。
図3は、本例の表示装置の構成例を示すブロック図である。本例では、表示装置の入出力の処理を行う入出力処理部101と、画面上に表示した文書などの情報を編集するドキュメント処理部102から構成する場合について説明する。
表示信号生成部110は、例えば、ドキュメント処理部102から要求されたドキュメントや、その他のアプリケーションから要求された画像などの情報を表示するための表示データを生成し、その表示データを信号制御部111に送る。信号制御部111は、表示データを表示信号ドライバ112に送り、表示信号ドライバ112は表示/受光ディスプレイパネル部120で画像を表示させるための駆動を行う。
表示/受光ディスプレイパネル部120(表示/受光パネルと呼ぶ)は、液晶表示ディスプレイとして構成し、ガラス基板などの透明な基板上に透明電極などを配置して、表示エリア(センサエリア)121(図4参照)に、複数の画素(表示素子)をマトリクス状に形成したディスプレイであり、背面にバックライト(図示せず)を配置してある。本例のバックライトは、例えば複数の発光ダイオードが配列されたものを使用してあり、比較的高速でバックライトの点灯のオン・オフ制御ができるようにしてある。バックライトの点灯のオン・オフ制御は、表示信号ドライバ112での表示駆動に連動して行われる。表示信号ドライバ112による液晶表示ディスプレイの駆動としては、ディスプレイを構成する画素電極に、駆動用の電圧信号を印加することで行われる。
表示/受光パネル部120は、表示素子とは別に複数の受光素子を配置してある。即ち、例えば、表示エリア(センサエリア)121の各表示画素に隣接して、受光素子がマトリクス状に配置してあり、この受光素子への受光光量に対応して蓄積した信号電荷を、受光信号レシーバ113からの駆動で読み出す構成としてある。
信号制御部111は、表示信号ドライバ112へ表示データを送るとともに、上記表示及び受光の走査ラインの制御を行う表示側スキャナ127と受光側スキャナ128に対して駆動を指示する。
受光信号レシーバ113は、表示/受光パネル部120に入力された光を受光信号として読み出し、受光画像生成部114に送る。受光画像生成部114は、受光信号を基に表示画面に接触又は近接する物体の状態などを画像データとして生成する。受光画像生成部114には記憶装置(フレームメモリ(図示せず))があり、1フレーム毎の画像データを記憶する。この画像データは画像処理演算部115にて画像処理され、接触又は近接する物体の形状や大きさ、位置の変化などの判定を行う。この判定を行う際には、1フレーム前の判定結果との差分を判断して、接触状態の変化についても検出するようにしてある。また、本例においては、複数箇所の同時接触についても判定するようにしてある。画像処理演算部115での判定結果は、指示判定部116に送られ、その判定結果に基づいてどのように指示されたかを判断し、表示信号生成部110に送られる。表示信号生成部110では、実行中のアプリケーションに応じた所定の処理を行う。具体的な処理状態の例については後述する。
即ち、入出力処理部101が、図1の画像入出力装置1の一例である。具体的には、表示信号生成部110が表示画像生成部11の一例であり、信号制御部111と表示信号ドライバ112とが表示制御部12の一例であり、表示/受光パネル部120(表示側スキャナ127や受光側スキャナ128を含めてもよい)が表示部13と受光部14との組合せの一例であり、受光信号レシーバ113と受光画像生成部114が受光画像生成部15の一例であり、画像処理演算部115が主にオブジェクト検出部16の一例であり、指示判定部116が主にコマンド認識/発行部17の一例である。なお、「主に」と記述したのは、コマンド認識/発行部17の一部の機能を、画像処理演算部115が有している場合もあるからである。
次に、図4を参照して、本例の表示/受光パネル部120のドライバの配置例を説明する。図3に示したように、表示/受光パネル部120は、画面表示のための表示信号ドライバ112と受光のための受光信号レシーバ113を通して画像データの発光(表示)と受光(読み取り)を行うが、実際の構成としては、どちらも2次元の画像に対応するために水平方向と垂直方向の2組の装置で構成する。
表示/受光パネル部120は、図4に示すように、中央に透明な表示エリア(センサエリア)121が配置され、表示エリア121の4つの端面に、表示用水平ドライバ122、表示用垂直ドライバ123、センサ用水平レシーバ125、センサ用垂直レシーバ124を配置してある。表示用水平ドライバ122と表示用垂直ドライバ123には、表示用のデータとして、表示信号と制御クロックとが供給されて、表示エリア121にマトリクス状に配置された表示画素の駆動が行われる。センサ用水平レシーバ125とセンサ用垂直レシーバ124には、読み出し用のクロックが供給されて、そのクロックに同期して読み出された受光信号を、受光信号線を介して受光画像生成部114に供給する。
図5は、表示エリア121に配置された画素の1つの構成を示した図である。1つの画素131が備える表示のための構成としては、ここでは水平方向にゲート電極131hが配置してあり、垂直方向にドレイン電極131iが配置してあり、両電極の交点にスイッチング素子131aが配置してあり、そのスイッチング素子131aと画素電極131bが接続してある。スイッチング素子131aは、ゲート電極131hを介して得られる信号によりオン・オフが制御され、ドレイン電極131iを介して供給される信号により、画素電極131bでの表示状態が設定される。
そして、画素電極131bに隣接した位置に、受光センサ(受光素子)131cが配置してあり、電源電圧VDDが供給される。この受光センサ(受光素子)131cには、リセットスイッチ131dとコンデンサ131eが接続してあり、リセットスイッチ131dでリセットされた後、コンデンサ131eで受光量に対応した電荷を蓄積するようにしてある。その蓄積された電荷に比例した電圧が、読み出しスイッチ131gがオンとなるタイミングで、バッファアンプ131fを介して、信号出力用電極131jに供給され、外部に出力される。リセットスイッチ131dのオン・オフは、リセット電極131kに得られる信号により制御され、読み出しスイッチ131gのオン・オフは、読出し制御電極131mに得られる信号により制御される。
図6は、画像の表示(発光)と受光とが、各フレーム期間に行われる状態を示した図である。図6の横軸は時間であり、縦軸は表示や受光を行う走査ライン(水平ライン)の位置を示してあり、表示信号の書き換えや受光信号の読出しは、ここでは1画面の最下段のラインから順に走査ラインを上に変化させて、最後に最上段のライン(1番目のライン)の走査を行う構成としてある。図6では、任意のフレーム位置である、nフレーム目の処理と、そのnフレームの次のフレームであるn+1フレーム目の処理を示してあり、同様の処理が継続して行われる。
ここでは、1フレーム期間は、例えば1 /60秒としてあり、図6に示すように、その1フレーム期間を前半と後半に2等分して分けてあり、前半はバックライトを点灯させる期間とし、後半はバックライトを消灯させる期間としてある。そして、受光信号の読出しについては、点灯期間と消灯期間のそれぞれで行うようにしてある。
さらに、バックライトオンの期間と、バックライトオフの期間とを、それぞれ2等分してある。nフレーム目では、表示のための画素電極の駆動ラインG1は、バックライトオンの期間の前半に、画面の下半分の走査を行って、そのラインの表示状態を、そのフレーム期間の画像に書き換えさせ、バックライトオンの期間の後半では、走査ラインを変化させずに休止期間としてある。バックライトオフの期間の前半には、画面の上半分の走査を行って、そのラインの表示状態を、そのフレーム期間の画像に書き換えさせ、バックライトオフの期間の後半では、走査ラインを変化させずに休止期間としてある。
受光処理については、nフレーム目では、バックライトオンの期間の前半に、全てのラインの受光信号を順にリセットさせる処理RS1を行い、バックライトオンの期間の後半に、全てのラインの受光信号を順に読み出す処理RD1を行い、それぞれのセンサで一定期間蓄積した受光信号を読み出す。同様に、バックライトオフの期間の前半に、全てのラインの受光信号を順にリセットさせる処理RS2を行い、バックライトオフの期間の後半に、全てのラインの受光信号を順に読み出す処理RD2を行い、それぞれのセンサで一定期間蓄積した受光信号を読み出す。
このようにして、1フレーム当り、バックライトがオンでいわゆる自発光時の受光信号読出しと、バックライトがオフで消灯時の受光信号読出しの2回の読出しが行われる。その1フレームの2回の読出し信号は、受光画像生成部114内のフレームメモリ(図示せず)に入力されて、各画素位置の信号ごとに差分が検出され、その差分の信号が、ノイズ除去された差分受光信号として、画像処理演算部115に送られる。
図7は、本例の表示装置を指で操作する場合の例を示した図である。ここでは、表示装置として例えばユーザ(操作者)が携帯可能な小型・薄型の表示装置130として構成してあり、表示/受光パネル部120の表示エリア121の表示面を操作者が指f1、f2、f3などで触れることで、操作ができる構成としてある。このように、表示/受光パネル部120の表示エリア121の表面に、指などの反射物が触れた、あるいは近づいた場合、パネル部に表示されている映像によって反射物が照射され、反射した光が再び表示/受光パネル部120に戻り、これを受光することで反射物の形状や位置を検出する。図7の上部に示したように表示エリア121の画面右端を操作者が指f1、f2、f3の3本で触れた場合、図7の下部に示したような受光画像が得られる。この受光画像では、3つの接触部141、142、143が検出される。なお、より正確には、図7の下部の受光画像とは、図9乃至図12を参照して後述する画像二値化処理後の画像(図12参照)である。
図7に示すような受光画像から接触部の形状や位置を検出する処理は、画像処理演算部115で行われる。そして、画像処理演算部115は、検出した接触部の形状や位置の情報を指示判定部116に送り、指示判定部116にて検出された複数の接触部の形状や位置に対応した指示を判断し、その指示を表示信号生成部110に送る。
図8は、画像処理演算部115と指示判定部116における、受光画像から操作指示を判断する処理の例を示すフローチャートである。本フローチャートを参照して、検出した複数の接触部の位置関係を基に操作者からの指示を判断する処理について説明する。ここでは、予め接触部と操作指示との対応を「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」と定義しておいた場合について説明する。
換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、位置関係型コマンド認識部23、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図8のフローチャートに示されている。即ち、「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義がコマンド定義保持部26に保持されており、位置関係型コマンド認識部23がかかる定義に基づいて、「表示画像を左方向にスクロールさせる」または「表示画像を右方向にスクロールさせる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図8のフローチャートに示されている。
まず、接触部を検出するための面積の閾値Aを設定する(ステップS101)。閾値Aは、画面上に操作者の指などが接触しているか否かを判断できるように設定するもので、指や、操作指示用のペンなど、操作するものに合わせてその面積を設定する。次に、受光画像生成部114によって受光信号から変換された受光画像データ(以下、適宜画像データと略記する)を取得し(ステップS102 )、第1の画像処理として接触部の面積を計算する(ステップS103)。なお、ステップS103の処理の詳細例については、図9乃至図16を参照して後述する。面積の計算の結果、画像データ中に面積の閾値A以上の点(図8でいう点とは、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等で後述する1つの連結成分を意味する)があるかを判断し(ステップS104)、点があれば次の処理に進み、なければ次の画像データを取得する。面積A以上の点がある場合、その点が3点か否かを判断し(ステップS105)、3点あれば次の処理に進み、なければ別処理へ進む(ステップS106)。
次に、第2の画像処理として、3点の接触部の位置関係を計算する(ステップS107)。なお、ステップS107の処理の詳細例については、図17乃至図20を参照して後述する。位置の計算の結果、3点がほぼ縦方向に並んでいるかを判断し(ステップS108)、点がほぼ縦方向に並んでいれば次の処理に進み、並んでいなければ別処理へ進む(ステップS109)。3点がほぼ縦方向に並んでいる場合、その点が画面のどの位置にあるかを判断し(ステップS110)、画面の左側に位置する場合は、表示画面を左方向へスクロールする指示とし(ステップS111)、画面の右側に位置する場合は、表示画面を右方向へスクロールする指示とする(ステップS112)。
例えば、図7の上部に示したように、表示エリア121の画面右端を操作者が指f1、f2、f3の3 本で触れた場合、図7の下部に示したような受光画像が得られ、3つの接触部141、142、143が検出される。この例では、接触部の面積が閾値A以上あり、3点の接触部がほぼ縦方向に並んで、画面の右側に位置しているため、表示画面を右スクロールさせることができる。
ここで、図8のステップS103の画像処理(面積計算)と、ステップS107の画像処理(位置計算)とのそれぞれの詳細について、その順番で個別に説明していく。
なお、以下の説明では、図8のステップS103の画像処理(面積計算)と、ステップS107の画像処理(位置計算)とは何れも、図3の画像処理演算部115により実行されるとする。ただし、図8のステップS103の画像処理(面積計算)と、ステップS107の画像処理(位置計算)とのうちの少なくとも一部を、指示判定部116に実行させるようにしてもよい。
図9は、ステップS103の画像処理(面積計算)の詳細例を説明するフローチャートである。
ステップS103aにおいて、画像処理演算部115は、画像二値化処理を実行する。
具体的には例えば、図8のステップS102において、図10に示される受光画像に対応する画像データが取得されたとする。この画像データは、上述した図7の上部の状態で、1フィールド期間におけるディスプレイ表面(図3の表示/受光パネル部120の表示面)に配置された各受光素子からの出力を再校正した結果得られたものである。図10の例では、受光素子の出力が大きくなるほど、より白くなるようになされており、また、指が接触または近接している場所からの受光素子の出力は大きく、そうでない場所からの受光素子の出力は小さい値となるようになされている。
この図10の受光画像の横線Lに対応する画像データの水平ラインの各画素の信号レベル(輝度)が、図11の上部に示されている。この場合、画像処理演算部115は、画像二値化処理として、かかる水平ラインの各信号レベル(各画素値)と、スライスレベル(S)とを比較し、スライスレベル(S)以上である画素には「1」という画素値を付し、スライスレベル(S)未満である場合「0」という画素値を付す処理を実行する。かかる画像二値化処理が施された結果が、図11の下部に示されている。なお、図11の例では、スライスレベル(S)は固定されているが、必ずしも固定である必要は無い。例えば、画像データ全体の平均値からスライスレベル(S)を導出してもよいし、画像データから作成した平均化などのフィルタの値をスライスレベル(S)として算出してもよい。
このような画像二値化処理を、図10の受光画像に対応する画像データの全水平ラインについて同様に施した結果得られる画像が、図12に示されている。即ち、上述したように、図12の画像とは、図7の上部に示したように表示エリア121の画面右端を操作者が指f1、f2、f3の3本で触れた場合に得られる図7の下部の画像である。即ち、図7で説明した3つの接触部141、142、143のそれぞれとは、より正確には、画素値が「1」の画素(白い画素)を多く含む領域141,142,143のそれぞれをいう。
ただし、図12の領域141,142,143のそれぞれの内部には、画素値が「0」の画素(黒い画素)も存在しており、また、領域141,142,143の境界もあいまいである。ここで、画素値が「1」の画素の集合体からなる領域、即ち、画素値が「1」の画素の連結成分をオブジェクトとして検出すると定義すると、図12の状態の領域141,142,143はまだ、検出されたオブジェクトであるとはいえない。なお、かかる定義を採用したのは、オブジェクト情報を容易に作成できるから、例えば、オブジェクトの面積算出(後述するステップS103e参照)や、オブジェクトの重心位置の算出(図17乃至図20を参照して後述する)等が容易に行えるからである。
そこで、図12の領域141,142,143のそれぞれに対応するオブジェクト(連結成分)であって、指のオブジェクト候補を検出すべく、さらに、図9のステップS103b乃至S103dの処理が実行されるのである。
即ち、図3の画像処理演算部115は、ステップS103bにおいて、ノイズ除去処理を実行し、ステップS103cにおいて、孤立点除去処理を実行し、さらに、ステップS103dにおいて、ラベリング処理を実行する。これにより、指のオブジェクト候補となる幾つかの連結成分が生成される。
なお、ステップS103bの処理でノイズ除去処理が実行される理由は、次の通りである。
即ち、図3の受光画像生成部114から出力された画像データ(図10参照)は、表示/受光パネル部120の各受光素子が持つばらつきや周囲環境によってノイズを含んだものになっている場合が多い。このノイズは、画像二値化処理(ステップS103a)の後にも残ることがあり、こうしたノイズが多く残っている場合は、後に行う孤立点除去処理(ステップS103c)やラベリング処理(ステップS103d)の際に処理量が著しく増加することがある。これを防止する為に、ステップS103bの処理でノイズ除去処理を実行するのである。
ノイズ除去処理としては、様々な手法が提案されており、何れの手法を採用しても構わないが、ここでは次のような手法が採用されているとする。即ち、処理対象として注目すべき画素(以下、注目画素と称する)の周囲の幾つかの画素の状態を調査し、この状態によって注目画素の画素値を特定する、といった手法が採用されているとする。
そして、ここでは例えば次のようなルールが規定されているとする。即ち、注目画素の8近傍の各画素のうちの画素値が「0」の画素の数(黒の画素数)が1個以下の場合、注目画素の画素値は「1」とする。即ち、注目画素は白の画素とする。一方、注目画素の8近傍の各画素のうちの画素値が「0」の画素の数(黒の画素数)が5個以上の場合、注目画素の画素値は「0」とする。即ち、注目画素は黒の画素とする。また、注目画素の8近傍の各画素のうちの画素値が「0」の画素の数(黒の画素数)が2個以上4個以下の場合、注目画素の画素値は元のままの値(二値化されているので「0」または「1」)とする、といったルールが規定されているとする。
この場合、図3の画像処理演算部115は、画像二値化処理後の受光画像を構成する各画素を1つずつ注目画素として、上述したルールに従って注目画素の画素値を決定していく。なお、注目画素の設定手法は特に限定されないが、ここでは例えば、受光画像の左上から順次右側に注目画素を設定していき、右端の画素が注目画素に設定されたら、次に、1つ下の行(水平ライン)の左端の画素を注目画素に設定していく、という設定を最下行(最終水平ライン)まで繰り返していく、という設定手法が採用されているとする。
なお、上述したルールはあくまでも一例であり、他のルールを採用してもよい。例えば、注目画素の画素値を「0」にする基準条件は、上述した例では黒の画素の数が1個以下とされたが、上述した例に限定されず、状況に応じて適宜変更することもできる。同様に、注目画素の画素値を「1」にする基準条件は、上述した例では黒の画素の数が5個以上とされたが、上述した例に限定されず、状況に応じて適宜変更することもできる。
次に、ステップS103cの孤立点除去処理について、詳しく説明する。
上述したように、ステップS103dのラベリング処理の結果得られた幾つかの連結成分の中から指のオブジェクトが検出されることになる。即ち、ステップS103dのラベリング処理の結果、指のオブジェクト候補となる幾つかの連結成分が得られることになる。なお、ここでは、接触或いは近接している物体(ここでは指)に対応する画素データ(画素値)群が、指のオブジェクトとして検出されることになる。そこで、かかる検出処理を容易に行うべく、即ち、指のオブジェクト候補の数を減らすことを目的として、ノイズ除去処理後の画像データに含まれる幾つかの連結成分のうちの、明らかに接触あるいは近接している物体ではない連結成分、即ち、除去しきれなかったノイズにより形成された連結成分を除外する、といった処理を行うと好適である。かかる処理の一例として、図9の例では、ステップS103cの孤立点除去処理が実行されるのである。
具体的には例えば、ステップS103bのノイズ除去処理後の結果、図13に示されるような受光画像(一部)が得られたとする。
この場合、周囲が黒で囲まれた白の画素の集合体である連結成分I,IIが、指のオブジェクト候補となる。
上述したように、図8のステップS101の処理で面積閾値Aが設定され、ステップS104の処理でデータ中に面積A以上の点(上述したように、ここでいう点は、1つの画素ではなく連結成分)があるか否かが判定される。即ち、図8の例では、面積A以上の連結成分(ステップS104でいう点)が指のオブジェクトとして検出されることになる。
この場合、面積とは、連結成分に属する画素の総数であるとし、面積閾値A=100が設定されたとすると、この面積閾値Aよりも遥かに小さい面積の連結成分(画素群)、例えば「5」以下の面積の連結成分は、指のオブジェクトではなくノイズであると判断できる。
図13の例では、連結成分Iは、3つの白い画素の集合体である。即ち、連結成分Iの面積は「3」である。そこで、かかる連結成分Iは有意なデータではないと判断し、即ち指のオブジェクト候補ではないと判断し、連結成分Iを除去する、という処理が孤立点除去処理である。なお、連結成分Iを除去するとは、連結成分Iを構成する3つの白い画素を黒の画素に変換する、即ち、連結成分Iを構成する3つの画素の画素値を「1」から「0」に変換することを意味する。なお、連結成分IIは、15の白い画素の集合体である。即ち、連結成分IIの面積は「15」である。従って、連結成分IIは、孤立点除去処理では除去されずにそのまま残ることになる。即ち、図13の受光画像(一部)に対して孤立点除去処理が施されると、図14に示されるような画像が得られることになる。
次に、ステップS103dのラベリング処理について、詳しく説明する。
即ち、孤立点除去処理後の画像データの中から、画素値が「1」の画素(白い画素)の集合体からなる連結成分の1つ1つに一意のラベルを付す処理が、ラベリング処理である。
具体的には例えば、ステップS103cの孤立点除去処理後の結果、図15に示されるような受光画像(一部)が得られたとする。
この場合、図15の受光画像に対してラベリング処理が施されると、図16に示されるように、4つの連結成分のそれぞれに対して、Label 01 , Label 02 , Label 03 , Label 04のそれぞれが付されることになる。
このようにして、図9のステップS103dのラベリング処理が実行されると、処理はステップS103eに進む。ステップS103eにおいて、図3の画像処理演算部115は、ラベルが付された各連結成分の点(画素)の数を数える。
このステップS103eの処理結果が、各連結成分の面積となる。具体的には例えば図16の例の受光画像に対してステップS103eの処理が施されると、Label 01の連結成分の面積は「189」と、Label 02の連結成分の面積は「6」と、Label 03の連結成分の面積は「236」と Label 04の連結成分の面積は「18」と、それぞれ算出されることになる。
この場合、例えば面積閾値A=100が設定されたとすると、Label 01の連結成分と、Label 03の連結成分とのそれぞれが、指のオブジェクトとして検出されることになる。即ちここでは、近接又は接触した指に対応する連結成分であって、図8のステップS104等でいう「面積A以上の点」として検出されることになる。
以上、図8のステップS103の画像処理(面積計算)の詳細について説明した。
次に、図8のステップS107の画像処理(位置計算)の詳細について説明する。
図17は、ステップS107の画像処理(位置計算)の詳細例を説明するフローチャートである。
ステップS107aにおいて、図3の画像処理演算部115は、各連結成分の重心位置座標を算出する。
なお、ステップS107aの処理で重心位置座標が算出される連結成分とは、指のオブジェクトとして検出された連結成分、即ち、図8のステップS104等でいう「面積がA以上の点」として検出された連結成分である。具体的には例えば、上述した図16の例では、Label 01の連結成分とLabel 03の連結成分とが、ステップS107aの処理対象になる。
ただし、より正確にいえば、Label 01の連結成分とLabel 03の連結成分とが、ステップS107aの処理対象になるためには、図8のステップS105に示されるように、図16には図示しない面積A以上の点(連結成分)がさらに1つ存在する必要がある。ここでは、図16のLabel 01の連結成分とLabel 03の連結成分との他、図16には図示しないLabel 02の連結成分(図16に図示されているLabel 02の連結成分とは別の連結成分)が、面積A以上であったとする。そして、Label 01の連結成分,Label 02の連結成分,Label 03の連結成分に対して、図17の画像処理(位置計算)が施されるとして、以下、説明していく。
この場合、例えば図16のLabel 01の連結成分を構成する各画素をPn(nは1乃至189のうちの何れかの整数値)とし、この座標を(xn,yn)とすると、Label 01の連結成分の重心位置座標は、次のようにして算出される。
即ち、Label 01の連結成分は189個の画素の集合体であるので、この189個の画素の位置座標の平均が、重心位置座標となる。即ち、重心位置座標G01=((x1+x2+x3+…x189)/189, (y1+y2+y3+…y189)/189)となる。
あるいは、Labelk(ここでは、kは01,02,03のうちの何れかの値)の重心位置座標を求める式は、全画素を順に計算していく場合、次の式(1)のように表される。
Gk=((Σxi*wi)/ Σwi,(Σyi*wi)/ Σwi) ・・・(1)
ただし、式(1)において、wiはLabelkを持つ画素の場合1、そうでないとき0とする。
このようにして、ステップS107aの処理により、Label 01の連結成分の重心位置座標G01,Label 02の連結成分の重心位置座標G02,Label 03の連結成分の重心位置座標G03のそれぞれが算出される。なお、図18は、上述した図16の例に対応させて、Label 01の連結成分の重心位置座標G01とLabel 03の連結成分の重心位置座標G03とが算出された結果が示されている。
なお、以下、Label K(ここではKは01,02,03のうちの何れかの値)の連結成分の重心位置座標GKの点を、単に点GKと称する。また、ステップS107aにより、図19に示される結果が得られたとして、以下、説明していく。
次に、ステップS107bにおいて、画像処理演算部115は、重心位置間の距離を算出する。ここでは、図19に示されるように、点G01-点G02間の距離、点G02-点G03間の距離、および、点G03-点G01間の距離がそれぞれ算出される。
ステップS107cにおいて、画像処理演算部115は、最高点と最下点が作る角度を計算する。ここに、最高点とは、ステップS107aで算出された各連結成分の重心位置座標(点G01,G02,G03)のうちのy座標の値が最も大きい点を指す。一方、最下点とは最も小さい点を指す。ここでは、図19に示されるように、最高点は点G01であり、最下点はG03であるので、この2点を結ぶ線分と水平線とがなす角度θsが計算される。
ステップS107dにおいて、画像処理演算部115は、各重心位置の中央の座標を計算する。具体的には例えば、図19に示されるように、次の式(2)によって、各重心位置の中央の座標Gtotalが算出される。
Gtotal =((x1+x2+x3)/3, (y1+y2+y3)/3) ・・・(2)
以上の画像処理(位置計算)の処理結果を利用することで、図8のステップS108やS110の判定処理を実行することができる。
例えば、ステップS108の「3点はほぼ縦に並んでいるか」否かの判定については、ステップS107cの処理で算出された角度θsを用いることができる。
具体的には例えば、判定条件としての角度θvを設定しておき、次の不等式(3)を満たせば、3点はほぼ縦に並んでいると判定することが可能になる。
90-θv < θs < 90+θv ・・・(3)
例えば角度θv=10°が設定されている場合には、角度θsが80°乃至100°のときに、ステップS108の処理でYESである、即ち「3点はほぼ縦に並んでいる」と判定されることになる。
さらに例えば、ステップS108の「3点はほぼ縦に並んでいるか」否かの判定については、上述した角度θsに加えて、ステップS107bの処理で算出された重心位置間の距離も用いることができる。これにより、より詳細な判断が可能になる。
具体的には例えば、3点はほぼ縦に並んでいると判定するか否かの条件として、上述した角度θsを用いる条件に加えてさらに、次の不等式(4),(5)を共に満たすという条件を付加することができる。
(点G01-点G02間の距離)<(点G03-点G01間の距離) ・・・(4)
(点G02-点G03間の距離)<(点G03-点G01間の距離) ・・・(5)
或いは例えば、付加する条件として、次の不等式(6)を満たすという条件を採用してもよい。
(点G02-点Gmid間の距離)<(点G03-点G01間の距離の半分) ・・・(6)
なお、式(6)における点Gmidとは、図20に示されるように、座標((x1-x3)/2 , (y1-y3)/2)の点である。なお、この場合の判定処理の詳細については、図25を参照して後述する。
また例えば、図8のステップS110の「画面のどの位置にあるか」の判定については、ステップS107dの処理で算出された重心位置の中央の座標Gtotalを用いることができる。具体的には例えば、重心位置の中央の座標Gtotalが、受光画像の中央よりも左側に位置する場合、画面の左側にあると判定することができる。これに対して、重心位置の中央の座標Gtotalが、受光画像の中央よりも右側に位置する場合、画面の右側にあると判定することができる。
次に、複数の接触部の位置関係を基に操作者からの指示を判断する処理の他の例について図21、図22を参照して説明する。図21は、表示エリア121の画面下端を操作者が指f1、f2、f3の3本で触れた場合である。このとき、図21の下部に示したような受光画像が得られ、3つの接触部151、152、153が検出される。
図22は、図21に示すような接触部が検出される場合の、受光画像から操作指示を判断する処理の例を示すフローチャートである。本フローチャートを参照して、検出した複数の接触部の位置関係を基に操作者からの指示を判断する処理について説明する。
ここでは、予め接触部と操作指示との対応の定義として、「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義に加えてさらに、「3本の指が同時に横方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義もなされている場合について説明する。
換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、位置関係型コマンド認識部23、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図22のフローチャートに示されている。即ち、「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」および「3本の指が同時に横方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義がコマンド定義保持部26に保持されており、位置関係型コマンド認識部23がかかる2つの定義に基づいて、「表示画像を左方向にスクロールさせる」、「表示画像を右方向にスクロールさせる」、「表示画像を上方向にスクロールさせる」、および、「表示画像を下方向にスクロールさせる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図22のフローチャートに示されている。
なお、図22でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。
本処理において、接触部を検出するための面積の閾値Aを設定する処理(ステップS101)から、検出した3点の接触部がほぼ縦方向に並んでいるかを判断する処理(ステップS108)までは、上記図8のフローチャートで説明したものと同様である。3点がほぼ縦方向に並んでいれば別処理へ進み(ステップS113)、並んでいなければ次の処理へ進む。なお、ここでいうステップS113の別処理とは、例えば上記図8のステップS110乃至S112の処理をいう。次に、3点がほぼ横方向に並んでいるかを判断し(ステップS114)、3点が横方向に並んでいない場合は別処理へ進む(ステップS115)。検出した3点がほぼ横方向に並んでいる場合、その点が画面のどの位置にあるかを判断し(ステップS116)、画面の下側に位置する場合は、表示画面を下方向へスクロールする指示とし(ステップS117 )、画面の上側に位置する場合は、表示画面を上方向へスクロールする指示とする(ステップS118)。
なお、ステップS114の3点はほぼ横に並んでいるか否かの判定処理は、上述したステップS108の判定処理と同様に実行すればよい。また、ステップS116の画面のどの位置にあるか否かの判定処理は、上述した図8のステップS110の判定処理と同様に実行すればよい。
例えば、図21の上部に示したように、表示エリア121の画面下端を操作者が指f1、f2 、f3の3本で触れた場合は、図21の下部に示したような受光画像が得られ、検出された3つの接触部151、152、153がほぼ横方向に並んで、画面の下側に位置しているため、表示画面を下スクロールさせることができる。
上記の例では、検出した接触部の位置関係を基に操作者の指示を判断したが、次に、複数の接触部の移動位置変化を基に操作者からの指示を判断する処理例について、図23乃至図36を参照して説明する。図23は、表示エリア121の表示面に操作者が指f1、f2、f3の3本で触れた状態を示している。ここでは、この状態から指f1、f2、f3の触れる位置を、矢印a1、a2、a3で示す向きに動かしたとする。図23の下部に、この場合の受光画像を示す。受光画像P1は指を動かす前の受光画像の例であり、3つの接触部161a、162a、163aが検出されている。受光画像P2は指を動かしている途中の受光画像の例であり、受光画像P3は指を動かした後の受光画像の例である。このように受光画像データにおいて、時間の経過に従って接触部の位置が変化し、受光画像P3では、3つの接触部161c、162c、163cの間隔が最初の受光画像P1より離れていることが分かる。
図24は、図23に示すような接触部が検出される場合の、受光画像から操作指示を判断する処理の例を示すフローチャートである。本フローチャートを参照して、検出した複数の接触部の移動位置の変化を基に操作者からの指示を判断する処理について説明する。ここでは、予め接触部と操作指示との対応を「3本の指がほぼ円周状に接触し、その円が大きくなるように画面上を移動した場合に、表示画像を拡大する」と「3本の指がほぼ円周状に接触し、その円が小さくなるように画面上を移動した場合に、表示画像を縮小する」とを定義しておく。
換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、検出結果保持部21、複合型コマンド認識部25、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図24のフローチャートに示されている。即ち、「3本の指がほぼ円周状に接触し、その円が大きくなるように画面上を移動した場合に、表示画像を拡大する」と「3本の指がほぼ円周状に接触し、その円が小さくなるように画面上を移動した場合に、表示画像を縮小する」という定義がコマンド定義保持部26に保持されており、複合型コマンド認識部25がかかる2つの定義に基づいて、「表示画像を拡大表示させる」または「表示画像を縮小表示させる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図24のフローチャートに示されている。
即ち、「3本の指がほぼ円周状に接触し」た場合という3つのオブジェクト(指)の位置関係に基づく条件と、「その円が大きくなるように画面上を移動した場合」というオブジェクトの時間位置変化に基づく条件との複合条件が、「表示画像を拡大表示させる」という複合型コマンドの条件となっている。同様に、「3本の指がほぼ円周状に接触し」た場合という3つのオブジェクトの位置関係に基づく条件と、「その円が小さくなるように画面上を移動した場合」というオブジェクトの時間位置変化に基づく条件との複合条件が、「表示画像を縮小表示させる」という複合型コマンドの条件となっている。
このため、図24の例では、複合型コマンド認識部25が機能する。換言すると、上述したように、複合型コマンド認識部25の機能がコマンド発行部27に委譲されている場合には、位置関係型コマンド認識部23と時間位置変化型コマンド認識部22とが機能することになる。
なお、図24でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。
本処理において、接触部を検出するための面積の閾値Aを設定する処理(ステップS101)から検出した3点の接触部がほぼ横方向に並んでいるかを判断する処理(ステップS114)までは、上記図22のフローチャートで説明したものと同様である。3点がほぼ横方向に並んでいる場合は別処理へ進む(ステップS119)。
なお、ここでいうステップS113の別処理とは、例えば上述した図8のステップS110乃至S112の処理をいう。ただし、かかる処理例を実行するためには、「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義がコマンド定義保持部26に保持されている必要がある。
また、ここでいうステップS119の別処理とは、例えば上述した図22のステップS116乃至S118の処理をいう。ただし、かかる処理例を実行するためには、「3本の指が同時に横方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義がコマンド定義保持部26に保持されている必要がある。
ステップS114の処理でNOであると判定された場合、即ち、3点が横方向に並んでいない場合、更にその3点がほぼ円周状に並んでいるかを判断し(ステップS120)、円周状に並んでいない場合は別処理へ進む(ステップS121)。円周状に並んでいる場合は、各点が移動しているかを判断し(ステップS122)、移動していない場合は処理を終了する。移動している場合は、どのように移動しているかを判断し(ステップS123)、3点が離れる方向に移動している場合は、表示画面を拡大表示する指示とし(ステップS124)、3点が近づく方向に移動している場合は、表示画面を縮小表示する指示とする(ステップS125)。
さらに以下、図25乃至図35を参照して、図24の例の処理のうちの主要な処理の詳細について説明していく。
なお、以下の説明では、図24のステップS120までの処理は、図3の画像処理演算部115により実行されるとする。ただし、図24のステップS120までの処理のうちの少なくとも一部を、指示判定部116に実行させるようにしてもよい。
図25は、ステップS108の「3点はほぼ縦に並んでいるか」否かの判定処理の詳細例を説明するフローチャートである。
なお、図24のステップS107の画像処理(位置計算)により、図26に示される結果が得られたとして、以下、説明を行っていく。
ステップS108a乃至S108fまでが、上述した式(3)の不等式を用いる判定処理である。
即ち、ステップS108aにおいて、図3の画像処理演算部115は、角度θvを設定する。この角度θvは、上述したように、3つの連結成分(図24のステップS108でいう3点)がほぼ縦に並んでいるか否かを判定するための条件としての角度であり、通常はコマンド定義保持部26(図2)等に予め保持されている。
ステップS108bにおいて、画像処理演算部115は、3つの連結成分のうちの最小のy座標を持つ重心を選び、それを点Gminとする。例えば図26の例では、点G03が点Gminとなる。
ステップS108cにおいて、画像処理演算部115は、3つの連結成分のうちの最大のy座標を持つ重心を選び、それを点Gmaxとする。例えば図26の例では、点G01が点Gmaxとなる。
ステップS108dにおいて、画像処理演算部115は、3つの連結成分のうちの残りの重心を点Gauxとする。例えば図26の例では、点G02が点Gauxとなる。
ステップS108eにおいて、画像処理演算部115は、点Gmaxと点Gminが作る角度θsを求める。例えば図26の例では、点G01と点G03とが作る角度θsが求まる。
ステップS108fにおいて、画像処理演算部115は、90-θv < θs かつ θs< 90+θv か否かを判定する。
即ち、ステップS108fの判定処理とは、上述した不等式(3)を満たすか否かの処理である。
ステップS108fの処理でNOであると判定された場合、3点(3つの連結成分)はほぼ縦に並んでいないと判定され、即ち、ステップS108の判定処理としてNOであると最終判定され、処理は図24のステップS114に進む。
これに対して、ステップS108fの処理でYESであると判定された場合、ステップS108g乃至S108jがさらに実行される。即ち、ステップS108g乃至S108jまでが、上述した式(6)の不等式を用いる判定処理である。換言すると、ステップS108g乃至S108jまでの判定処理とは、3点の並び方に注目した場合の判定処理である。
ステップS108gにおいて、画像処理演算部115は、点Gmaxと点Gminの中点Gmidを求める。例えば図26の例では、点G01と点G03との中点Gmid0103が、中点Gmidとして求められる。
ステップS108hにおいて、画像処理演算部115は、点Gmidと点Gaux(図26の例ではG02)との距離"Gmid-Gaux"を求める。また、ステップS108iにおいて、画像処理演算部115は、点Gmaxと点Gminとの距離"Gmax-Gmin"を求める。
ステップS108jにおいて、画像処理演算部115は、"Gmid-Gaux" < "Gmax-Gmin"/2であるか否かを判定する。なお、図26の例の場合、即ち、GmaxがG01であり、GminがG03であり、GauxがG02である場合には、"Gmid-Gaux" < "Gmax-Gmin"/2とは、上述した不等式式(6)になる。即ち、この場合、ステップS108jの判定処理とは、不等式(6)を満たすか否かの判定処理となる。
換言すると、ステップS108jの判定処理とは、距離"Gmid-Gaux"が、距離"Gmax-Gmin"の距離の半分よりも短いか否かの判定処理である。距離"Gmid-Gaux"が、距離"Gmax-Gmin"の距離の半分よりも短いとは、距離"Gmid-Gaux"(図26の例では"Gmid-G02")が、距離"Gmax-Gmid"(図26の例では"G01-Gmid0103")よりも短い、或いは、距離"Gmin-Gmid"(図26の例では"G03-Gmid0103")よりも短いことを意味する。
従って、距離"Gmid-Gaux"(図26の例では"Gmid-G02")が、距離"Gmax-Gmid"(図26の例では"G01-Gmid0103")よりも短い、或いは、距離"Gmin-Gmid"(図26の例では"G03-Gmid0103")よりも短い場合には、ステップS108jの処理でYESであると判定され、その結果、3点(3つの連結成分)はほぼ縦に並んでいると判定され、即ち、ステップS108の判定処理としてYESであると最終判定され、処理は図24のステップS113に進む。
これに対して、ステップS108jの処理でNOであると判定された場合、3点(3つの連結成分)はほぼ縦に並んでいないと判定され、即ち、ステップS108の判定処理としてNOであると最終判定され、処理は図24のステップS114に進む。
このように、図25の例では、ステップS108a乃至S108fまでの判定処理だけでなく、即ち、上述した式(3)の不等式を用いる判定処理だけでなく、ステップS108g乃至S108jまでの判定処理、上述した式(6)の不等式を用いる判定処理まで実行される。かかる理由は、上述した式(3)の不等式を用いる判定処理だけでは、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理まで行き着かない場合があるからである。
具体的には例えば、、図24のステップS107の画像処理(位置計算)により、図26ではなく、図27に示される結果が得られたとする。この場合、図27に示されるように、角度θsは、重心G2'と重心G3'とが作る角度となるため、ステップS108a乃至S108fまでの判定処理だけでは、即ち、上述した式(3)の不等式を用いる判定処理だけでは、3点(3つの連結成分)はほぼ縦に並んでいると判定されることになる。しかしながら、図27に示される位置関係の場合には、「3点はほぼ縦に並んでいると」とは判定せずに、「3点はほぼ円周状に並んでいる」と判定する方が好適であることが多い。そこで、図25の例では、上述した式(6)の不等式を用いる判定処理をさらに付加することで、「3点はほぼ縦に並んでいると」という条件を厳しくしているのである。ただし、図27に示される位置関係を持って「3点はほぼ縦に並んでいる」と判断する様なルールを意識的に決めることに問題があるわけではない。
以上、図24のステップS108の「3点はほぼ縦に並んでいるか」否かの判定処理の詳細について説明した。
以下、図24のステップS114の「3点はほぼ横に並んでいるか」否かの判定処理の詳細について、図28に示される場合を例として説明する。即ち、図24のステップS107の画像処理(位置計算)により、図28に示される結果が得られ、その結果、図24のステップS108の処理でNOであると判定されて、ステップS114に進んだ場合を例として、以下、説明を行っていく。
なお、「3点はほぼ横に並んでいるか」否かの判定処理は、基本的に、「3点はほぼ縦に並んでいるか」否かの判定処理と同様の処理となる。そこで、以下、上述した処理に対応する処理については、適宜説明を省略する。
図29は、ステップS114の「3点はほぼ横に並んでいるか」否かの判定処理の詳細例を説明するフローチャートである。
ステップS114a乃至S114fまでの処理が、図25のステップS108a乃至S108fまでの処理に対応する。
即ち、ステップS114aにおいて、図3の画像処理演算部115は、角度θhを設定する。この角度θhは、角度θvと同様に、3つの連結成分(図24のステップS114でいう3点)がほぼ横に並んでいるか否かを判定するための条件としての角度であり、通常はコマンド定義保持部26(図2)等に予め保持されている。
ステップS114bにおいて、画像処理演算部115は、3つの連結成分のうちの最小のx座標を持つ重心を選び、それを点Gminとする。即ち、図28の例でいえば、点G13が点Gminとなる。
ステップS114cにおいて、画像処理演算部115は、3つの連結成分のうちの最大のx座標を持つ重心を選び、それを点Gmaxとする。即ち、図28の例でいえば、点G11が点Gmaxとなる。
ステップS114dにおいて、画像処理演算部115は、3つの連結成分のうちの残りの重心を点Gauxとする。即ち、図28の例でいえば、点G12が点Gauxとなる。
ステップS114eにおいて、画像処理演算部115は、点Gmaxと点Gminが作る角度θs(図28参照)を求める。
ステップS114fにおいて、画像処理演算部115は、-θh < θs かつ θs< θh か否かを判定する。
ステップS114fの処理でNOであると判定された場合、3点(3つの連結成分)はほぼ横に並んでいないと判定され、即ち、ステップS114の判定処理としてNOであると最終判定され、処理は図24のステップS120に進む。
これに対して、ステップS114fの処理でYESであると判定された場合、ステップS114g乃至S114jがさらに実行される。即ち、ステップS114g乃至S114jまでの処理が、上述した図25のステップS108g乃至S108jまでの処理に対応する。換言すると、ステップS114g乃至S114jまでの判定処理とは、3点の並び方に注目した場合の判定処理である。
ステップS114gにおいて、画像処理演算部115は、点Gmaxと点Gminの中点Gmidを求める。例えば図28の例では、点G11と点G13との中点Gmid0103が、中点Gmidとして求められる。
ステップS114hにおいて、画像処理演算部115は、点Gmidと点Gaux(図28の例ではG12)との距離"Gmid-Gaux"を求める。また、ステップS114iにおいて、画像処理演算部115は、点Gmaxと点Gminとの距離"Gmax-Gmin"を求める。
ステップS114jにおいて、画像処理演算部115は、"Gmid-Gaux" < "Gmax-Gmin"/2であるか否かを判定する。
ステップS114jの処理でYESであると判定された場合、3点(3つの連結成分)はほぼ横に並んでいると判定され、即ち、ステップS114の判定処理としてYESであると最終判定され、処理は図24のステップS119に進む。
これに対して、ステップS114jの処理でNOであると判定された場合、3点(3つの連結成分)はほぼ横に並んでいないと判定され、即ち、ステップS114の判定処理としてNOであると最終判定され、処理は図24のステップS120に進む。
このように、図29の例では、ステップS114a乃至S114fまでの判定処理だけでなく、ステップS114g乃至S114jまでの判定処理まで実行される。かかる理由は、ステップS114a乃至S114fまでの判定処理だけでは、即ち角度θsを用いる判定処理だけでは、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理まで行き着かない場合があるからである。このことについては、図27を参照して上述した通りである。
以上、図24のステップS114の「3点はほぼ横に並んでいるか」否かの判定処理の詳細について説明した。
以下、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理の詳細について説明する。
上述したように、図24の例では、ステップS108の処理で「3点はほぼ縦に並んでいるか」否かが判定され、さらに、ステップS114の処理で「3点はほぼ横に並んでいるか」否かが判定される。即ち、図24の例では、「縦又は横」かつ「並んでいる」という条件が設定されている。従って、それ以外の3点(3つの連結成分)の配置は全て「ほぼ円周状に並んでいる」と判定するようにしてもよい。この場合、ステップS108の処理で3点はほぼ縦に並んでいないと判定されて、さらに、ステップS114の処理で3点はほぼ横に並んでいないと判定された後に、ステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理が実行されるので、ステップS120の処理では常にYESと判定されることになる。
ただし、この場合、図24のステップS107の画像処理(位置計算)により図30に示される結果が得られたときにも、即ち、3つの連結成分の重心(ステップS120等でいう3点)の配置が図30に示されるように、「縦でも横でもない」が比較的「並んでいる」配置であったときにも、「ほぼ円周状に並んでいる」と判定されてしまうことになる。
そこで、このような「縦でも横でもない」が比較的「並んでいる」配置を、「ほぼ円周状に並んでいる」配置から除外すべく、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判断処理として、例えば図31に示されるような処理を採用することができる。
即ち、図31は、ステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理の詳細例を説明するフローチャートである。
図24のステップS107の画像処理(位置計算)により、図32に示される結果が得られたとして、以下、説明を行っていく。
ステップS120aにおいて、図3の画像処理演算部115は、3つの連結成分(ステップS120等でいう3点)の各重心間の距離を求める。
ここで、3つの連結成分の各重心を、図32に示されるように、点G31,G32,G33のそれぞれと称するとすると、点G31-点G32間の距離、点G32-点G33間の距離、および点G33-点G31間の距離が求められる。
ステップS120bにおいて、画像処理演算部115は、最長の距離を作る2つの重心を点Ga,Gbとして、この中点を点Gmidとする。また、ステップS120cにおいて、画像処理演算部115は、残りの重心を点Gauxとする。例えば図32の例では、点G31が点Gaとなり、点G32が点Gbとなり、点Gmid3132が中点Gmidとなり、点G33が点Gauxとなる。
ステップS120dにおいて、画像処理演算部115は、点Gmidと点Gauxとの距離"Gmid-Gaux"を求める。また、ステップS120eにおいて、画像処理演算部115は、点Gaと点Gbとの距離"Ga-Gb"を求める。
ステップS120fにおいて、画像処理演算部115は、"Gmid-Gaux" > "Ga-Gb"/2であるか否かを判定する。
距離"Gmid-Gaux"が距離"Ga-Gb"の半分よりも長い場合、ステップS120fの処理でYESであると判定され、その結果、3点(3つの連結成分)はほぼ円周状に並んでいると判定され、即ち、ステップS120の判定処理としてYESであると最終判定され、処理は図24のステップS122に進む。
これに対して、距離"Gmid-Gaux"が距離"Ga-Gb"の半分以下の場合、ステップS120fの処理でNOであると判定され、その結果、3点(3つの連結成分)はほぼ円周状に並んでいないと判定され、即ち、ステップS120の判定処理としてNOであると最終判定され、処理は図24のステップS121に進む。
以上、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理の詳細について説明した。
以下、図24のステップS122の「各点は移動しているか」否かの判定処理の詳細について説明する。
図3の受光画像生成部114からは、即ち、図2の受光画像生成部15からは、複数の受光画像データ(フィールドデータまたはフレームデータ)が時間的に連続して順次出力される。この場合、図24の例の処理は、受光画像データを単位として、それぞれの受光画像データに対して実行される。そこで、以下、図24の例の処理の対象として注目すべき受光画像データを、注目受光画像データと称するとする。
この場合、注目受光画像データの1つ前の受光画像データに対して図24の例の処理(例えばステップS107の処理等)が施されて得られた座標の情報(上述したオブジェクト情報のひとつ)は、上述したように、図2の検出結果保持部21に保持されている。
一方、注目受光画像データに対して図24の例の処理(例えばステップS107の処理等)が施されて得られた座標の情報(上述したオブジェクト情報のひとつ)は、図2のオブジェクト検出部16から出力されてコマンド認識/発行部17に提供される。
この場合、図2の時間位置変化型コマンド認識部22または複合型コマンド認識部25は、即ち、図3の指示判定部116は、これらの座標の情報を比較することで、図24のステップS122の「各点は移動しているか」否かを判定する。
なお、以下、説明の簡略上、ステップS122以降の処理の動作主体は、時間位置変化型コマンド認識部22であるとして説明していく。
また、以下の説明では、上述した図32に示される位置関係の重心G31,G32,G33に関する情報が、注目受光画像データの1つ前の受光画像データのオブジェクト情報(以下、直前オブジェクト情報と称する)として、図2の検出結果保持部21に保持されているとする。そして、図33に示される位置関係の重心G41,G42,G43に関する情報が、注目受光画像データのオブジェクト情報(以下、注目オブジェクト情報と称する)として、図2のオブジェクト検出部16から時間位置変化型コマンド認識部22に提供されてきたとする。
この場合、注目オブジェクト情報と直前オブジェクト情報との位置関係は、図34に示されるようになる。なお、以下、重心G41,G42,G43を注目重心G41,G42,G43と称し、重心G31,G32,G33を直前重心G31,G32,G33と称する。
即ち、図2の時間位置変化型コマンド認識部22は、図34の情報を参照することで、図24のステップS122の「各点は移動しているか」否かを判定することができる。
具体的には例えば、時間位置変化型コマンド認識部22は、先ず、各注目重心G41,G42,G43のそれぞれは、直前重心G31,G32,G33のうちの何れに対応するのか、即ち、何れの直前重心が移動変化したものであるのかを判別し、その判別結果に基づいて、各注目重心G41,G42,G43のそれぞれについての移動方向と移動距離(移動ベクトル)を求める。
この判別手法自体は、特に限定されないが、ここでは、次のような座標からの距離で判別する手法が採用されているとする。即ち、注目重心の座標に最も近い座標の直前重心が、対応する重心である、という手法が採用されているとする。
この場合、図34の例では、注目重心G43と、それに最も近い直前重心G33とが対応する、即ち、直前重心G33の座標から、注目重心G43の座標に移動変化したと判別される。これにより、注目重心G43についての移動方向と移動距離(移動ベクトル)が求められる。同様に、注目重心G42と、それに最も近い直前重心G32とが対応する、即ち、直前重心G32の座標から、注目重心G42の座標に移動変化したと判別される。これにより、注目重心G42についての移動方向と移動距離(移動ベクトル)が求められる。また、注目重心G41と、それに最も近い直前重心G31とが対応する、即ち、直前重心G31の座標から、注目重心G41の座標に移動変化したと判別される。これにより、注目重心G41についての移動方向と移動距離(移動ベクトル)が求められる。
そして、時間位置変化型コマンド認識部22は、各注目重心G41,G42,G43のそれぞれについての移動距離が、予め定められた閾値を超えている場合、図24のステップS122の処理で各点は移動していると判定して、処理をステップS123に進め、それ以外の場合、ステップS122の処理で各点は移動していないと判定して、図24の処理を終了させる。なお、その際、各点が移動していることの判定条件としては、各注目重心G41,G42,G43のそれぞれについての移動距離のうちの少なくとも1つが閾値を超えていることを条件としてもよいし、各注目重心G41,G42,G43のそれぞれについての移動距離のうちの2つ以上が閾値を超えていることを条件としてもよいし、或いは、各注目重心G41,G42,G43のそれぞれについての移動距離の全てが閾値を超えていることを条件としてもよい。
処理がステップS123に進んだ場合には、時間位置変化型コマンド認識部22は、さらに、どのように移動しているのかを判断することになる。
この判断手法自体も、特に限定されず、例えば、上述したように各注目重心G41,G42,G43のそれぞれについての移動ベクトル(移動方向と移動距離)が判るので、これらを用いて判断する手法を採用することもできる。
また例えば、図35に示されるように、各直前重心G31,G32,G33を頂点とする三角形(以下、直前三角形と称する)の面積と、各注目重心G41,G42,G43を頂点とする三角形(以下、注目三角形と称する)の面積とを比較することで、どのように移動しているのかを判断する、という手法を採用することができる。かかる手法が採用された場合、注目三角形の面積が直前三角形の面積よりも一定以上大きいとき(図35参照)には、図24のステップS123の処理で「拡大」方向に移動していると判定されて、処理はステップS124に進むことになる。これに対して、注目三角形の面積が直前三角形の面積よりも一定以上小さいいときには、図24のステップS123の処理で「縮小」方向に移動していると判定されて、処理はステップS125に進むことになる。
以上、図25乃至図35を参照して、図24の例の処理のうちの主要な処理の詳細について説明した。
このような図24の例の処理が実行される場合には、例えば、上述した図23の上部に示したように、操作者が指f1、f2、f3の3本で表示画面に触れ、指と指との間隔を離していくように移動させたときには、図23の下部に示したような受光画像が得られ、検出された3つの接触部が離れる方向に移動しているため、図36に示すような操作後画面例のように、画面を拡大表示する。
ここまでは、表示画像の表示状態を変化させる例について説明したが、表示装置の表示エリアを指やペン等で触れることによって、様々なアプリケーション処理を行うことも可能である。次に、表示エリアに表示した文章の編集を行う処理の例について、図37、図38、図39を参照して説明する。本例では、図37の上部に示したように、表示エリア121に文字列などの文書データを表示し、その文書データに対する操作を行う場合を示している。ここでは、画面に表示された文章の一部を操作者が指f1、f2の2本で挟むように触れている。このとき、図37の下部に示したような受光画像が得られ、2つの接触部171、172が検出される。
図38は、図37に示すような接触部が検出される場合の、受光画像から操作指示を判断する処理の例を示すフローチャートである。本フローチャートを参照して、検出した複数の接触部の大きさを基に操作者からの指示を判断する処理について説明する。ここでは、予め接触部と操作指示との対応を「表示データが文書データの場合、文字列の両端を2本の指で同時に接触した場合に、当該文字列を選択する」と定義しておく。
換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、位置関係型コマンド認識部23、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図38のフローチャートに示されている。即ち、「表示データが文書データの場合、文字列の両端を2本の指で同時に接触した場合に、当該文字列を選択する」という定義がコマンド定義保持部26に保持されており、位置関係型コマンド認識部23がかかる定義に基づいて、「2本の指で挟まれた範囲の文字列を選択させる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図38のフローチャートに示されている。
なお、図38でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。
まず、接触部が指先の場合を検出するための面積の閾値Aと、接触部が指の腹の場合を検出するための閾値Bを設定する(ステップS131)。次に、受光画像生成部114によって受光信号から変換された画像データを取得し(ステップS132)、第1の画像処理として接触部の面積を計算する(ステップS133)。なお、ステップS133の処理の詳細例については、図9乃至図16を参照して上述した通りである。面積の計算の結果、画像データ中に面積の閾値B以上の点があるかを判断し(ステップS134)、点があれば別処理に進み(ステップS135)、なければ画像データ中に面積の閾値A 以上の点があるかを判断する(ステップS136)。閾値A以上の点もない場合は、次の画像データを取得する。面積A以上の点がある場合、その点が2点か否かを判断し(ステップS137)、2点あれば次の処理に進み、なければ、次の画像データを取得する。次に、第2の画像処理として、2点の接触部の位置関係を計算する(ステップS138)。なお、ステップS138の処理の詳細例については、図17乃至図20を参照して上述した通りである。位置の計算の結果、2点が一定の距離離れていれば、その2点間に表示されている文字列を選択する指示とする(ステップS139 )。
本例では、操作者からの指示が文章の編集を行うための指示となるため、上記フローチャートで説明したように指示判定部116による処理が行われた後、判定した指示内容を入出力処理部101から外部のアプリケーションであるドキュメント処理部102へ通知する。そして、ドキュメント処理部102において指示内容に応じた文書データの編集処理を行い、その結果を再度入出力処理部1へ送り、そのデータを表示データとして生成して表示する。
例えば、図37の上部に示したように、表示エリア121に表示された文章の一部を操作者が指f1、f2の2本で挟むように触れた場合、図39に示すような操作後画面例のように、指f1、f2で挟んだ部分の文字列H1が選択状態となって表示される。
次に、図40、図41、図42を参照して、表示エリアに表示した文章の編集を行う他の処理例について説明する。図40は、表示エリア121に文字列などの文書データを表示し、操作者が指f1を画面に表示された文章の文字列の上に置いた場合である。このとき、図40の下部に示したような受光画像が得られ、1つの細長い接触部181が検出される。
図41は、図40に示すような接触部が検出される場合の、受光画像から操作指示を判断する処理の例を示すフローチャートである。ここでは、予め接触部と操作指示との対応を「表示データが文書データの場合、文字列の上に指を置いた場合に、当該文字列を消去する」と定義しておく。
換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、形状型コマンド認識部24、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図41のフローチャートに示されている。即ち、「表示データが文書データの場合、文字列の上に指を置いた場合に、当該文字列を消去する」という定義がコマンド定義保持部26に保持されており、形状型コマンド認識部24がかかる定義に基づいて、「指が置かれた範囲に含まれる文字列を消去させる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図41のフローチャートに示されている。
なお、図41でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。
本処理において、接触部を検出するための面積の閾値Aと閾値Bを設定する処理(ステップS131)から、画像データ中に面積の閾値B以上の点があるかを判断する処理(ステップS134)までは、上記図38のフローチャートで説明したものと同様である。面積B以上の点がない場合の処理は図38のフローチャートで説明したものである。ステップS134にて面積の閾値B以上の点がある場合は、第2の画像処理として、接触部の位置を計算する(ステップS141)。なお、ここでいう位置計算は、上述した図17の計算とは異なり、受光画像における接触部(1つの連結成分全体)の占める位置が計算される。位置の計算の結果、接触部が画面に表示されている文字列の上に重なるように置かれている場合は、接触部が置かれている部分の文字列を消去する指示とする(ステップS142)。
上記処理を行った場合の操作後画面の例を図42に示す。図40の上部に示したように、表示エリア121に表示された文章の文字列の上に操作者が指f1を置いた場合、図42に示すように、指f1を置いた部分の文字列H2が消去状態となって表示される。
なお、図38及び図41で示した処理は排他的なものではなく、両方を同時に実現できる。この場合の処理例を図43のフローチャートで示す。ここでは、文章の編集を行う例を「選択」と「削除」の二つの例で示したが、接触部と操作指示の対応を別の組み合わせとすることも可能である。また、他の編集処理を行わせるための指示を実現することも可能である。
なお、図43でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。
本実施の形態では、表示装置の表示エリアに接触または近接した物体を検出し、その接触部の状態を次のように判断する例について述べた。
・複数の接触部(オブジェクト)の位置関係を基に操作指示を判断する。
・ 複数の接触部(オブジェクト)の時間位置変化を基に操作指示を判断する。
・ 複数の接触部(オブジェクト)の形状(大きさ等)を基に操作指示を判断する。
これらの状態を組み合わせたものや、操作する接触部の数、位置関係や移動方法などの他の条件と操作指示との対応を定義することで、他の画面操作や、文書データの他の編集処理を行わせることも可能である。また、画面操作だけでなく、特定のアプリケーションの処理を実行させることもできる。他のアプリケーションを実行させる場合は、そのアプリケーション処理部を入出力処理部101の外部に組み込むように構成することで、処理を実現することができる。
以上の説明では、主に指などの反射物がディスプレイ表面に接触、あるいは近接した場合について述べてきた。しかし、本発明における表示/受光パネル部120はディスプレイ表面に受光素子を二次元的に配置してあるので、これ以外の状況でも操作の指示が可能である。例えば、レーザーポインタなどの光源を複数使用する、あるいはビームの大きさを変える、ビームの形状を変える、更にはこれらを動かす、などによって操作の指示をしても良い。
あるいはディスプレイ上に他の物体の像を結像させる、または影を検出するなど、受光画像が形成でき、かつそれが変化させられるものであれば何を用いても良い。例えば、クリップがディスプレイ上に置かれたら、特定のアプリケーションの処理を実行する、または、ディスプレイ上に鍵を置き、その鍵を右方向に回転させると「ロック」、左方向へ回転させると「ロック解除」などの処理を実行させることも可能である。
ところで、上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。
この場合、図1の画像入出力装置1の少なくとも一部として、例えば、図44に示されるパーソナルコンピュータを採用してもよい。
図44において、CPU(Central Processing Unit)201は、ROM(Read Only Memory)202に記録されているプログラム、または記憶部208からRAM(Random Access Memory)203にロードされたプログラムに従って各種の処理を実行する。RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU201、ROM202、およびRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インタフェース205も接続されている。
入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイなどよりなる出力部207、ハードディスクなどより構成される記憶部208、および、モデム、ターミナルアダプタなどより構成される通信部209が接続されている。通信部209は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
入出力インタフェース205にはまた、必要に応じてドライブ210が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア211が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部208にインストールされる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
このようなプログラムを含む記録媒体は、図44に示されるように、装置本体とは別に、操作者にプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア(パッケージメディア)211により構成されるだけでなく、装置本体に予め組み込まれた状態で操作者に提供される、プログラムが記録されているROM202や、記憶部208に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。
本発明が適用される情報処理システムの機能的構成例を示す機能ブロック図である。 図1のコマンド認識/発行部17の詳細例を示す機能ブロック図である。 本発明の一実施の形態による表示装置の構成例を示すブロック図である。 本発明の一実施の形態による表示/受光ディスプレイパネルの例を示す構成図である。 本発明の一実施の形態による画素構成例を示す接続図である。 本発明の一実施の形態による表示と受光のタイミング例を示すタイミング図である。 本発明の一実施の形態による表示装置の操作例(1)を示す説明図である。 本発明の一実施の形態による画像処理例(1)を示すフローチャートである。 図8の処理のうちの画像処理(面積計算)の詳細例を示すフローチャートである。 図9の処理結果の具体例を示す図である。 図9の処理結果の具体例を示す図である。 図9の処理結果の具体例を示す図である。 図9の処理結果の具体例を示す図である。 図9の処理結果の具体例を示す図である。 図9の処理結果の具体例を示す図である。 図9の処理結果の具体例を示す図である。 図8の処理のうちの画像処理(位置計算)の詳細例を示すフローチャートである。 図17の処理結果の具体例を示す図である。 図17の処理結果の具体例を示す図である。 図17の処理結果の具体例を示す図である。 本発明の一実施の形態による表示装置の操作例(2)を示す説明図である。 本発明の一実施の形態による画像処理例(2)を示すフローチャートである。 本発明の一実施の形態による表示装置の操作例(3)を示す説明図である。 本発明の一実施の形態による画像処理例(3)を示すフローチャートである。 図24の処理のうちのステップS108の詳細例を示すフローチャートである。 図25の処理結果の具体例を示す図である。 図25のステップS108g乃至S108jの採用理由を説明する図である。 図24の処理のうちのステップS114の処理結果の具体例を示す図である。 図24の処理のうちのステップS114の詳細例を示すフローチャートである。 図24の処理のうちのステップS120の判断処理の判断手法例を説明する図である。 図24の処理のうちのステップS120の詳細例を示すフローチャートである。 図31の処理結果の具体例を示す図である。 図24の処理のうちのステップS122の判断処理の処理内容例を説明する図である。 図24の処理のうちのステップS122の判断処理の処理内容例を説明する図である。 図24の処理のうちのステップS123の判断処理の処理内容例を説明する図である。 本発明の一実施の形態による操作後画面例(1)を示す説明図である。 本発明の一実施の形態による表示装置の操作例(4)を示す説明図である。 本発明の一実施の形態による画像処理例(4)を示すフローチャートである。 本発明の一実施の形態による操作後画面例(2)を示す説明図である。 本発明の一実施の形態による表示装置の操作例(5)を示す説明図である。 本発明の一実施の形態による画像処理例(5)を示すフローチャートである。 本発明の一実施の形態による操作後画面例(3)を示す説明図である。 本発明の一実施の形態による画像処理例(6)を示すフローチャートである。 本発明が適用される処理をソフトウエアで実行するパーソナルコンピュータの構成例を示すブロック図である。
符号の説明
1 画像入出力装置, 2 情報処理装置, 11 表示画像生成部, 12 表示制御部, 13 表示部, 14 受光部, 15 受光画像生成部, 16 オブジェクト検出部, 17 コマンド認識/発行部, 21 検出結果保持部, 22 時間位置変化型コマンド認識部, 23 位置関係型コマンド認識部, 24 形状型コマンド認識部, 25 複合型コマンド認識部, 26 コマンド定義保持部, 27 コマンド発行部, 101 入出力処理部, 102 ドキュメント処理部, 110 表示信号生成部, 111 信号制御部, 112 表示信号ドライバ, 113 受光信号レシーバ, 114 受光画像生成部, 115 画像処理演算部, 116 指示判定部, 120 表示/受光パネル部, 121 表示エリア(センサエリア), 122 表示用水平ドライバ, 123 表示用垂直ドライバ, 124 センサ用垂直レシーバ, 125 センサ用水平レシーバ, 127 表示側スキャナ, 128 受光側スキャナ, 130 表示装置, 131 画素, 131a スイッチング素子, 131b 画素電極, 131c センサ素子, 131d リセットスイッチ, 131e コンデンサ, 131f バッファアンプ, 131g 読み出しスイッチ, 131h ゲート電極, 131i ドレイン電極, 131j 信号出力用電極, 131k リセット電極, 131m 読出し制御電極, f1 ,f2 ,f 3 指, 141 ,142 ,143 ,151 ,152 ,153 ,161 ,162 ,163 ,171 ,172 ,181 接触部, 201 CPU, 202 ROM, 203 RAM, 204 バス, 205 入出力インタフェース, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ, 211 リムーバブルメディア

Claims (5)

  1. 画像の表示と受光とを同時又は交互に行う表示装置において、
    マトリクス状に配置された複数の表示素子と、
    前記複数の表示素子に隣接して配置されて、表示面に入射した光の受光を行う複数の受光素子と、
    前記受光素子で受光した受光信号に基づいて、表示面に接触又は近接する物体の状態を画像データとして生成する受光画像生成部と、
    前記受光画像生成部で生成した画像データを基に、表示面に接触又は近接する物体の位置や大きさ、位置の変化の判定を行う画像処理演算部と、
    前記画像処理演算部で複数箇所の接触又は近接する物体の接触部を検出した場合に、その複数箇所の接触部の位置関係、又は接触部の移動位置変化、又は接触部の大きさに応じて、操作者の指示を判定する指示判定部とを備え、
    判定した指示に応じた所定の処理を実行することを特徴とする表示装置。
  2. 請求項1記載の表示装置において、
    前記所定の処理は、前記表示素子で表示させる表示画像を変化させる処理である
    ことを特徴とする表示装置。
  3. 請求項1記載の表示装置において、
    前記所定の処理は、前記表示素子で表示させる表示画像を生成させるアプリケーションの動作を変化させる処理である
    ことを特徴とする表示装置。
  4. 請求項1記載の表示装置において、
    前記画像処理演算部の処理において、検出する画像が表示面に置かれた物体の像又は近接した物体の影の形状である
    ことを特徴とする表示装置。
  5. 画像の表示と受光とを同時又は交互に行う表示方法において、
    マトリクス状に配置された複数の表示素子で表示を行い、
    前記複数の表示素子のそれぞれに近接して配置された受光素子が出力する受光信号に基づいて、表示面に接触又は近接した物体の接触部を検出し、
    前記複数箇所の接触又は近接した物体の接触部を検出した場合に、その複数箇所の接触部の位置関係、又は接触部の移動位置変化、又は接触部の大きさに応じて、所定の処理を行う
    ことを特徴とする表示方法。
JP2006246875A 2005-10-05 2006-09-12 表示装置および表示方法 Pending JP2007128497A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006246875A JP2007128497A (ja) 2005-10-05 2006-09-12 表示装置および表示方法
KR1020060097261A KR101454210B1 (ko) 2005-10-05 2006-10-02 표시장치 및 표시 방법
US11/537,825 US8704804B2 (en) 2005-10-05 2006-10-02 Display apparatus and display method
EP10179622A EP2261782A1 (en) 2005-10-05 2006-10-05 Display apparatus and display method
EP06121831.9A EP1772800B1 (en) 2005-10-05 2006-10-05 Display apparatus and display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005292605 2005-10-05
JP2006246875A JP2007128497A (ja) 2005-10-05 2006-09-12 表示装置および表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009233629A Division JP2010003325A (ja) 2005-10-05 2009-10-07 表示装置および表示方法

Publications (1)

Publication Number Publication Date
JP2007128497A true JP2007128497A (ja) 2007-05-24

Family

ID=37591719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006246875A Pending JP2007128497A (ja) 2005-10-05 2006-09-12 表示装置および表示方法

Country Status (4)

Country Link
US (1) US8704804B2 (ja)
EP (2) EP1772800B1 (ja)
JP (1) JP2007128497A (ja)
KR (1) KR101454210B1 (ja)

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129142A (ja) * 2007-11-22 2009-06-11 Sony Corp 記録再生装置
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
JP2009181453A (ja) * 2008-01-31 2009-08-13 Shotatsu Kagi Kofun Yugenkoshi タッチパッドの複数指触を検測する方法
JP2009193484A (ja) * 2008-02-18 2009-08-27 Seiko Epson Corp センシング装置、表示装置、電子機器およびセンシング方法
JP2009193482A (ja) * 2008-02-18 2009-08-27 Seiko Epson Corp センシング装置、表示装置、電子機器およびセンシング方法
JP2009193329A (ja) * 2008-02-14 2009-08-27 Sony Corp 表示装置および撮像装置
JP2009193483A (ja) * 2008-02-18 2009-08-27 Seiko Epson Corp センシング装置、表示装置、電子機器およびセンシング方法
JP2009193481A (ja) * 2008-02-18 2009-08-27 Seiko Epson Corp センシング装置、表示装置、電子機器およびセンシング方法
JP2010061299A (ja) * 2008-09-02 2010-03-18 Sony Corp 情報入力装置、情報入力方法、情報入出力装置および情報入力プログラム
JP2010067126A (ja) * 2008-09-12 2010-03-25 Sony Corp 情報処理装置、及び情報処理方法
JP2010086377A (ja) * 2008-10-01 2010-04-15 Sony Corp 入力装置および表示装置
WO2010052956A1 (ja) * 2008-11-04 2010-05-14 シャープ株式会社 エリアセンサ、およびエリアセンサ付き表示装置
JP2010129052A (ja) * 2008-12-01 2010-06-10 Sharp Corp 入力装置、入力方法、および入力プログラム
JP2010182185A (ja) * 2009-02-06 2010-08-19 Sharp Corp 電子機器、および表示制御方法
CN101813994A (zh) * 2010-04-16 2010-08-25 华映视讯(吴江)有限公司 触控位置辨识方法
JP2010225016A (ja) * 2009-03-25 2010-10-07 Sony Corp 電子機器、表示制御方法およびプログラム
JP2011003074A (ja) * 2009-06-19 2011-01-06 Sharp Corp 入力方法、入力装置及び電気機器
JP2011065519A (ja) * 2009-09-18 2011-03-31 Digital Electronics Corp タッチパネルのタッチ検出装置およびそのタッチ検出方法
JP2011070658A (ja) * 2009-08-24 2011-04-07 Semiconductor Energy Lab Co Ltd タッチセンサ及び表示装置
WO2011065553A1 (ja) * 2009-11-30 2011-06-03 シャープ株式会社 表示装置
WO2011065555A1 (ja) * 2009-11-30 2011-06-03 シャープ株式会社 表示装置
JP2011154553A (ja) * 2010-01-27 2011-08-11 Ricoh Co Ltd 情報処理装置、情報処理方法、プログラムおよび記憶媒体
JP2011525651A (ja) * 2008-06-23 2011-09-22 フラットフロッグ ラボラトリーズ アーベー 接触面上の複数の物体の位置を検出する方法
US8125580B2 (en) 2008-04-28 2012-02-28 Sony Corporation Liquid crystal display apparatus
JP2012053543A (ja) * 2010-08-31 2012-03-15 Canon Inc 情報処理装置及びその制御方法
JP2012064201A (ja) * 2010-08-19 2012-03-29 Semiconductor Energy Lab Co Ltd 入出力装置及び入出力装置の駆動方法
JP2012516017A (ja) * 2009-01-23 2012-07-12 クォルコム・メムズ・テクノロジーズ・インコーポレーテッド 集積発光及び光検出デバイス
US8350973B2 (en) 2008-06-13 2013-01-08 Sharp Kabushiki Kaisha Area sensor and display device including area sensor
JP2013503387A (ja) * 2009-08-31 2013-01-31 クアルコム,インコーポレイテッド モバイル装置用の感圧ユーザインターフェイス
US8390578B2 (en) 2008-02-18 2013-03-05 Sony Corporation Sensing device, display device, electronic apparatus, and sensing method
JP2013120598A (ja) * 2011-12-06 2013-06-17 Lg Display Co Ltd タッチ領域ラベリング方法及びタッチセンサ駆動装置
WO2013118227A1 (ja) * 2012-02-06 2013-08-15 パナソニック株式会社 情報処理装置
JP2013186540A (ja) * 2012-03-06 2013-09-19 Sony Corp 情報処理装置及び情報処理方法
JPWO2012043360A1 (ja) * 2010-09-29 2014-02-06 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、その制御方法及びプログラム
JP2014044711A (ja) * 2012-08-27 2014-03-13 Samsung Electronics Co Ltd タッチ機能制御方法及びその電子装置
US8686971B2 (en) 2008-02-20 2014-04-01 Japan Display West Inc. Liquid crystal display device and a method of manufacturing the same
US8890843B2 (en) 2008-06-23 2014-11-18 Flatfrog Laboratories Ab Detecting the location of an object on a touch surface
JP2014229002A (ja) * 2013-05-21 2014-12-08 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
US8952946B2 (en) 2008-12-25 2015-02-10 Sony Corporation Display panel, module, and electronic device
JP2015099472A (ja) * 2013-11-19 2015-05-28 アルプス電気株式会社 入力装置およびその情報入力方法
WO2015194019A1 (ja) * 2014-06-19 2015-12-23 三菱電機株式会社 表示制御装置及び表示制御装置の復元方法
JP2016157347A (ja) * 2015-02-25 2016-09-01 京セラ株式会社 電子機器、制御方法、及び制御プログラム
KR101761580B1 (ko) 2010-09-08 2017-07-27 엘지디스플레이 주식회사 터치 센서를 갖는 표시 장치

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7821524B2 (en) * 2007-06-26 2010-10-26 Microsoft Corporation Adaptive contextual filtering
CN101952794A (zh) * 2008-03-14 2011-01-19 夏普株式会社 区域传感器和带区域传感器的显示装置
US9372591B2 (en) * 2008-04-10 2016-06-21 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
KR101077854B1 (ko) * 2008-05-22 2011-10-31 (주)멜파스 복수의 접촉 입력을 감지하는 방법 및 장치
TW201001258A (en) * 2008-06-23 2010-01-01 Flatfrog Lab Ab Determining the location of one or more objects on a touch surface
TWI394449B (zh) * 2008-07-25 2013-04-21 Qisda Corp 顯示裝置
SE533704C2 (sv) 2008-12-05 2010-12-07 Flatfrog Lab Ab Pekkänslig apparat och förfarande för drivning av densamma
KR101604030B1 (ko) 2009-06-16 2016-03-16 삼성전자주식회사 어레이 방식의 후방 카메라를 이용한 멀티터치 센싱 장치
US20110039602A1 (en) * 2009-08-13 2011-02-17 Mcnamara Justin Methods And Systems For Interacting With Content On A Mobile Device
US20110074695A1 (en) * 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface Using Mid-Drag Gestures
US20110074696A1 (en) * 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface Using Mid-Drag Gestures
US20110074830A1 (en) * 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface Using Mid-Drag Gestures
WO2011037733A1 (en) * 2009-09-25 2011-03-31 Apple Inc. Device, method, and graphical user interface using mid-drag gestures
US9335854B2 (en) * 2009-09-30 2016-05-10 Sharp Kabushiki Kaisha Display device
JP5269203B2 (ja) * 2009-09-30 2013-08-21 シャープ株式会社 表示装置
CN101853133B (zh) * 2010-05-31 2013-03-20 中兴通讯股份有限公司 一种自动识别手势的方法及移动终端
WO2012014865A1 (ja) * 2010-07-27 2012-02-02 シャープ株式会社 表示装置およびその駆動方法
KR20120079579A (ko) * 2011-01-05 2012-07-13 삼성전자주식회사 멀티 터치를 이용한 화면 크기 변경 방법 및 장치
TW201316240A (zh) * 2011-10-06 2013-04-16 Rich Ip Technology Inc 利用圖形用戶介面影像之觸碰處理方法及系統
KR20130064458A (ko) * 2011-12-08 2013-06-18 삼성전자주식회사 복수 개의 영역으로 구분된 화면을 디스플레이하는 디스플레이 장치 및 그 방법
USD747337S1 (en) * 2012-05-17 2016-01-12 Samsung Electronics Co., Ltd. Display of a handheld terminal with graphical user interface
US10168835B2 (en) 2012-05-23 2019-01-01 Flatfrog Laboratories Ab Spatial resolution in touch displays
US10019113B2 (en) 2013-04-11 2018-07-10 Flatfrog Laboratories Ab Tomographic processing for touch detection
US9874978B2 (en) 2013-07-12 2018-01-23 Flatfrog Laboratories Ab Partial detect mode
US9612736B2 (en) * 2013-07-17 2017-04-04 Korea Advanced Institute Of Science And Technology User interface method and apparatus using successive touches
US10126882B2 (en) 2014-01-16 2018-11-13 Flatfrog Laboratories Ab TIR-based optical touch systems of projection-type
WO2015108479A1 (en) 2014-01-16 2015-07-23 Flatfrog Laboratories Ab Light coupling in tir-based optical touch systems
US10161886B2 (en) 2014-06-27 2018-12-25 Flatfrog Laboratories Ab Detection of surface contamination
US11182023B2 (en) 2015-01-28 2021-11-23 Flatfrog Laboratories Ab Dynamic touch quarantine frames
US10318074B2 (en) 2015-01-30 2019-06-11 Flatfrog Laboratories Ab Touch-sensing OLED display with tilted emitters
CN107209609A (zh) 2015-02-09 2017-09-26 平蛙实验室股份公司 包括在传输面板上方和内部投射和检测光束的装置的光学触摸系统
WO2016140612A1 (en) 2015-03-02 2016-09-09 Flatfrog Laboratories Ab Optical component for light coupling
US10234990B2 (en) * 2015-09-29 2019-03-19 Microchip Technology Incorporated Mapping of position measurements to objects using a movement model
CN108369470B (zh) 2015-12-09 2022-02-08 平蛙实验室股份公司 改进的触控笔识别
WO2018096430A1 (en) 2016-11-24 2018-05-31 Flatfrog Laboratories Ab Automatic optimisation of touch signal
PT3667475T (pt) 2016-12-07 2022-10-17 Flatfrog Lab Ab Dispositivo tátil curvo
US10963104B2 (en) 2017-02-06 2021-03-30 Flatfrog Laboratories Ab Optical coupling in touch-sensing systems
US10481737B2 (en) 2017-03-22 2019-11-19 Flatfrog Laboratories Ab Pen differentiation for touch display
CN110663015A (zh) 2017-03-28 2020-01-07 平蛙实验室股份公司 触摸感应装置和用于组装的方法
CN117311543A (zh) 2017-09-01 2023-12-29 平蛙实验室股份公司 触摸感测设备
WO2019172826A1 (en) 2018-03-05 2019-09-12 Flatfrog Laboratories Ab Improved touch-sensing apparatus
US11943563B2 (en) 2019-01-25 2024-03-26 FlatFrog Laboratories, AB Videoconferencing terminal and method of operating the same
CN115039063A (zh) 2020-02-10 2022-09-09 平蛙实验室股份公司 改进的触摸感测设备
TWI815244B (zh) * 2020-12-14 2023-09-11 瑞士商艾姆微體電子 馬林公司 指向裝置之位移的感測裝置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4761637A (en) 1984-06-18 1988-08-02 Carroll Touch Inc. Touch input device
DE69430967T2 (de) 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
JPH07230352A (ja) 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
JPH07261932A (ja) * 1994-03-18 1995-10-13 Hitachi Ltd センサ内蔵型液晶表示装置及びこれを用いた情報処理システム
JPH07261943A (ja) 1994-03-25 1995-10-13 Hitachi Ltd データのエラー訂正方法および装置
JP3529510B2 (ja) 1995-09-28 2004-05-24 株式会社東芝 情報入力装置および情報入力装置の制御方法
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
CA2256335A1 (en) 1996-05-29 1997-12-04 Deutsche Telekom Ag A device for inputting data
JPH10198515A (ja) 1997-01-08 1998-07-31 Nippon Avionics Co Ltd タッチ入力機能付き表示装置
WO1998042125A1 (fr) 1997-03-19 1998-09-24 Hitachi, Ltd. Systeme de capture d'image
JPH1173271A (ja) 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JPH11272422A (ja) 1998-03-19 1999-10-08 Ricoh Co Ltd コンピュータ入力装置
JP2000163443A (ja) 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP3867226B2 (ja) 2000-02-15 2007-01-10 株式会社 ニューコム 複数の指示部位で操作可能なタッチパネルシステム
JP2001356878A (ja) 2000-06-14 2001-12-26 Hitachi Ltd アイコン制御方法
JP2002175532A (ja) 2000-12-08 2002-06-21 Fuji Xerox Co Ltd 画像処理装置、画像処理方法および画像処理プログラムを記録した記憶媒体
JP2003234945A (ja) 2002-02-07 2003-08-22 Casio Comput Co Ltd フォトセンサシステム及びその駆動制御方法
US7006080B2 (en) * 2002-02-19 2006-02-28 Palm, Inc. Display system
JP2004013615A (ja) 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd 移動物体監視装置
JP2004228770A (ja) 2003-01-21 2004-08-12 Minolta Co Ltd 画像処理システム
JP4257221B2 (ja) 2003-03-31 2009-04-22 東芝松下ディスプレイテクノロジー株式会社 表示装置および情報端末装置
JP4332707B2 (ja) 2003-05-12 2009-09-16 ソニー株式会社 操作入力受付装置、操作入力受付方法および遠隔操作システム
US7586479B2 (en) * 2004-06-10 2009-09-08 Samsung Electronics Co., Ltd. Display device and driving method thereof
JP2006039686A (ja) * 2004-07-22 2006-02-09 Pioneer Electronic Corp タッチパネル装置、タッチ領域検出方法およびタッチ領域検出プログラム
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US7313288B2 (en) * 2005-04-20 2007-12-25 Cypress Semiconductor Corporation Defect pixel correction in an image sensor

Cited By (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529444B2 (en) 2007-11-22 2016-12-27 Sony Corporation Recording and reproducing apparatus
US8872760B2 (en) 2007-11-22 2014-10-28 Sony Corporation Recording and reproducing apparatus
JP2009129142A (ja) * 2007-11-22 2009-06-11 Sony Corp 記録再生装置
JP4670860B2 (ja) * 2007-11-22 2011-04-13 ソニー株式会社 記録再生装置
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
JP2009181453A (ja) * 2008-01-31 2009-08-13 Shotatsu Kagi Kofun Yugenkoshi タッチパッドの複数指触を検測する方法
JP2009193329A (ja) * 2008-02-14 2009-08-27 Sony Corp 表示装置および撮像装置
US8797275B2 (en) 2008-02-14 2014-08-05 Japan Display West Inc. Display apparatus and image pickup apparatus
JP4626658B2 (ja) * 2008-02-14 2011-02-09 ソニー株式会社 表示装置、撮像装置および位置検出装置
JP4720833B2 (ja) * 2008-02-18 2011-07-13 ソニー株式会社 センシング装置、表示装置、電子機器およびセンシング方法
JP2009193481A (ja) * 2008-02-18 2009-08-27 Seiko Epson Corp センシング装置、表示装置、電子機器およびセンシング方法
JP2009193483A (ja) * 2008-02-18 2009-08-27 Seiko Epson Corp センシング装置、表示装置、電子機器およびセンシング方法
JP2009193482A (ja) * 2008-02-18 2009-08-27 Seiko Epson Corp センシング装置、表示装置、電子機器およびセンシング方法
US8390578B2 (en) 2008-02-18 2013-03-05 Sony Corporation Sensing device, display device, electronic apparatus, and sensing method
JP4645658B2 (ja) * 2008-02-18 2011-03-09 ソニー株式会社 センシング装置、表示装置、電子機器およびセンシング方法
JP2009193484A (ja) * 2008-02-18 2009-08-27 Seiko Epson Corp センシング装置、表示装置、電子機器およびセンシング方法
US8686971B2 (en) 2008-02-20 2014-04-01 Japan Display West Inc. Liquid crystal display device and a method of manufacturing the same
US8125580B2 (en) 2008-04-28 2012-02-28 Sony Corporation Liquid crystal display apparatus
US8350973B2 (en) 2008-06-13 2013-01-08 Sharp Kabushiki Kaisha Area sensor and display device including area sensor
JP2011525651A (ja) * 2008-06-23 2011-09-22 フラットフロッグ ラボラトリーズ アーベー 接触面上の複数の物体の位置を検出する方法
US9134854B2 (en) 2008-06-23 2015-09-15 Flatfrog Laboratories Ab Detecting the locations of a plurality of objects on a touch surface
US8890843B2 (en) 2008-06-23 2014-11-18 Flatfrog Laboratories Ab Detecting the location of an object on a touch surface
JP2010061299A (ja) * 2008-09-02 2010-03-18 Sony Corp 情報入力装置、情報入力方法、情報入出力装置および情報入力プログラム
US8487886B2 (en) 2008-09-02 2013-07-16 Japan Display West Inc. Information input device, information input method, information input/output device, and information input program
JP4605279B2 (ja) * 2008-09-12 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2010067126A (ja) * 2008-09-12 2010-03-25 Sony Corp 情報処理装置、及び情報処理方法
US8384744B2 (en) 2008-09-12 2013-02-26 Sony Corporation Information processing apparatus and information processing method
JP2010086377A (ja) * 2008-10-01 2010-04-15 Sony Corp 入力装置および表示装置
WO2010052956A1 (ja) * 2008-11-04 2010-05-14 シャープ株式会社 エリアセンサ、およびエリアセンサ付き表示装置
JP2010129052A (ja) * 2008-12-01 2010-06-10 Sharp Corp 入力装置、入力方法、および入力プログラム
US8952946B2 (en) 2008-12-25 2015-02-10 Sony Corporation Display panel, module, and electronic device
JP2012516017A (ja) * 2009-01-23 2012-07-12 クォルコム・メムズ・テクノロジーズ・インコーポレーテッド 集積発光及び光検出デバイス
JP2010182185A (ja) * 2009-02-06 2010-08-19 Sharp Corp 電子機器、および表示制御方法
JP2010225016A (ja) * 2009-03-25 2010-10-07 Sony Corp 電子機器、表示制御方法およびプログラム
JP2011003074A (ja) * 2009-06-19 2011-01-06 Sharp Corp 入力方法、入力装置及び電気機器
JP2015015043A (ja) * 2009-08-24 2015-01-22 株式会社半導体エネルギー研究所 表示装置
JP2011070658A (ja) * 2009-08-24 2011-04-07 Semiconductor Energy Lab Co Ltd タッチセンサ及び表示装置
KR101761543B1 (ko) 2009-08-24 2017-07-26 가부시키가이샤 한도오따이 에네루기 켄큐쇼 터치 센서 및 터치 센서의 구동 방법 및 표시 장치
US9542022B2 (en) 2009-08-24 2017-01-10 Semiconductor Energy Laboratory Co., Ltd. Touch sensor and method for driving the same and display device
JP2013503387A (ja) * 2009-08-31 2013-01-31 クアルコム,インコーポレイテッド モバイル装置用の感圧ユーザインターフェイス
JP2011065519A (ja) * 2009-09-18 2011-03-31 Digital Electronics Corp タッチパネルのタッチ検出装置およびそのタッチ検出方法
WO2011065553A1 (ja) * 2009-11-30 2011-06-03 シャープ株式会社 表示装置
WO2011065555A1 (ja) * 2009-11-30 2011-06-03 シャープ株式会社 表示装置
US8373825B2 (en) 2009-11-30 2013-02-12 Sharp Kabushiki Kaisha Display device
JP2011154553A (ja) * 2010-01-27 2011-08-11 Ricoh Co Ltd 情報処理装置、情報処理方法、プログラムおよび記憶媒体
CN101813994A (zh) * 2010-04-16 2010-08-25 华映视讯(吴江)有限公司 触控位置辨识方法
JP2016173829A (ja) * 2010-08-19 2016-09-29 株式会社半導体エネルギー研究所 入出力装置の作製方法、及び入出力装置
JP2012064201A (ja) * 2010-08-19 2012-03-29 Semiconductor Energy Lab Co Ltd 入出力装置及び入出力装置の駆動方法
JP2012053543A (ja) * 2010-08-31 2012-03-15 Canon Inc 情報処理装置及びその制御方法
KR101761580B1 (ko) 2010-09-08 2017-07-27 엘지디스플레이 주식회사 터치 센서를 갖는 표시 장치
JP2016105338A (ja) * 2010-09-29 2016-06-09 日本電気株式会社 情報処理装置、その制御方法及びプログラム
JPWO2012043360A1 (ja) * 2010-09-29 2014-02-06 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、その制御方法及びプログラム
US9612731B2 (en) 2010-09-29 2017-04-04 Nec Corporation Information processing device, control method for the same and program
JP2013120598A (ja) * 2011-12-06 2013-06-17 Lg Display Co Ltd タッチ領域ラベリング方法及びタッチセンサ駆動装置
US9182848B2 (en) 2011-12-06 2015-11-10 Lg Display Co., Ltd. Labeling touch regions of a display device
US8847901B2 (en) 2011-12-06 2014-09-30 Lg Display Co., Ltd. Labeling touch regions of a display device
WO2013118227A1 (ja) * 2012-02-06 2013-08-15 パナソニック株式会社 情報処理装置
JP2013186540A (ja) * 2012-03-06 2013-09-19 Sony Corp 情報処理装置及び情報処理方法
JP2014044711A (ja) * 2012-08-27 2014-03-13 Samsung Electronics Co Ltd タッチ機能制御方法及びその電子装置
US10228840B2 (en) 2012-08-27 2019-03-12 Samsung Electronics Co., Ltd. Method of controlling touch function and an electronic device thereof
JP2014229002A (ja) * 2013-05-21 2014-12-08 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
JP2015099472A (ja) * 2013-11-19 2015-05-28 アルプス電気株式会社 入力装置およびその情報入力方法
WO2015194019A1 (ja) * 2014-06-19 2015-12-23 三菱電機株式会社 表示制御装置及び表示制御装置の復元方法
JP2016157347A (ja) * 2015-02-25 2016-09-01 京セラ株式会社 電子機器、制御方法、及び制御プログラム

Also Published As

Publication number Publication date
EP1772800A2 (en) 2007-04-11
US20070120833A1 (en) 2007-05-31
US8704804B2 (en) 2014-04-22
EP2261782A1 (en) 2010-12-15
EP1772800A3 (en) 2007-05-16
KR20070038430A (ko) 2007-04-10
KR101454210B1 (ko) 2014-10-23
EP1772800B1 (en) 2015-07-29

Similar Documents

Publication Publication Date Title
JP2007128497A (ja) 表示装置および表示方法
JP2010003325A (ja) 表示装置および表示方法
JP2008097172A (ja) 表示装置および表示方法
JP5274507B2 (ja) タッチ動作認識方法及び装置
US8446376B2 (en) Visual response to touch inputs
JP5240773B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR100958643B1 (ko) 터치 스크린 디스플레이 장치 및 이의 구동 방법
US20100238139A1 (en) Optical touch screen systems using wide light beams
JP2008305087A (ja) 表示装置
KR101672343B1 (ko) 광터치 패널 및 그 구동 방법
US10318152B2 (en) Modifying key size on a touch screen based on fingertip location
JP5027075B2 (ja) 画像処理装置、画像入力装置および画像入出力装置
JP5322163B2 (ja) 表示装置、表示方法、および表示プログラム
US20120212440A1 (en) Input motion analysis method and information processing device
US20130290901A1 (en) Remote control, display device, television receiver device, and program for remote control
TWI534687B (zh) 光學觸控系統及其物件分析方法
JP5840302B2 (ja) タッチパネル付き表示装置およびプログラム
CN104915066A (zh) 互动投影装置及其触控位置判断方法
CN102129332A (zh) 一种图像识别的触摸点的检测方法及装置
TW201027407A (en) Light compensation method
JP2014006500A (ja) 表示パネルおよび表示装置
US20110148821A1 (en) Infrared Screen-Type Space Touch Apparatus
JP2003208259A (ja) 座標入力表示装置
JP4615178B2 (ja) 情報入出力システム、プログラムおよび記憶媒体
WO2011121842A1 (ja) 入力部付き表示装置およびその制御方法、並びに制御プログラムおよび記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091007

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20091014

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20091218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801