JP2008257061A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2008257061A
JP2008257061A JP2007100884A JP2007100884A JP2008257061A JP 2008257061 A JP2008257061 A JP 2008257061A JP 2007100884 A JP2007100884 A JP 2007100884A JP 2007100884 A JP2007100884 A JP 2007100884A JP 2008257061 A JP2008257061 A JP 2008257061A
Authority
JP
Japan
Prior art keywords
target
input
frame
display
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007100884A
Other languages
Japanese (ja)
Other versions
JP4333768B2 (en
Inventor
Ryoichi Tsuzaki
亮一 津崎
Kazunori Yamaguchi
和範 山口
Tsutomu Harada
勉 原田
Mitsuru Tateuchi
満 建内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007100884A priority Critical patent/JP4333768B2/en
Priority to TW097109499A priority patent/TWI387903B/en
Priority to US12/061,131 priority patent/US20080246722A1/en
Priority to KR1020080031622A priority patent/KR101515868B1/en
Priority to CN2008100911273A priority patent/CN101281445B/en
Publication of JP2008257061A publication Critical patent/JP2008257061A/en
Application granted granted Critical
Publication of JP4333768B2 publication Critical patent/JP4333768B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • G09G3/3648Control of matrices with row and column drivers using an active matrix
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/08Active matrix structure, i.e. with use of active elements, inclusive of non-linear two terminal elements, in the pixels together with light emitting or modulating elements
    • G09G2300/0809Several active elements per pixel in active matrix panels
    • G09G2300/0842Several active elements per pixel in active matrix panels forming a memory circuit, e.g. a dynamic memory with one capacitor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/141Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light conveying information used for selecting or modulating the light emitting or modulating element
    • G09G2360/142Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light conveying information used for selecting or modulating the light emitting or modulating element the light being detected by light detection means within each pixel

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a display screen from being damaged or stained. <P>SOLUTION: The display screen 51A of a main body part 51 of an input/output display 22 which displays an image and detects light corresponding to external input and can perform input to a plurality of points on the display screen 51A is covered with a protective member 52 on a transparent sheet. For example, the present invention is applicable to a mobile phone having an input/output display. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、表示装置に関し、特に、画像の表示と外部からの入力に対応する光の検出を行う入出力部を有する表示装置に関する。   The present invention relates to a display device, and more particularly to a display device having an input / output unit that performs image display and detection of light corresponding to external input.

パネル上の点に関する情報を、複数の点について出力可能なパネルとして、例えば、液晶表示装置に光センサを内蔵させ、外部からの光の入力を光センサで検出することにより、光による入力が可能な表示パネル(以下、入出力パネルとも称する)が提案されている(例えば、特許文献1参照)。   As a panel that can output information about points on the panel for multiple points, for example, a liquid crystal display device has a built-in photosensor, and light input from the outside can be detected by the photosensor. A display panel (hereinafter also referred to as an input / output panel) has been proposed (see, for example, Patent Document 1).

入出力パネルにおいて、光による入力を検出する方法としては、大きく分けて、LED(Light Emitting Diode)等の外部光源を持つ物体(例えば、ペンなど)をユーザに操作させる方法と、そのような外部光源を持たない指やペン等で入力操作させ、液晶表示装置が発する光、つまり、液晶表示装置のバックライトの透過光が、液晶表示装置の表示画面に近づいている指やペンで反射して液晶表示装置の内部に戻ってくる光を光センサで検出する方法とがある。   In the input / output panel, the method of detecting input by light can be broadly divided into a method in which a user operates an object (for example, a pen) having an external light source such as an LED (Light Emitting Diode), and such an external device. The input operation is performed with a finger or pen that does not have a light source, and the light emitted by the liquid crystal display device, that is, the transmitted light of the backlight of the liquid crystal display device is reflected by the finger or pen approaching the display screen of the liquid crystal display device. There is a method in which light returning to the inside of the liquid crystal display device is detected by an optical sensor.

また、静電式や感圧式のタッチパネルでは、外部からの入力に対して、その入力があったタッチパネル上の点に関する情報(例えば、点の座標等)である点情報が出力されるが、その点情報は、1つの点についてのみ出力可能であった。   In addition, in an electrostatic or pressure-sensitive touch panel, point information that is information on a point on the touch panel where the input has been made (for example, the coordinates of the point) is output. The point information can be output only for one point.

すなわち、例えば、ユーザが、タッチパネル上の2つの点にタッチしても、タッチパネルでは、その2つの点のうちの、圧力の強い方の点や、先にタッチされた方の点等の1つの点のみについて、点情報が出力される。   That is, for example, even when the user touches two points on the touch panel, one of the two points on the touch panel, such as the point with the stronger pressure or the point touched first, is selected. Point information is output only for points.

これに対して、入出力パネルでは、複数の点の点情報を出力することができ、今後、従来のタッチパネルが適用されていた製品等のアプリケーションへの適用が期待されている。   On the other hand, the input / output panel can output point information of a plurality of points, and is expected to be applied to applications such as products to which a conventional touch panel is applied in the future.

特開2004−127272号公報JP 2004-127272 A

入出力パネルの表示画面は、画像の表示を行うととともに、外部から入射する光を受光する受光面でもある。従って、表示画面が損傷したり、埃、手垢などにより汚れたりすると、視認性とともに、受光感度も低下してしまう。   The display screen of the input / output panel is a light receiving surface that displays an image and receives light incident from the outside. Therefore, if the display screen is damaged or becomes dirty due to dust, dirt, etc., not only the visibility but also the light receiving sensitivity is lowered.

本発明は、このような状況に鑑みてなされたものであり、表示画面の損傷および汚れを防止できるようにするものである。   The present invention has been made in view of such circumstances, and is intended to prevent damage and contamination of the display screen.

本発明の一側面の表示装置は、画像の表示と外部からの入力に対応する光の検出を行う入出力部を有し、前記入出力部の表示画面上の複数の点に対する入力が可能な表示装置であって、前記表示画面が透明または半透明なシート状の保護部材により覆われている。   A display device according to one aspect of the present invention includes an input / output unit that performs image display and detection of light corresponding to input from the outside, and can input a plurality of points on the display screen of the input / output unit. In the display device, the display screen is covered with a transparent or translucent sheet-like protective member.

前記保護部材の表面には所定の形の凹または凸状の加工を施すようにすることができる。   The surface of the protective member can be processed to have a predetermined concave or convex shape.

前記保護部材の表面には前記表示画面に表示される操作部に対応した形の凹または凸状の加工を施すようにすることができる。   The surface of the protective member can be processed to have a concave or convex shape corresponding to the operation portion displayed on the display screen.

前記保護部材は有色にすることができる。   The protective member can be colored.

本発明の一側面においては、画像の表示と外部からの入力に対応する光の検出を行う入出力部を有し、前記入出力部の表示画面上の複数の点に対する入力が可能な表示装置の前記表示画面が、透明または半透明なシート状の保護部材により覆われている。   In one aspect of the present invention, the display device includes an input / output unit that displays an image and detects light corresponding to an input from the outside, and is capable of inputting to a plurality of points on the display screen of the input / output unit. The display screen is covered with a transparent or translucent sheet-like protective member.

本発明の一側面によれば、画像の表示と外部からの入力に対応する光の検出を行う入出力部を有する表示装置の表示画面の損傷および汚れを防止することができ、表示装置の視認性および受光感度の低下を防止することができる。   According to one aspect of the present invention, it is possible to prevent damage and dirt on a display screen of a display device having an input / output unit that performs display of an image and detection of light corresponding to input from the outside. And deterioration of light receiving sensitivity can be prevented.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の表示装置は、画像の表示と外部からの入力に対応する光の検出を行う入出力部(例えば、図1の入出力ディスプレイ22)を有し、前記入出力部の表示画面上の複数の点に対する入力が可能な表示装置であって、前記表示画面(例えば、図2の表示画面51A)が透明または半透明なシート状の保護部材(例えば、図2の保護部材52、図15の保護部材211、図16の保護部材231、または、図16の保護部材261)により覆われている。   A display device according to one aspect of the present invention includes an input / output unit (for example, the input / output display 22 in FIG. 1) that performs display of an image and detection of light corresponding to input from the outside. A display device capable of inputting to a plurality of points on the screen, wherein the display screen (for example, the display screen 51A in FIG. 2) is a transparent or translucent sheet-like protective member (for example, the protective member 52 in FIG. 2). 15, the protective member 231 in FIG. 16, or the protective member 261 in FIG. 16.

以下、図面を参照して本発明を適用した実施の形態について説明する。   Embodiments to which the present invention is applied will be described below with reference to the drawings.

図1は、本発明を適用した表示システムの一実施の形態の構成例を示すブロック図である。   FIG. 1 is a block diagram showing a configuration example of an embodiment of a display system to which the present invention is applied.

図1において、表示システム1は、例えば、携帯電話機やTV(Television)受像機等を構成する。   In FIG. 1, a display system 1 constitutes, for example, a mobile phone or a TV (Television) receiver.

表示システム1は、アンテナ10、信号処理部11、制御部12、記憶部13、操作部14、通信部15、及び入出力パネル16から構成される。   The display system 1 includes an antenna 10, a signal processing unit 11, a control unit 12, a storage unit 13, an operation unit 14, a communication unit 15, and an input / output panel 16.

信号処理部11は、アンテナ10で受信された地上波や衛星波等のテレビジョン放送の放送電波を復調し、その結果得られる画像データ及び音声データを制御部12に供給する。   The signal processing unit 11 demodulates a broadcast wave of a television broadcast such as a ground wave or a satellite wave received by the antenna 10 and supplies image data and audio data obtained as a result to the control unit 12.

制御部12は、操作部14から供給されるユーザの操作に対応する操作信号に基づいて、各種の処理を行い、その過程で一時的に記憶すべきデータを、記憶部13に供給する。また、制御部12は、信号処理部11から供給される画像データ等を入出力パネル16に供給する。さらに、制御部12は、入出力パネル16から供給される、後述するターゲットとイベントの情報に基づいて、必要に応じて、画像データを、入出力パネル16の入出力ディスプレイ22に供給することにより、入出力ディスプレイ22の表示状態を変更させる等の表示制御を行う。   The control unit 12 performs various processes based on operation signals corresponding to user operations supplied from the operation unit 14, and supplies data to be temporarily stored in the process to the storage unit 13. Further, the control unit 12 supplies the image data supplied from the signal processing unit 11 to the input / output panel 16. Further, the control unit 12 supplies image data to the input / output display 22 of the input / output panel 16 as needed based on target and event information described later supplied from the input / output panel 16. Display control such as changing the display state of the input / output display 22 is performed.

記憶部13は、例えば、RAM(Random Access Memory)から構成される。記憶部13は、制御部12から供給されるデータを一時的に記憶する。   The storage unit 13 is composed of, for example, a RAM (Random Access Memory). The storage unit 13 temporarily stores data supplied from the control unit 12.

操作部14は、例えば、テンキー、キーボード等から構成される。操作部14は、ユーザによって操作されることにより、その操作に対応する操作信号を生成し、制御部12に供給する。   The operation unit 14 includes, for example, a numeric keypad and a keyboard. When operated by the user, the operation unit 14 generates an operation signal corresponding to the operation and supplies the operation signal to the control unit 12.

通信部15は、例えば、図示せぬ無線局との間で無線電波を用いて通信を行う。   For example, the communication unit 15 communicates with a radio station (not shown) using radio waves.

入出力パネル16は、制御部12から供給される画像データに対応する画像を入出力ディスプレイ22に表示するとともに、入出力ディスプレイ22から出力される受光信号から検出される1以上の点に対する入力の情報に、後述する統合処理と認識処理を施すことにより、ターゲットとイベントの情報を生成し、制御部12に供給する。   The input / output panel 16 displays an image corresponding to the image data supplied from the control unit 12 on the input / output display 22 and inputs to one or more points detected from the light reception signal output from the input / output display 22. By performing integration processing and recognition processing described later on the information, target and event information is generated and supplied to the control unit 12.

すなわち、入出力パネル16は、表示信号処理部21、入出力ディスプレイ22、受光信号処理部23、画像処理部24、及び生成部25から構成される。   That is, the input / output panel 16 includes a display signal processing unit 21, an input / output display 22, a received light signal processing unit 23, an image processing unit 24, and a generation unit 25.

表示信号処理部21は、制御部12から供給される画像データに対して、入出力ディスプレイ22に表示するための処理を施し、その結果得られる画像データを、入出力ディスプレイ22に供給する。   The display signal processing unit 21 performs processing for displaying the image data supplied from the control unit 12 on the input / output display 22 and supplies the resulting image data to the input / output display 22.

入出力ディスプレイ22は、画像の表示と、外部からの入力に対応する光の検出とを行う。すなわち、入出力ディスプレイ22は、表示信号処理部21から供給される画像データに対応する画像を、その表示画面に表示する。また、入出力ディスプレイ22は、例えば、表示画面全体に分布するように配置された複数の光センサ22Aを内蔵し、外部から入射する光を受光し、その光の受光量に対応する受光信号を生成して、受光信号処理部23に供給する。   The input / output display 22 displays an image and detects light corresponding to an input from the outside. That is, the input / output display 22 displays an image corresponding to the image data supplied from the display signal processing unit 21 on its display screen. The input / output display 22 includes, for example, a plurality of optical sensors 22A arranged so as to be distributed over the entire display screen, receives light incident from the outside, and receives a light reception signal corresponding to the amount of light received. It is generated and supplied to the received light signal processing unit 23.

受光信号処理部23は、入出力ディスプレイ22から供給される受光信号に対して、所定の処理を施すことにより、入出力ディスプレイ22の表示画面に対して、ユーザの指等が近接または接触している部分と、何も近接および接触していない部分とで輝度が異なる画像を、フレームごとに得て、画像処理部24に供給する。   The light reception signal processing unit 23 performs predetermined processing on the light reception signal supplied from the input / output display 22 so that the user's finger or the like approaches or touches the display screen of the input / output display 22. Images having different brightness between the existing portion and the portion where nothing is in proximity or in contact are obtained for each frame and supplied to the image processing unit 24.

画像処理部24は、受光信号処理部23から供給される各フレームの画像に対して、2値化、ノイズ除去、ラベリング等の画像処理を施すことにより、入出力ディスプレイ22の表示画面に指等の物体が近接または接触している部分(領域)を、外部からの入力があった入力部分として検出し、その入力部分の情報、すなわち、例えば、その入力部分を代表する表示画面上の点の座標である代表座標等の入力があった表示画面上の点に関する点情報、つまり、入力部分の点情報を得て、生成部25に供給する。   The image processing unit 24 performs image processing such as binarization, noise removal, and labeling on the image of each frame supplied from the light reception signal processing unit 23, thereby providing a finger or the like on the display screen of the input / output display 22. The part (area) where the object is in close proximity or in contact is detected as an input part that has been input from the outside, and the information of the input part, for example, the point on the display screen that represents the input part. Point information relating to points on the display screen where the representative coordinates or the like as coordinates are input, that is, point information of the input portion, is obtained and supplied to the generation unit 25.

生成部25は、画像処理部24から供給される入力部分の点情報に、後述の統合処理を施すことにより、ターゲットの情報を生成する。さらに、生成部25は、ターゲットの情報に基づいて、後述の認識処理を行うことにより、ターゲットの状態の変化を表すイベントの情報を生成する。なお、統合処理でも、一部のイベントの情報が生成される。   The generating unit 25 generates target information by performing integration processing described later on the point information of the input portion supplied from the image processing unit 24. Furthermore, the generation unit 25 generates event information indicating a change in the state of the target by performing a recognition process described later based on the target information. Even in the integration process, information on some events is generated.

すなわち、生成部25は、ターゲット生成部31、イベント生成部32、及び記憶部33から構成され、ターゲットとイベントの情報を、フレームごとに生成し、制御部12に供給する。   That is, the generation unit 25 includes a target generation unit 31, an event generation unit 32, and a storage unit 33. The generation unit 25 generates target and event information for each frame and supplies the information to the control unit 12.

入出力ディスプレイ22に対しては、その表示画面に、例えば、指等を近接または接触することにより、入力を行うことができるが、この入出力ディスプレイ22に対する一連の入力が、ターゲットである。すなわち、例えば、入出力ディスプレイ22の表示画面に対して、指が近接または接触し、その近接または接触が維持されながら指が移動し、指の近接および接触が解除されるまでに行われる、入出力ディスプレイ22の表示画面への一連の入力がターゲットとなる。   The input / output display 22 can be input by, for example, bringing a finger or the like close to or touching the display screen. A series of inputs to the input / output display 22 is a target. That is, for example, when the finger approaches or comes into contact with the display screen of the input / output display 22, the finger moves while the proximity or contact is maintained, and the approach and contact of the finger are released. A series of inputs to the display screen of the output display 22 is a target.

また、イベントは、ターゲットの状態の変化を表し、例えば、ターゲットの位置が移動したことや、ターゲットが新たに出現した(生成された)こと、ターゲットが消滅した(削除された)こと等を表す。   The event represents a change in the state of the target. For example, the event indicates that the target position has moved, the target has newly appeared (generated), the target has disappeared (deleted), or the like. .

生成部25のターゲット生成部31は、画像処理部24から供給されるフレームごとの入力部分の点情報に、統合処理を施すことにより、外部から入力があった入力部分の時間的若しくは空間的位置関係に基づいて、一連の入力を表すターゲットの情報を生成して、記憶部33に供給する。   The target generation unit 31 of the generation unit 25 performs integration processing on the point information of the input portion for each frame supplied from the image processing unit 24, so that the temporal or spatial position of the input portion input from the outside is obtained. Based on the relationship, target information representing a series of inputs is generated and supplied to the storage unit 33.

いま、画像処理部24からターゲット生成部31に供給される入力部分の点情報が、時刻t+1の第t+1フレームの点情報であるとすると、ターゲット生成部31は、第t+1フレームの入力部分の点情報と、時間的に近い関係にある1つ前のフレームである時刻tの第tフレームのターゲットの情報とを比較する。   Now, assuming that the point information of the input portion supplied from the image processing unit 24 to the target generation unit 31 is the point information of the (t + 1) th frame at time t + 1, the target generation unit 31 The point information of the input part of the frame is compared with the target information of the t-th frame at time t, which is the immediately preceding frame that is closely related in time.

第tフレームのあるターゲットを、注目ターゲットとして注目することとすると、ターゲット生成部31は、注目ターゲットに対して、第t+1フレームの空間的に近い関係にある入力部分を、注目ターゲットとしての一連の入力における一部を構成する入力部分であるとして、注目ターゲットに統合する。   Assuming that a target having a t-th frame is focused as a target of interest, the target generating unit 31 uses an input portion having a spatially close relationship with respect to the target of interest as the target of interest in the t + 1-th frame. As an input part constituting a part of a series of inputs, the target target is integrated.

また、ターゲット生成部31は、注目ターゲットに対して、空間的に近い関係にある入力部分が第t+1フレームに存在しない場合には、注目ターゲットとしての一連の入力が終了したとして、注目ターゲットを削除する。   In addition, the target generation unit 31 determines that the series of inputs as the target of interest has ended when the input portion that is spatially close to the target of interest does not exist in the t + 1th frame, Is deleted.

さらに、ターゲット生成部31は、ターゲットに統合されずに残った第t+1フレームの入力部分については、ターゲットとしての一連の入力が開始されたとして、新たなターゲットを生成する。そして、ターゲット生成部31は、統合されたターゲットの情報と新たに生成されたターゲットの情報を、第t+1フレームのターゲットの情報として記憶部33に供給する。   Further, the target generation unit 31 generates a new target for the input portion of the (t + 1) th frame remaining without being integrated with the target, assuming that a series of inputs as a target is started. Then, the target generation unit 31 supplies the integrated target information and the newly generated target information to the storage unit 33 as target information of the (t + 1) th frame.

イベント生成部32は、ターゲットの情報に基づいて、ターゲットの状態の変化を表すイベントの情報を適宜生成し、記憶部33に供給する。すなわち、例えば、イベント生成部32は、第tフレームと第t+1フレームのそれぞれのターゲットの情報、あるいは、必要に応じて、記憶部33に記憶されている第tフレーム以前に発行されたイベントの情報等に基づいて、ターゲットの状態の変化を表すイベントを認識する。そして、イベント生成部32は、認識したイベントの内容を表すイベントの情報を生成するイベントの発行を行い、そのイベントの情報を第t+1フレームのイベントの情報として記憶部33に供給する。   The event generation unit 32 appropriately generates event information representing a change in the target state based on the target information, and supplies the event information to the storage unit 33. In other words, for example, the event generation unit 32 may receive information on the targets of the t-th frame and the t + 1-th frame, or, if necessary, events issued before the t-th frame stored in the storage unit 33. Based on the information and the like, an event representing a change in the state of the target is recognized. Then, the event generation unit 32 issues an event for generating event information indicating the content of the recognized event, and supplies the event information to the storage unit 33 as event information of the (t + 1) th frame.

また、イベント生成部32は、記憶部33から第t+1フレームのターゲットとイベントの情報を読み出し、制御部12に供給(出力)する。   In addition, the event generation unit 32 reads the target and event information of the (t + 1) th frame from the storage unit 33 and supplies (outputs) the information to the control unit 12.

記憶部33は、ターゲット生成部31から供給されるターゲットの情報と、イベント生成部32から供給されるイベントの情報とを記憶する。   The storage unit 33 stores target information supplied from the target generation unit 31 and event information supplied from the event generation unit 32.

図2は、入出力ディスプレイ22の外観の構成の例を模式的に示す図である。入出力ディスプレイ22の本体部51の画像を表示したり外部から入射する光を受光したりする表示画面51Aは、損傷や汚れを防止するためのシート状の保護部材52により覆われている。   FIG. 2 is a diagram schematically illustrating an example of an external configuration of the input / output display 22. A display screen 51A for displaying an image of the main body 51 of the input / output display 22 and receiving light incident from the outside is covered with a sheet-like protective member 52 for preventing damage and dirt.

保護部材52は、例えば、アクリル樹脂など、軽くて傷や汚れに強く、耐久性に優れ、加工しやすい透明な素材からなる薄い板により構成される。この場合、保護部材52は、例えば、ネジなどにより表示画面51Aを覆うように固定されたり、セロファンテープ、接着剤などにより、表示画面51Aを覆うように表示画面51Aに接着される。   The protective member 52 is made of a thin plate made of a transparent material that is light and resistant to scratches and dirt, has excellent durability, and is easy to process, such as acrylic resin. In this case, the protection member 52 is fixed to the display screen 51A so as to cover the display screen 51A with a screw or the like, or is covered with cellophane tape, an adhesive, or the like so as to cover the display screen 51A.

また、例えば、保護部材52は、表示画面51Aと接触する面(以下、裏面とも称する)が、シリコン樹脂からなるシリコン膜など、軽くて粘着性がある透明な素材からなり、裏面と反対の面(以下、表面とも称する)が、PET(Polyethylene Terephthalate、ポリエチレンテレフタレート)など、軽くて傷や汚れに強く、耐久性に優れる透明な素材からなるフィルムにより構成される。この場合、保護部材52は、表示画面51Aを覆うように表示画面51Aに接着される。   Further, for example, the surface of the protective member 52 that contacts the display screen 51A (hereinafter also referred to as the back surface) is made of a light and adhesive transparent material such as a silicon film made of silicon resin, and is the surface opposite to the back surface. (Hereinafter also referred to as the surface) is made of a transparent material such as PET (Polyethylene Terephthalate) that is light, resistant to scratches and dirt, and excellent in durability. In this case, the protection member 52 is bonded to the display screen 51A so as to cover the display screen 51A.

保護部材52は、透明な素材からできているため、入出力ディスプレイ22の視認性、および、受光感度を低下させることがない。また、入出力ディスプレイ22の表示画面51Aには、ユーザの指やペンなどが頻繁に接触するが、保護部材52により表示画面51Aの損傷や汚れが防止され、表示画面51Aの視認性および受光感度の低下が防止される。   Since the protection member 52 is made of a transparent material, the visibility of the input / output display 22 and the light receiving sensitivity are not reduced. The display screen 51A of the input / output display 22 is frequently touched by a user's finger, pen, or the like, but the protective member 52 prevents the display screen 51A from being damaged or soiled, and the visibility and light receiving sensitivity of the display screen 51A. Is prevented.

なお、ユーザが指などを表示画面51Aに接触させようとした場合、結果的に保護部材52に接触させることになるが、以下、説明を分かりやすくするために、指などを表示画面51Aに接触させるということにする。   In addition, when the user tries to contact the display screen 51A with a finger or the like, as a result, the user touches the protective member 52. However, in order to make the explanation easier to understand, the finger or the like is contacted with the display screen 51A. I will let you.

図3は、入出力ディスプレイ22の本体部51の積層構造の例を模式的に示す図である。   FIG. 3 is a diagram schematically illustrating an example of a laminated structure of the main body 51 of the input / output display 22.

入出力ディスプレイ22の本体部51は、ガラス等で構成された2枚の透明な基板であるTFT(Thin Film Transistor)基板61と対向電極基板62を互いに対向配置させ、その間隙に、例えば、ツイステッドネマチック(TN)液晶を封入した液晶層63を設けた構成となっている。   The main body 51 of the input / output display 22 has a TFT (Thin Film Transistor) substrate 61 and a counter electrode substrate 62, which are two transparent substrates made of glass or the like, arranged opposite to each other, and, for example, twisted in the gap. The liquid crystal layer 63 encapsulating nematic (TN) liquid crystal is provided.

TFT基板61の液晶層63側には、スイッチング素子としての薄膜トランジスタ(TFT)、画素電極、および、それらを絶縁・分離する絶縁層を含む、電極層64が形成されている。対向電極基板62の液晶層63側には、対向電極65及びカラーフィルタ66が形成されている。そして、TFT基板61、対向電極基板62、液晶層63、電極層64、対向電極65、および、カラーフィルタ66により、透過型の液晶表示パネルが構成される。また、TFT基板61および対向電極基板62の液晶層63側とは反対側に、それぞれ偏光板67,68が設けられている。   On the liquid crystal layer 63 side of the TFT substrate 61, an electrode layer 64 including a thin film transistor (TFT) as a switching element, a pixel electrode, and an insulating layer for insulating and separating them is formed. A counter electrode 65 and a color filter 66 are formed on the liquid crystal layer 63 side of the counter electrode substrate 62. The TFT substrate 61, the counter electrode substrate 62, the liquid crystal layer 63, the electrode layer 64, the counter electrode 65, and the color filter 66 constitute a transmissive liquid crystal display panel. Further, polarizing plates 67 and 68 are provided on the opposite side of the TFT substrate 61 and the counter electrode substrate 62 from the liquid crystal layer 63 side, respectively.

さらに、偏光板68の対向電極基板62側と反対の面を覆うように、保護部材52が設けられている。   Further, a protective member 52 is provided so as to cover the surface of the polarizing plate 68 opposite to the counter electrode substrate 62 side.

また、液晶表示パネルの背面側には、バックライト69が設けられている。このバックライト69によって、背面側から液晶表示パネルを照明することにより、カラー画像を表示することができる。バックライト69は、例えば、複数の蛍光管や、複数の発光ダイオード等の、光源が配列された構成とすることができる。なお、バックライト69は、比較的高速で点灯のオン・オフ制御ができるようにすることが望ましい。   A backlight 69 is provided on the back side of the liquid crystal display panel. A color image can be displayed by illuminating the liquid crystal display panel from the back side with the backlight 69. The backlight 69 can have a configuration in which light sources such as a plurality of fluorescent tubes and a plurality of light emitting diodes are arranged, for example. It is desirable that the backlight 69 can be turned on / off at a relatively high speed.

さらに、電極層64には、受光素子として、複数の光センサ22Aが形成されている。そして、液晶表示ディスプレイを構成する各発光素子に隣接して、光センサ22Aを配置することにより、発光(画像の表示)と受光(読み取り)とを、並行して行うことが可能となる。   Furthermore, a plurality of photosensors 22A are formed on the electrode layer 64 as light receiving elements. By arranging the optical sensor 22A adjacent to each light emitting element constituting the liquid crystal display, light emission (image display) and light reception (reading) can be performed in parallel.

図4は、入出力ディスプレイ22の動作を制御するドライバの配置の例を示す図である。   FIG. 4 is a diagram illustrating an example of the arrangement of drivers that control the operation of the input / output display 22.

図4に示されるように、入出力ディスプレイ22の中央に、透明な表示エリア(センサエリア)81が配置され、この表示エリア81の4つの端面に、表示用水平ドライバ82、表示用垂直ドライバ83、センサ用垂直ドライバ84、センサ読み出し用水平ドライバ85が配置されている。   As shown in FIG. 4, a transparent display area (sensor area) 81 is arranged in the center of the input / output display 22, and a display horizontal driver 82 and a display vertical driver 83 are arranged on four end faces of the display area 81. A sensor vertical driver 84 and a sensor reading horizontal driver 85 are arranged.

表示用水平ドライバ82と表示用垂直ドライバ83は、表示用の画像データとして画像信号線86を介して供給されてくる表示信号と制御クロックとに基づいて、表示エリア81にマトリクス状に配置されている画素の駆動を行う。   The display horizontal driver 82 and the display vertical driver 83 are arranged in a matrix in the display area 81 based on a display signal and a control clock supplied as image data for display via the image signal line 86. Drive the pixel.

センサ用垂直ドライバ84とセンサ読み出し用水平ドライバ85は、外部から供給される読み出し用のクロック(図示せず)に同期して、受光センサ22Aから読み出した受光信号を、受光信号線87を介して、図1の受光信号処理部23に供給する。   The sensor vertical driver 84 and the sensor readout horizontal driver 85 synchronize with the readout clock (not shown) supplied from the outside, the received light signal read from the light receiving sensor 22A via the received light signal line 87. , And supplied to the received light signal processing unit 23 in FIG.

図5は、入出力ディスプレイ22の表示エリア81に配置される画素の1画素あたりの回路の構成の例を示す図である。図5の画素101は、薄膜トランジスタ(TFT)から成る光センサ22A、スイッチング素子111、画素電極112、リセットスイッチ113、コンデンサ114、バッファアンプ115、および、スイッチ116から構成される。そのうち、スイッチング素子111および画素電極112が、表示機能を実現する表示部を構成し、光センサ22A、リセットスイッチ113、コンデンサ114、バッファアンプ115、および、スイッチ116が、受光機能を実現する受光部を構成する。   FIG. 5 is a diagram showing an example of a circuit configuration for each pixel of the pixels arranged in the display area 81 of the input / output display 22. The pixel 101 in FIG. 5 includes an optical sensor 22A formed of a thin film transistor (TFT), a switching element 111, a pixel electrode 112, a reset switch 113, a capacitor 114, a buffer amplifier 115, and a switch 116. Among them, the switching element 111 and the pixel electrode 112 constitute a display unit that realizes a display function, and the optical sensor 22A, the reset switch 113, the capacitor 114, the buffer amplifier 115, and the switch 116 are light receiving units that realize a light receiving function. Configure.

スイッチング素子111は、そのゲートが、水平方向に延びるゲート線121に接続され、そのドレインが、垂直方向に延びる表示信号線122に接続されている。すなわち、ゲート線121と表示信号線122の交点に、スイッチング素子111が配置されている。スイッチング素子111のソースは、画素電極112の一端に接続されている。画素電極112の一端であって、スイッチング素子111のソースに接続されている一端とは異なる一端は、配線123に接続されている。   The switching element 111 has a gate connected to a gate line 121 extending in the horizontal direction and a drain connected to a display signal line 122 extending in the vertical direction. That is, the switching element 111 is arranged at the intersection of the gate line 121 and the display signal line 122. A source of the switching element 111 is connected to one end of the pixel electrode 112. One end of the pixel electrode 112, which is different from one end connected to the source of the switching element 111, is connected to the wiring 123.

スイッチング素子111は、ゲート線121を介して供給される信号により、オンまたはオフが制御され、表示信号線122を介して供給される信号により、画素電極112での表示状態が設定される。   The switching element 111 is controlled to be turned on or off by a signal supplied through the gate line 121, and a display state at the pixel electrode 112 is set by a signal supplied through the display signal line 122.

光センサ22Aは、画素電極112に隣接した位置に配置され、その一端が電源電圧VDDが供給される電源線124に接続され、他の一端が、リセットスイッチ113の一端、コンデンサ114の一端、および、バッファアンプ115の入力端子に接続されている。リセットスイッチ113の一端であって、光センサ22Aの一端に接続されている一端とは異なる一端、および、コンデンサ114の一端であって、光センサ22Aの一端に接続されている一端とは異なる一端は接地端子VSSに接続されている。バッファアンプ115の出力端子は、読み出しスイッチ116を介して、センサ信号線125に接続されている。   The photosensor 22A is disposed at a position adjacent to the pixel electrode 112, one end of which is connected to the power supply line 124 to which the power supply voltage VDD is supplied, and the other end is connected to one end of the reset switch 113, one end of the capacitor 114, and Are connected to the input terminals of the buffer amplifier 115. One end of the reset switch 113 that is different from one end connected to one end of the optical sensor 22A and one end of the capacitor 114 that is different from one end connected to one end of the optical sensor 22A Is connected to the ground terminal VSS. The output terminal of the buffer amplifier 115 is connected to the sensor signal line 125 via the readout switch 116.

リセットスイッチ113のオンまたはオフは、リセット線126から供給される信号により制御される。読み出しスイッチ116のオン・オフは、読み出し線127から供給される信号により制御される。   On / off of the reset switch 113 is controlled by a signal supplied from the reset line 126. On / off of the read switch 116 is controlled by a signal supplied from the read line 127.

この光センサ22Aにおける動作は、以下のように行われる。   The operation of the optical sensor 22A is performed as follows.

まず、リセットスイッチ113をオンにして、光センサ22Aの電荷のリセットを行う。その後、リセットスイッチ113をオフにすることにより、光センサ22Aにおける受光量に対応した電荷が、コンデンサ114に蓄積される。次に、読み出しスイッチ116をオンにすることにより、コンデンサ114に蓄積された電荷が、バッファアンプ115を介して、センサ信号線125に供給され、外部に出力される。   First, the reset switch 113 is turned on to reset the charge of the optical sensor 22A. After that, by turning off the reset switch 113, electric charge corresponding to the amount of light received by the optical sensor 22A is accumulated in the capacitor 114. Next, when the readout switch 116 is turned on, the electric charge accumulated in the capacitor 114 is supplied to the sensor signal line 125 via the buffer amplifier 115 and output to the outside.

次に、図6のフローチャートを参照して、表示システム1による表示受光制御処理について説明する。   Next, display light reception control processing by the display system 1 will be described with reference to the flowchart of FIG.

表示システム1による表示受光制御処理は、例えば、ユーザが表示システム1の電源をオンにすると、開始される。   The display light reception control process by the display system 1 is started, for example, when the user turns on the power of the display system 1.

なお、以下においては、既に、表示受光制御処理のステップS1乃至S8の処理が第tフレームまで行われており、記憶部33には、少なくとも、第tフレーム以前のターゲットとイベントの情報が適宜記憶されているものとする。   In the following, the processing of steps S1 to S8 of the display light reception control process has already been performed up to the t-th frame, and at least information on targets and events before the t-th frame is appropriately stored in the storage unit 33. It is assumed that

ステップS1において、入出力ディスプレイ22の光センサ22Aは、時刻t+1のフレームのタイミングで、表示画面51Aに指が近接または接触している部分から反射した光等の外部からの光を受光し、その光の受光量に対応する受光信号を受光信号処理部23に供給する。   In step S1, the optical sensor 22A of the input / output display 22 receives light from the outside such as light reflected from a portion where the finger is close to or in contact with the display screen 51A at the timing of the frame at time t + 1. Then, a received light signal corresponding to the received light amount is supplied to the received light signal processing unit 23.

ステップS2において、受光信号処理部23は、入出力ディスプレイ22から供給される受光信号に所定の処理を施すことにより、入出力ディスプレイ22に対して、指等が近接または接触している部分と、何も近接および接触していない部分とで輝度が異なる画像を、第t+1フレームの画像として得て、画像処理部24に供給する。   In step S <b> 2, the light reception signal processing unit 23 performs a predetermined process on the light reception signal supplied from the input / output display 22, so that a finger or the like approaches or contacts the input / output display 22. An image having a luminance different from that of the part that is not in proximity or in contact with the image is obtained as an image of the (t + 1) th frame, and is supplied to the image processing unit 24.

ステップS3において、画像処理部24は、受光信号処理部23から供給される第t+1フレームの画像に対して、2値化、ノイズ除去、ラベリング等の画像処理を施すことにより、第t+1フレームについて、入出力ディスプレイ22の表示画面51Aに指等の物体が近接または接触した部分(領域)を、外部からの入力があった入力部分として検出し、その入力部分の点情報を得て、生成部25に供給する。   In step S <b> 3, the image processing unit 24 performs image processing such as binarization, noise removal, and labeling on the t + 1-th frame image supplied from the received light signal processing unit 23, thereby For one frame, a part (area) where an object such as a finger approaches or touches the display screen 51A of the input / output display 22 is detected as an input part that has been input from the outside, and point information of the input part is obtained. , Supplied to the generation unit 25.

ステップS4において、生成部25のターゲット生成部31は、画像処理部24から供給される第t+1フレームの入力部分の点情報に、統合処理を施すことにより、第t+1フレームについて、ターゲットの情報を生成し、記憶部33に記憶させる。また、生成部25のイベント生成部32は、ターゲットの情報に基づいて、統合処理を行うことにより、第t+1フレームについて、特定のイベント、すなわち、例えば、ターゲットの生成及び削除(消滅)を表すイベントの情報を適宜生成し、記憶部33に記憶させる。統合処理の詳細については、図8乃至図12を参照して、後述する。   In step S <b> 4, the target generation unit 31 of the generation unit 25 performs integration processing on the point information of the input portion of the t + 1 frame supplied from the image processing unit 24, so that the target for the t + 1 frame is processed. Is generated and stored in the storage unit 33. In addition, the event generation unit 32 of the generation unit 25 performs integration processing based on target information, thereby generating a specific event, for example, target generation and deletion (disappearance), for the t + 1th frame. Information on the event to be represented is generated as appropriate and stored in the storage unit 33. Details of the integration processing will be described later with reference to FIGS.

ステップS5において、生成部25のイベント生成部32は、さらに、ターゲットの情報に基づいて、認識処理を行うことにより、第t+1フレームについて、ターゲットの状態の変化を表すイベントの情報を生成し、記憶部33に記憶させる。   In step S <b> 5, the event generation unit 32 of the generation unit 25 further performs recognition processing based on the target information, thereby generating event information representing a change in the target state for the t + 1th frame. And stored in the storage unit 33.

例えば、ユーザが表示画面51Aに指を近接または接触させたまま移動させた場合、すなわち、ターゲットが移動した場合、イベント生成部32は、イベント「移動」を生成し、イベント「移動」の情報を記憶部33に記憶させる。   For example, when the user moves his / her finger close to or in contact with the display screen 51A, that is, when the target moves, the event generation unit 32 generates an event “movement” and stores information on the event “movement”. The data is stored in the storage unit 33.

また、例えば、ユーザが表示画面51Aに近接または接触させたまま移動させていた指を停止した場合、すなわち、ターゲットが停止した場合、イベント生成部32は、イベント「停止」を生成し、イベント「停止」の情報を記憶部33に記憶させる。   Further, for example, when the user stops the finger that has been moved in proximity to or in contact with the display screen 51A, that is, when the target is stopped, the event generation unit 32 generates the event “stop” and the event “ The “stop” information is stored in the storage unit 33.

さらに、例えば、ユーザが表示画面51Aに対する指の近接または接触を開始し、近接または接触を継続しながら指を移動して、指の近接および接触を解除した場合に、近接または接触を開始したときの指の位置と近接および接触を終了したときの指の位置との間の距離が閾値以上であるときに、すなわち、ターゲットが所定の距離以上移動して消滅した場合、イベント生成部32は、イベント「投射」を生成し、イベント「投射」の情報を記憶部33に記憶させる。   Further, for example, when the user starts proximity or contact with the display screen 51A, moves the finger while continuing proximity or contact, and releases the proximity or contact of the finger, when proximity or contact is started When the distance between the position of the finger and the position of the finger when the proximity and the contact are finished is equal to or greater than the threshold, that is, when the target moves beyond a predetermined distance and disappears, the event generation unit 32 An event “projection” is generated, and information on the event “projection” is stored in the storage unit 33.

また、例えば、ユーザが表示画面51Aに対する2本の指の近接または接触を開始し、近接または接触を継続しながら2本の指の間の距離を拡げるか、または狭めるように2本の指を移動して、2本の指の近接および接触を解除した場合に、近接または接触を開始したときの2本の指の間の距離を基準として、2本の指の間の距離の拡大率または縮小率が所定の閾値以上または以下であるときに、すなわち、2つのターゲットが生成されてから消滅するまでの間にターゲット間の距離の拡大率または縮小率が所定の閾値以上または以下となった場合、イベント生成部32は、イベント「拡大」または「縮小」を生成し、イベント「拡大」または「縮小」の情報を記憶部33に記憶させる。   In addition, for example, the user starts approaching or touching two fingers with respect to the display screen 51A, and expands or narrows the distance between the two fingers while continuing to approach or touch. When the movement and release of the proximity and contact of the two fingers, the magnification of the distance between the two fingers or the distance between the two fingers when the proximity or contact starts When the reduction ratio is equal to or greater than or equal to a predetermined threshold, that is, between the time when two targets are generated and until they disappear, the distance enlargement ratio or the reduction ratio between the targets is equal to or greater than or equal to the predetermined threshold. In this case, the event generation unit 32 generates an event “enlargement” or “reduction” and causes the storage unit 33 to store information on the event “enlargement” or “reduction”.

さらに、例えば、ユーザが表示画面51Aに対する2本の指の近接または接触を開始し、近接または接触を継続しながら、表示画面51A上のある点を中心とした同心円を描くように2本の指を移動して、2本の指の近接および接触を解除した場合に、近接または接触を開始したときの2本の指のそれぞれの表示画面51A上の位置を結ぶ直線に対して、第t+1フレームの2本の指のそれぞれの表示画面51A上の位置を結ぶ直線が回転する回転角の絶対値が所定の閾値以上であるときに、すなわち、2つのターゲットが生成されてから消滅するまでの間にターゲット間を結ぶ直線の回転角の絶対値が所定の閾値以上である場合、イベント生成部32は、イベント「回転」を生成し、イベント「回転」の情報を記憶部33に記憶させる。   Further, for example, the user starts the proximity or contact of the two fingers to the display screen 51A, and continues the proximity or contact while drawing the two fingers so as to draw a concentric circle around a certain point on the display screen 51A. When the proximity and contact of the two fingers are released by moving, the t + th of the straight lines connecting the positions on the display screen 51A of the two fingers when the proximity or contact is started When the absolute value of the rotation angle at which the straight line connecting the positions of the two fingers of one frame on the display screen 51A rotates is greater than or equal to a predetermined threshold, that is, until the two targets are generated and disappear. When the absolute value of the rotation angle of the straight line connecting the targets between the two is greater than or equal to a predetermined threshold, the event generation unit 32 generates an event “rotation” and causes the storage unit 33 to store information on the event “rotation” .

また、例えば、ユーザが表示画面51Aに対する3本の指の近接または接触を開始し、近接または接触を継続しながら、表示画面51A上のある点を中心とした同心円を描くように3本の指を移動して、3本の指の近接および接触を解除した場合に、近接または接触を開始したときの3本の指のうちの2本ずつの指の表示画面51A上の位置を結ぶ直線に対して、第t+1フレームの3本の指のうちの同じ2本ずつの指の表示画面51A上の位置を結ぶ直線が回転する回転角を、3本の指のうちの3通りの2本ずつの指のセット(組)について平均した回転角の絶対値が、所定の閾値以上であるときに、すなわち、3つのターゲットが生成されてから消滅するまでの間に各ターゲット間を結ぶ直線の回転角の平均値の絶対値が所定の閾値以上である場合、イベント生成部32は、イベント「3点回転」を生成し、イベント「3点回転」の情報を記憶部33に記憶させる。   In addition, for example, the user starts the proximity or contact of the three fingers with respect to the display screen 51A, and the three fingers are drawn so as to draw a concentric circle around a certain point on the display screen 51A while continuing the proximity or contact. When the proximity and contact of the three fingers are released by moving, the straight line connecting the positions on the display screen 51A of each of the two fingers of the three fingers when proximity or contact is started On the other hand, the rotation angle at which the straight line connecting the positions on the display screen 51A of the same two fingers of the three fingers of the (t + 1) th frame rotates is set to two of the three fingers. A straight line connecting each target when the absolute value of the rotation angle averaged for each set of fingers is greater than or equal to a predetermined threshold value, that is, until the three targets are generated and disappear. The absolute value of the average rotation angle is greater than or equal to a predetermined threshold Case, the event generation unit 32 generates an event "3-point rotation", and stores the information of the event "3-point rotation" in the storage unit 33.

ステップS6において、生成部25のイベント生成部32は、記憶部33から第t+1フレームのターゲットとイベントの情報を読み出し、制御部12に供給(出力)する。   In step S <b> 6, the event generation unit 32 of the generation unit 25 reads the target and event information of the (t + 1) th frame from the storage unit 33 and supplies (outputs) the information to the control unit 12.

ステップS7において、制御部12は、入出力パネル16の生成部25から供給(出力)されるターゲットとイベントの情報に基づいて、必要に応じて、画像データを、表示信号処理部21を介して、入出力ディスプレイ22に供給することにより、入出力ディスプレイ22の表示状態を変更させる等の表示制御を行う。   In step S <b> 7, the control unit 12 sends image data via the display signal processing unit 21 as necessary based on the target and event information supplied (output) from the generation unit 25 of the input / output panel 16. The display control such as changing the display state of the input / output display 22 is performed by supplying it to the input / output display 22.

ステップS8において、入出力ディスプレイ22は、制御部12の表示制御に従い、それまでとは異なる表示状態、例えば、それまで表示されていた画像が時計周りに90°回転して表示される表示状態で、画像を表示する。   In step S8, the input / output display 22 is in a different display state according to the display control of the control unit 12, for example, in a display state in which the image displayed so far is rotated 90 ° clockwise and displayed. , Display an image.

その後、処理は、ステップS1に戻り、次の第t+2フレームについて、同様の処理が繰り返される。   Thereafter, the process returns to step S1, and the same process is repeated for the next t + 2 frame.

図7は、図6の表示受光制御処理を行うソフトウェアの構成例を説明する図である。   FIG. 7 is a diagram illustrating a configuration example of software that performs the display light reception control process of FIG.

ここで、表示受光制御処理を行うソフトウェアは、受光信号処理を行うソフトウェア、点情報の生成処理を行うソフトウェア、統合処理を行うソフトウェア、認識処理を行うソフトウェア、出力処理を行うソフトウェア、及び上位のアプリケーションとしての表示制御ソフトウェアを含む。   Here, the software that performs the display light reception control processing is software that performs light reception signal processing, software that performs point information generation processing, software that performs integration processing, software that performs recognition processing, software that performs output processing, and higher-level applications Including display control software.

図6において、入出力ディスプレイ22の光センサ22Aは、外部からの光、例えば、表示画面51Aに近接または接触している指等で反射した光を受光し、1フレームの受光信号を生成する。   In FIG. 6, the optical sensor 22A of the input / output display 22 receives external light, for example, light reflected by a finger or the like that is close to or in contact with the display screen 51A, and generates a light reception signal of one frame.

受光信号処理の階層では、入出力ディスプレイ22から供給される1フレームの受光信号に、例えば、増幅やフィルタ処理等の受光信号処理が施されることにより、その受光信号に対応する1フレームの画像が得られる。   In the received light signal processing hierarchy, the received light signal processing such as amplification and filter processing is performed on the received light signal of one frame supplied from the input / output display 22, for example, so that an image of one frame corresponding to the received light signal is obtained. Is obtained.

受光信号処理の階層の上位階層の点情報の生成処理の階層では、受光信号処理で得られる画像に対して、所定の画像処理、例えば、2値化、ノイズ除去、ラベリング等が施されることにより、入出力ディスプレイ22の表示画面51Aの、物体が近接または接触している部分である入力部分が検出される。そして、入力部分の点情報がフレームごとに生成される。   In the point information generation processing layer above the light reception signal processing layer, predetermined image processing, for example, binarization, noise removal, labeling, etc., is performed on the image obtained by the light reception signal processing. As a result, an input portion of the display screen 51A of the input / output display 22 that is a portion where an object is in close proximity or in contact is detected. Then, point information of the input part is generated for each frame.

点情報の生成処理の上位の統合処理の階層では、点情報の生成処理で得られる点情報に、統合処理が施され、フレームごとのターゲットの情報が生成される。さらに、そのフレームのターゲットの情報に基づいて、特定のイベント、例えば、ターゲットの生成や削除(消滅)を表すイベントの情報が生成される。   In the higher level integration process of the point information generation process, the point information obtained by the point information generation process is subjected to the integration process, and target information for each frame is generated. Furthermore, based on the target information of the frame, information on a specific event, for example, an event indicating generation or deletion (disappearance) of the target is generated.

統合処理の上位階層の認識処理の階層では、統合処理で生成されたターゲットの情報等に基づいて、ユーザの指の動きやジェスチャ等の認識処理が施されることにより、ターゲットの状態の変化を表すイベントの情報がフレームごとに生成される。   In the recognition processing layer above the integration processing, the target state change is performed by performing recognition processing such as a user's finger movement or gesture based on target information generated by the integration processing. The event information to be represented is generated for each frame.

認識処理の上位階層の出力処理の階層では、統合処理で生成されたターゲット及びイベントの情報と、認識処理で生成されたイベントの情報が、フレームごとに出力される。   In the upper level of the output process of the recognition process, target and event information generated by the integration process and event information generated by the recognition process are output for each frame.

出力処理の上位階層の上位のアプリケーションとしての、例えば、表示制御ソフトウェアの階層では、出力処理で出力されたターゲットとイベントの情報に基づいて、必要に応じて、画像データが、図1の入出力パネル16の入出力ディスプレイ22に供給されることにより、入出力ディスプレイ22の表示状態が変更される等の表示制御が行われる。   For example, in the display control software layer as an upper application in the upper layer of the output process, the image data is input / output as shown in FIG. 1 as necessary based on the target and event information output in the output process. By being supplied to the input / output display 22 of the panel 16, display control such as changing the display state of the input / output display 22 is performed.

次に、図8乃至図12を参照して、図1の生成部25による統合処理の詳細について説明する。   Next, details of the integration processing by the generation unit 25 of FIG. 1 will be described with reference to FIGS.

図8は、時刻tの第tフレームに存在するターゲットを表している。   FIG. 8 shows targets existing in the t-th frame at time t.

ここで、図8では(後述する図9及び図10でも同様)、フレームを表す長方形の内部に、説明の便宜上、マスを図示してある。   Here, in FIG. 8 (the same applies to FIGS. 9 and 10 to be described later), a square is shown inside the rectangle representing the frame for convenience of explanation.

図8において、時刻tの第tフレームには、3つのターゲット#1,#2、及び#3が存在する。ターゲットには、ターゲットの属性であるターゲット属性を与えることができる。ターゲット属性には、例えば、各ターゲットを識別するための識別情報としてのターゲットID(Identifier)(識別番号)があり、図8では、3つのターゲットに対して、#1,#2、及び#3がそれぞれターゲットIDとして付されている。   In FIG. 8, there are three targets # 1, # 2, and # 3 in the t-th frame at time t. A target attribute that is an attribute of the target can be given to the target. The target attribute includes, for example, a target ID (Identifier) (identification number) as identification information for identifying each target. In FIG. 8, for the three targets, # 1, # 2, and # 3 Are assigned as target IDs.

例えば、ユーザが、3本の指を、入出力ディスプレイ22の表示画面51Aに近接または接触させている場合に、図8に示したような3つのターゲット#1乃至#3が存在する状態となる。   For example, when the user has three fingers approaching or touching the display screen 51A of the input / output display 22, there are three targets # 1 to # 3 as shown in FIG. .

図9は、時刻tの第tフレームより1フレーム後の時刻t+1の第t+1フレームの統合処理前の入力部分を表している。   FIG. 9 shows an input part before integration processing of the t + 1th frame at time t + 1, which is one frame after the tth frame at time t.

図9において、第t+1フレームには、4つの入力部分#a乃至#dが存在する。   In FIG. 9, there are four input parts #a to #d in the (t + 1) th frame.

例えば、ユーザが、4本の指を、入出力ディスプレイ22の表示画面51Aに近接または接触している場合に、図9に示したような4つの入力部分#a乃至#dが生じる。   For example, when the user has four fingers approaching or touching the display screen 51A of the input / output display 22, four input portions #a to #d as shown in FIG. 9 are generated.

図10は、図8に示した第tフレームと図9に示した第t+1フレームとを重ね合わせた状態を表している。   FIG. 10 illustrates a state in which the t-th frame illustrated in FIG. 8 and the t + 1-th frame illustrated in FIG. 9 are overlapped.

統合処理では、例えば、時間的に近い関係にある第tフレームのターゲットと第t+1フレームの入力部分とが比較される。そして、第tフレームのあるターゲットを、注目ターゲットとして注目すると、例えば、注目ターゲットに対して、空間的に近い関係にある入力部分、すなわち、注目ターゲットからの距離が、例えば、所定の距離(例えば、2マス分の距離)以内にある入力部分が、注目ターゲットとしての一連の入力の一部を構成する入力部分であるとして、注目ターゲットに統合される。   In the integration process, for example, the target of the t-th frame and the input portion of the t + 1-th frame that are in a temporal relationship are compared. When attention is paid to a target having the t-th frame as an attention target, for example, an input portion having a spatially close relationship with the attention target, that is, a distance from the attention target is, for example, a predetermined distance (for example, An input portion within a distance of 2 squares) is integrated into the target of interest as an input portion constituting a part of a series of inputs as the target of interest.

なお、注目ターゲットに対して、空間的に近い関係にある入力部分が、複数存在する場合には、例えば、その複数の入力部分のうちの、注目ターゲットに対して、最も近い入力部分が、注目ターゲットに統合される。   In addition, when there are a plurality of input portions that are spatially close to the target of interest, for example, the input portion that is closest to the target of interest is the target of the plurality of input portions. Integrated into the target.

また、統合処理では、例えば、注目ターゲットに対して、空間的に近い関係にある入力部分が存在しない場合には、その注目ターゲットとしての一連の入力が終了したとして、注目ターゲットが削除される。   In the integration process, for example, when there is no input portion that is spatially close to the target of interest, the target of interest is deleted as a series of inputs as the target of interest has been completed.

さらに、統合処理では、例えば、ターゲットに統合されずに残った入力部分、つまり、ターゲットに対して空間的に近い関係にない入力部分については、新たな一連の入力が開始されたとして、新たなターゲットが生成される。   Further, in the integration process, for example, for an input portion that is not integrated with the target, that is, an input portion that is not spatially close to the target, a new series of inputs is started and a new input is started. A target is generated.

したがって、図10に示される第t+1フレームの入力部分#a乃至#dと第tフレームのターゲット#1乃至#3を対象として、統合処理が行われると、ターゲット#1の近傍には、入力部分#aと#bが存在するが、入力部分#bの方が、入力部分#aに比べてより近いので、入力部分#bが、ターゲット#1に統合(マージ)される。   Therefore, when the integration process is performed on the input portions #a to #d of the t + 1th frame and the targets # 1 to # 3 of the tth frame shown in FIG. Input portions #a and #b exist, but the input portion #b is closer to the input portion #a than the input portion #a, so that the input portion #b is integrated (merged) with the target # 1.

また、図10では、ターゲット#2の近傍には、入力部分が存在しないので、このターゲット#2は、削除される。そして、ターゲットが削除されたことを表すイベント「削除」が生成される。   Also, in FIG. 10, since there is no input part in the vicinity of target # 2, this target # 2 is deleted. Then, an event “deletion” indicating that the target has been deleted is generated.

さらに、図10では、ターゲット#3の近傍には、入力部分#cと#dが存在するが、入力部分#dの方が、入力部分#cに比べてより近いので、入力部分#dが、ターゲット#3に統合(マージ)される。   Further, in FIG. 10, there are input parts #c and #d in the vicinity of the target # 3. However, since the input part #d is closer than the input part #c, the input part #d , Merged into target # 3.

そして、ターゲット#1乃至#3のうちのいずれにも統合されずに残った入力部分#aと#cは、それぞれ新たなターゲットとして生成される。そして、ターゲットが生成されたことを表すイベント「生成」が生成される。   Then, the input parts #a and #c remaining without being integrated into any of the targets # 1 to # 3 are generated as new targets, respectively. Then, an event “generation” indicating that the target has been generated is generated.

統合処理では、第tフレームのターゲットのうちの削除されずに残ったターゲットと、第t+1フレームの入力部分のうちの統合されずに残った入力部分について新たに生成されたターゲットとが、第t+1フレームのターゲットとなる。そして、第t+1フレームのターゲットの情報は、第t+1フレームの入力部分の点情報に基づいて、生成される。   In the integration process, the target that remains without being deleted among the targets of the t-th frame, and the target that is newly generated for the input portion that remains without being integrated among the input portions of the t + 1-th frame, Target of the t + 1th frame. Then, the target information of the (t + 1) th frame is generated based on the point information of the input part of the (t + 1) th frame.

ここで、入力部分の点情報は、受光信号処理部23から画像処理部24に供給される1フレームの画像である受光画像に対して、画像処理を施すことで得られる。   Here, the point information of the input portion is obtained by performing image processing on the received light image that is an image of one frame supplied from the received light signal processing unit 23 to the image processing unit 24.

図11は、受光画像を示している。   FIG. 11 shows a received light image.

図11の受光画像には、3つの入力部分#1乃至#3が存在する。   In the received light image of FIG. 11, there are three input portions # 1 to # 3.

受光画像上の各入力部分は、例えば、表示画面51Aの指が近接または接触している部分から反射した光が受光された部分であるので、表示画面51Aの指が近接および接触していない部分に比べて、輝度の高いまたは低い部分となっている。画像処理部24は、受光画像の輝度の高いまたは低い領域を、入力部分として検出し、その入力部分の領域の特徴量を、その入力部分の点情報として出力する。   Each input portion on the received light image is, for example, a portion where light reflected from a portion where the finger of the display screen 51A is close or in contact is received, and thus a portion where the finger of the display screen 51A is not close or in contact Compared with, the brightness is high or low. The image processing unit 24 detects a high or low luminance area of the received light image as an input part, and outputs a feature amount of the input part area as point information of the input part.

点情報としては、入力部分を代表する位置の座標である代表座標としての入力部分の領域の中心(例えば、入力部分を囲む最小の円の中心など)や重心、入力部分の領域(図中の斜線部分)の面積の情報である面積情報、入力部分の範囲を表す領域情報としての、例えば、入力部分を囲む最小の長方形の上端の座標、下端の座標、左端の座標、及び右端の座標等を採用することができる。   As point information, the center of the input part area (eg, the center of the smallest circle surrounding the input part), the center of gravity, and the input part area (in the figure) Area information that is information on the area of the hatched area, area information representing the range of the input part, for example, the coordinates of the upper end of the smallest rectangle surrounding the input part, the coordinates of the lower end, the coordinates of the left end, the coordinates of the right end, etc. Can be adopted.

ターゲットの情報のうちのターゲットの属性であるターゲット属性は、ターゲットに統合される入力部分の点情報に基づいて、生成される。すなわち、ターゲットに入力部分が統合されるとき、ターゲットに固有の識別情報であるターゲットIDが維持され、それ以外のターゲット属性、例えば、ターゲットの代表座標、面積情報、領域情報等が、そのターゲットに統合される入力部分の点情報、すなわち、入力部分の代表座標、面積情報、領域情報等で置き換えられる。   A target attribute which is a target attribute of the target information is generated based on point information of an input part integrated with the target. That is, when the input part is integrated with the target, the target ID, which is identification information unique to the target, is maintained, and other target attributes such as the target's representative coordinates, area information, region information, etc. are stored in the target. It is replaced with point information of the input part to be integrated, that is, representative coordinates, area information, area information, etc. of the input part.

また、ターゲット属性には、ターゲットしての一連の入力が開始したときの時刻を表す情報やターゲットしての一連の入力が終了したときの時刻を表す情報等が含まれてもよい。   In addition, the target attribute may include information indicating a time when a series of inputs as a target starts, information indicating a time when a series of inputs as a target ends, and the like.

ターゲットの情報には、上述したターゲット属性の他、例えば、生成部25が制御部12に出力するフレームごとのターゲットの数等を採用することができる。   In addition to the target attribute described above, for example, the number of targets for each frame output from the generation unit 25 to the control unit 12 can be used as the target information.

次に、図12のフローチャートを参照して、図6のステップS4で図1の生成部25が行う統合処理について説明する。   Next, the integration process performed by the generation unit 25 of FIG. 1 in step S4 of FIG. 6 will be described with reference to the flowchart of FIG.

ステップS21において、ターゲット生成部31は、記憶部33から第t+1フレームの時間的な近傍である第tフレームのターゲットの情報を読み出し、画像処理部24から供給される第t+1フレームの入力部分の点情報と、記憶部33から読み出した第tフレームのターゲットの情報とを比較する。   In step S <b> 21, the target generation unit 31 reads out information on the target of the t-th frame that is the temporal vicinity of the t + 1-th frame from the storage unit 33, and the t + 1-th frame supplied from the image processing unit 24. The point information of the input part is compared with the target information of the t-th frame read from the storage unit 33.

ステップS22において、ターゲット生成部31は、ステップS21で読み出した第tフレームに、まだ注目ターゲットとしていないターゲットがあるかを判定する。ステップS22において、ステップS21で読み出した第tフレームに、まだ注目ターゲットとしていないターゲットがあると判定された場合、ステップS23において、ターゲット生成部31は、第tフレームのターゲットのうちの、まだ注目ターゲットとしていないターゲットのうちの1つを注目ターゲットとし、第tフレームの注目ターゲットの空間的な近傍に、第t+1フレームの入力部分が存在するかを判定する。   In step S22, the target generation unit 31 determines whether there is a target that has not yet been set as the target of interest in the t-th frame read in step S21. If it is determined in step S22 that there is a target that has not yet been set as the target of interest in the t-th frame read out in step S21, in step S23, the target generation unit 31 of the targets of the t-th frame still has the target of interest. One of the targets that is not defined is set as the target of interest, and it is determined whether or not the input portion of the t + 1-th frame exists in the spatial vicinity of the target of interest of the t-th frame.

ステップS23において、第tフレームの注目ターゲットの空間的な近傍に、第t+1フレームの入力部分が存在すると判定された場合、ステップS24において、ターゲット生成部31は、ステップS22で注目ターゲットの空間的な近傍にあると判定された第t+1フレームの入力部分を注目ターゲットに統合し、統合後の注目ターゲットの情報を、第t+1フレームのターゲットの情報として、記憶部33に記憶させる。   If it is determined in step S23 that the input portion of the (t + 1) th frame is present in the spatial vicinity of the target of interest in the tth frame, in step S24, the target generation unit 31 determines that the space of the target of interest in step S22. The input portion of the (t + 1) th frame determined to be close to the target is integrated with the target of interest, and the information of the target of interest after integration is stored in the storage unit 33 as the information of the target of the (t + 1) th frame. .

具体的には、ターゲット生成部31は、注目ターゲットのターゲットIDを維持し、それ以外のターゲット属性、例えば、注目ターゲットの代表座標等を、注目ターゲットに統合される入力部分の代表座標等で置き換え、第t+1フレームのターゲットの情報として、記憶部33に記憶させる。   Specifically, the target generation unit 31 maintains the target ID of the target of interest, and replaces other target attributes such as the representative coordinates of the target of interest with the representative coordinates of the input portion integrated with the target of interest. The information is stored in the storage unit 33 as target information of the (t + 1) th frame.

一方、ステップS23において、第tフレームの注目ターゲットの空間的な近傍に、第t+1フレームの入力部分が存在しないと判定された場合、ステップS25において、ターゲット生成部31は、注目ターゲットの情報を記憶部33から削除する。   On the other hand, when it is determined in step S23 that the input portion of the (t + 1) th frame does not exist in the spatial vicinity of the target of interest in the tth frame, in step S25, the target generation unit 31 performs information on the target of attention. Is deleted from the storage unit 33.

ステップS26において、イベント生成部32は、ターゲット生成部31が注目ターゲットを削除すると、ターゲットが消滅したこと、すなわち、ターゲットとしての一連の入力が終了したことを表すイベント「削除」を新たに発行し、そのイベントの情報を第t+1フレームのイベントの情報として、記憶部33に記憶させる。図10の例では、ターゲット#2が注目ターゲットである場合、ターゲット#2が第t+1フレームで削除されたことを表すイベント「削除」が発行され、そのイベント「削除」の情報が記憶部33に記憶される。   In step S <b> 26, when the target generation unit 31 deletes the target of interest, the event generation unit 32 newly issues an event “deletion” indicating that the target has disappeared, that is, a series of inputs as a target has ended. The event information is stored in the storage unit 33 as event information of the (t + 1) th frame. In the example of FIG. 10, when the target # 2 is the target of interest, an event “deletion” indicating that the target # 2 has been deleted in the t + 1th frame is issued, and information on the event “deletion” is stored in the storage unit. 33.

ステップS24,S26の処理の後、処理は、ステップS22に戻り、新たな注目ターゲットについて、同様の処理が実行される。   After the processes in steps S24 and S26, the process returns to step S22, and the same process is executed for the new target of interest.

ステップS22において、ステップS21で読み出した第tフレームに、まだ注目ターゲットとしていないターゲットがないと判定された場合、ステップS27において、ターゲット生成部31は、画像処理部24から供給された第t+1フレームに、第tフレームのターゲットに統合されずに残っている入力部分が存在するかを判定する。   If it is determined in step S22 that there is no target that is not yet the target of interest in the t-th frame read out in step S21, the target generation unit 31 supplies the t + 1 th supplied from the image processing unit 24 in step S27. It is determined whether there is an input portion remaining in the frame without being integrated with the target of the t-th frame.

ステップS27において、第t+1フレームに統合されずに残っている入力部分が存在すると判定された場合、ステップS28において、ターゲット生成部31は、統合されずに残っている入力部分について、新しいターゲットを生成する。   When it is determined in step S27 that there is an input portion that remains without being integrated in the t + 1-th frame, in step S28, the target generation unit 31 determines a new target for the input portion that is not integrated. Is generated.

すなわち、第tフレームのターゲットに統合されずに残った第t+1フレームの入力部分、つまり、ターゲットに対して空間的に近い関係にない入力部分については、新たな一連の入力が開始されたとして、新しいターゲットを生成する。そして、ターゲット生成部31は、新しいターゲットの情報を、第t+1フレームのターゲットの情報として、記憶部33に記憶させる。   In other words, a new series of inputs was started for the input portion of the t + 1 frame that remained without being integrated with the target of the t frame, that is, the input portion that was not spatially close to the target. As a new target is generated. Then, the target generation unit 31 stores the new target information in the storage unit 33 as the target information of the (t + 1) th frame.

ステップS29において、イベント生成部32は、ターゲット生成部31が新しいターゲットを生成すると、イベント「生成」を新たに発行し、そのイベントの情報を、第t+1フレームのイベントの情報として、記憶部33に記憶させる。そして、統合処理を終了し、処理は、図6のステップS5にリターンする。   In step S29, when the target generation unit 31 generates a new target, the event generation unit 32 newly issues an event “generation”, and uses the event information as event information of the (t + 1) th frame as a storage unit. 33. Then, the integration process is terminated, and the process returns to step S5 in FIG.

一方、ステップS27において、第t+1フレームに残っている入力部分が存在しないと判定された場合、ステップS28,S29の処理はスキップされ、統合処理は終了する。そして、処理は、図6のステップS5にリターンする。   On the other hand, if it is determined in step S27 that there is no input part remaining in the (t + 1) th frame, the processes in steps S28 and S29 are skipped, and the integration process ends. Then, the process returns to step S5 in FIG.

なお、上述した統合処理では、第tフレームのターゲットのうちの、第t+1フレームの入力部分が空間的に近い位置に存在しないターゲットの情報が削除されるように説明したが、その他、第tフレームのターゲットのうちの、第t+1フレームの入力部分が空間的に近い位置に存在しないターゲットの情報を、入力部分が空間的に近い位置にない場合に限って、その後も数フレーム連続して保持してから削除するようにしてもよい。これにより、ユーザが指の近接および接触を誤って一瞬解除してしまった場合でも、指の近接または接触を再開すれば、表示画面51Aに近接または接触している指に対応する入力部分を、指の近接および接触を一瞬解除する前のターゲットに統合することが可能となる。   In the integration process described above, the target information in which the input portion of the (t + 1) th frame does not exist at a spatially close position among the targets of the tth frame has been described. Among t-frame targets, information on targets whose input part of the (t + 1) th frame does not exist in a spatially close position is continuous for several frames only if the input part is not in a spatially close position. It may be deleted after being held. Thereby, even if the user accidentally releases the proximity and contact of the finger for a moment, if the proximity or contact of the finger is resumed, the input portion corresponding to the finger that is in proximity to or in contact with the display screen 51A, It is possible to integrate the proximity and contact of the finger with the target before being released for a moment.

以上のように、統合処理では、入出力ディスプレイ22の表示画面51Aに対して新たに入力があった入力部分のうちの、ターゲットの時間的及び空間的近傍にある入力部分が、ターゲットとしての一連の入力における一部を構成する入力部分としてそのターゲットに統合される。また、統合処理では、ターゲットの生成または消滅(削除)を表すイベントが適宜発行される。   As described above, in the integration processing, among the input portions newly input to the display screen 51A of the input / output display 22, the input portions in the temporal and spatial vicinity of the target are a series of targets. Is integrated into its target as an input part that forms part of the input. In the integration process, an event indicating generation or disappearance (deletion) of a target is appropriately issued.

図13は、生成部25から出力されるターゲットとイベントの情報の例を表している。   FIG. 13 illustrates an example of target and event information output from the generation unit 25.

図13の上の図は、時刻nの第nフレーム乃至時刻n+5の第n+5フレームのそれぞれの受光画像上の入力部分(図中、白丸で表す)を示している。また、図13の下の図は、第nフレーム乃至第n+5フレームのそれぞれに出力されるターゲットとイベントの情報を示している。   The upper part of FIG. 13 shows input portions (represented by white circles in the figure) on the received light images of the nth frame at time n to the n + 5th frame at time n + 5. The lower part of FIG. 13 shows target and event information output in each of the nth to n + 5th frames.

図13の上の図は、例えば、ユーザが、時刻nにおいて、1本の指で、入出力ディスプレイ22の表示画面51Aに対する近接または接触を開始し、その後、時刻nからn+4までの間、入出力ディスプレイ22の表示画面51Aに対する近接または接触をし続けながら、第n+2フレームで、表示画面51Aに近接または接触している位置を、左から右方向に移動することを開始し、第n+4フレームで、その移動を停止して、時刻n+5において、入出力ディスプレイ22の表示画面51Aに対する近接および接触を解除した場合に得られる入力部分#0を表している。   In the upper diagram of FIG. 13, for example, the user starts approaching or touching the display screen 51 </ b> A of the input / output display 22 with one finger at time n, and thereafter, from time n to n + 4 , While continuing to approach or touch the display screen 51A of the input / output display 22, starts moving the position close to or touching the display screen 51A from the left to the right in the (n + 2) th frame, In the (n + 4) th frame, the movement is stopped, and at time n + 5, the input portion # 0 obtained when the proximity and contact with the display screen 51A of the input / output display 22 is released is shown.

すなわち、第nフレームでは、ユーザが入出力ディスプレイ22の表示画面51Aに対する近接または接触を開始することにより、図13の上の図に示すように、入力部分#0が新たに出現している。   That is, in the nth frame, when the user starts approaching or touching the display screen 51A of the input / output display 22, an input portion # 0 newly appears as shown in the upper diagram of FIG.

この場合、第nフレームの入力部分#0について、新たなターゲット#0が生成される。すなわち、第nフレームでは、図13の下の図に示すように、ターゲットIDが0で、第nフレームの入力部分#0の位置情報(代表座標)等のターゲットID以外のターゲット属性(以下、ターゲット関連情報INFOという)を有する新たなターゲット#0が生成される。   In this case, a new target # 0 is generated for the input part # 0 of the nth frame. That is, in the nth frame, as shown in the lower diagram of FIG. 13, the target ID is 0, and target attributes other than the target ID such as position information (representative coordinates) of the input part # 0 of the nth frame (hereinafter, A new target # 0 having target related information INFO) is generated.

なお、ターゲットの実体は、ターゲット属性を記憶する、メモリ等に確保される記憶領域である。   The target entity is a storage area secured in a memory or the like that stores target attributes.

第nフレームでは、新たなターゲット#0が生成されたことに対応して、イベントが生成される。すなわち、第nフレームでは、図13の下の図に示すように、イベントを識別する識別情報であるイベントIDが0で、イベントの種類を表すイベントタイプTypeが新たなターゲットの生成を表すCreateであり、イベントが状態を表すターゲットを特定する特定情報tidが、ターゲット#0のターゲットIDの0であるイベント属性を有する新たなイベント#0が生成される。   In the nth frame, an event is generated in response to the generation of a new target # 0. That is, in the nth frame, as shown in the lower diagram of FIG. 13, the event ID that is identification information for identifying the event is 0, and the event type Type that indicates the type of the event is Create that indicates the generation of a new target. There is generated a new event # 0 having an event attribute in which the specific information tid for specifying the target representing the state of the event is 0 as the target ID of the target # 0.

なお、イベントタイプTypeが新たなターゲットの生成を表すCreateであるイベントが、イベント「生成」である。   An event whose event type Type is “Create” indicating generation of a new target is an event “generation”.

このように、イベントは、イベントが状態を表すターゲットを特定する特定情報tidを、イベント属性の1つとして有するので、その特定情報tidによって、イベントが状態を表すターゲットを特定することができる。   As described above, since the event has the specific information tid that specifies the target in which the event represents the state as one of the event attributes, the target in which the event represents the state can be specified by the specific information tid.

なお、イベントの実体は、イベント属性を記憶する、メモリ等に確保される記憶領域である。   The event entity is a storage area secured in a memory or the like for storing event attributes.

次に、第n+1フレームでは、図13の上の図に示すように、入力部分#0が移動せずに、そのまま存在している。   Next, in the (n + 1) th frame, as shown in the upper diagram of FIG. 13, the input part # 0 is present without moving.

この場合、その1フレーム前の第nフレームのターゲット#0に、第n+1フレームの入力部分#0が統合される。その結果、第n+1フレームでは、ターゲット#0は、図13の下の図に示すように、ターゲット関連情報INFOが、第n+1フレームの入力部分の位置情報等で更新された第nフレームのターゲット#0、つまり、ターゲットIDが0のままで、第n+1フレームの入力部分#0の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input portion # 0 of the (n + 1) th frame is integrated with the target # 0 of the nth frame one frame before. As a result, in the (n + 1) th frame, as shown in the lower diagram of FIG. 13, the target # 0 is the nth when the target related information INFO is updated with the position information of the input portion of the (n + 1) th frame. The target # 0 of the frame, that is, the target having the target ID of 0, has the position information of the input portion # 0 of the (n + 1) th frame as the target related information INFO.

第n+2フレームでは、図13の上の図に示すように、入力部分#0が移動を開始している。   In the (n + 2) th frame, as shown in the upper diagram of FIG. 13, the input portion # 0 starts moving.

この場合、その1フレーム前の第n+1フレームのターゲット#0に、第n+2フレームの入力部分#0が統合される。その結果、第n+2フレームでは、ターゲット#0は、図13の下の図に示すように、ターゲット関連情報INFOが、第n+2フレームの入力部分#0の位置情報等で更新された第n+1フレームのターゲット、つまり、ターゲットIDが0のままで、第n+2フレームの入力部分#0の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input part # 0 of the (n + 2) th frame is integrated with the target # 0 of the (n + 1) th frame one frame before. As a result, in the (n + 2) th frame, the target # 0 has the target related information INFO updated with the position information of the input part # 0 in the (n + 2) th frame as shown in the lower diagram of FIG. The target of the (n + 1) th frame, that is, the target having the target ID of 0 and the position information of the input portion # 0 of the (n + 2) th frame as the target related information INFO.

さらに、第n+2フレームでは、ターゲット#0に統合された入力部分#0の移動が開始されたこと、したがって、ターゲット#0の移動が開始されたことに対応して、イベントが生成される。すなわち、第n+2フレームでは、図13の下の図に示すように、イベントを識別する識別情報であるイベントIDが、第nフレームで生成されたイベントのイベントIDとは異なる1で、イベントタイプTypeがターゲットの移動を表すMoveStartであり、特定情報tidが、移動を開始したターゲット#0のターゲットIDの0であるイベント属性を有する新たなイベント#1が生成される。   Further, in the (n + 2) th frame, an event is generated in response to the start of the movement of the input part # 0 integrated with the target # 0, and thus the start of the movement of the target # 0. . That is, in the (n + 2) th frame, as shown in the lower diagram of FIG. 13, the event ID, which is identification information for identifying the event, is 1 which is different from the event ID of the event generated in the nth frame. A new event # 1 having an event attribute whose type Type is MoveStart indicating movement of the target and whose specific information tid is 0 of the target ID of the target # 0 that started the movement is generated.

次に、第n+3フレームでは、図13の上の図に示すように、入力部分#0が移動中である。   Next, in the (n + 3) th frame, as shown in the upper diagram of FIG. 13, the input part # 0 is moving.

この場合、その1フレーム前の第n+2フレームのターゲット#0に、第n+3フレームの入力部分#0が統合される。その結果、第n+3フレームでは、ターゲット#0は、図13の下の図に示すように、ターゲット関連情報INFOが、第n+3フレームの入力部分#0の位置情報等で更新された第n+3フレームのターゲット、つまり、ターゲットIDが0のままで、第n+3フレームの入力部分#0の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input portion # 0 of the (n + 3) th frame is integrated with the target # 0 of the (n + 2) th frame one frame before. As a result, in the (n + 3) th frame, the target # 0 has the target related information INFO updated with the position information of the input part # 0 in the (n + 3) th frame as shown in the lower diagram of FIG. The target of the (n + 3) th frame, that is, the target having the target ID of 0 and having the position information of the input portion # 0 of the (n + 3) th frame as the target related information INFO.

第n+4フレームでは、図13の上の図に示すように、入力部分#0が停止している。   In the (n + 4) th frame, as shown in the upper diagram of FIG. 13, the input part # 0 is stopped.

この場合、その1フレーム前の第n+3フレームのターゲット#0に、第n+4フレームの入力部分#0が統合される。その結果、第n+4フレームでは、ターゲット#0は、図13の下の図に示すように、ターゲット関連情報INFOが、第n+4フレームの入力部分#0の位置情報等で更新された第n+3フレームのターゲット、つまり、ターゲットIDが0のままで、第n+4フレームの入力部分#0の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input portion # 0 of the (n + 4) th frame is integrated with the target # 0 of the (n + 3) th frame one frame before. As a result, in the (n + 4) th frame, the target # 0 has the target related information INFO updated with the position information of the input part # 0 in the (n + 4) th frame as shown in the lower diagram of FIG. The target of the (n + 3) th frame, that is, the target having the target ID of 0 and the position information of the input portion # 0 of the (n + 4) th frame as the target related information INFO.

さらに、第n+4フレームでは、ターゲット#0に統合された入力部分#0の移動が終了されたこと、したがって、ターゲット#0の移動が終了されたことに対応して、イベントが生成される。すなわち、第n+4フレームでは、図13の下の図に示すように、イベントを識別する識別情報であるイベントIDが、第nフレームまたは第n+2フレームで生成されたイベントのいずれのイベントIDとも異なる2で、イベントタイプTypeがターゲットの停止を表すMoveStopであり、特定情報tidが、移動を終了したターゲット#0のターゲットIDの0であるイベント属性を有する新たなイベント#2が生成される。   Furthermore, in the (n + 4) th frame, an event is generated in response to the end of the movement of the input part # 0 integrated with the target # 0, and thus the end of the movement of the target # 0. . That is, in the (n + 4) th frame, as shown in the lower diagram of FIG. 13, the event ID that is the identification information for identifying the event is any event generated in the (n + 2) th frame or the (n + 2) th frame. A new event # 2 is generated that has an event attribute whose event type is MoveStop indicating target stop and whose specific information tid is 0 of the target ID of target # 0 that has finished moving. The

第n+5フレームでは、ユーザが入出力ディスプレイ22の表示画面51Aに対する指の近接および接触を解除することにより、図13の上の図に示すように、入力部分#0が消滅している。   In the (n + 5) th frame, when the user releases the proximity and contact of the finger to the display screen 51A of the input / output display 22, the input portion # 0 disappears as shown in the upper diagram of FIG.

この場合、第n+5フレームでは、ターゲット#0が削除される。   In this case, target # 0 is deleted in the (n + 5) th frame.

さらに、第n+5フレームでは、入力部分#0が消滅したこと、したがって、ターゲット#0が削除されたことに対応して、イベントが生成される。すなわち、第n+5フレームでは、図9の下の図に示すように、イベントを識別する識別情報であるイベントIDが、第nフレーム、第n+2フレーム、または第n+4フレームで生成されたイベントのいずれのイベントIDとも異なる3で、イベントタイプTypeがターゲットの削除を表すDeleteであり、特定情報tidが、削除されたターゲット#0のターゲットIDの0であるイベント属性を有する新たなイベント#3が生成される。   Further, in the (n + 5) th frame, an event is generated in response to the disappearance of the input part # 0, and thus the deletion of the target # 0. That is, in the (n + 5) th frame, as shown in the lower diagram of FIG. 9, an event ID that is identification information for identifying an event is generated in the (n) th frame, the (n + 2) th frame, or the (n + 4) th frame. A new event having an event attribute whose event ID is 3 that is different from any event ID of the deleted event, the event type Type is Delete indicating the deletion of the target, and the specific information tid is 0 of the target ID of the deleted target # 0 Event # 3 is generated.

なお、イベントタイプTypeがターゲットの削除を表すDeleteであるイベントが、イベント「削除」である。   An event whose event type Type is “Delete” indicating deletion of a target is an event “deletion”.

図14は、生成部25から出力されるターゲットとイベントの情報の他の例を表している。   FIG. 14 illustrates another example of target and event information output from the generation unit 25.

図14の上の図は、時刻nの第nフレーム乃至時刻n+5の第n+5フレームのそれぞれの受光画像上の入力部分(図中、白丸で表す)を示している。図14の下の図は、第nフレーム乃至第n+5フレームのそれぞれに出力されるターゲットとイベントの情報を示している。   The upper part of FIG. 14 shows input portions (represented by white circles in the figure) on the received light images of the nth frame at time n to the n + 5th frame at time n + 5. The lower part of FIG. 14 shows target and event information output in each of the nth to n + 5th frames.

図14は、例えば、ユーザが、時刻nにおいて、ある1本の指で、入出力ディスプレイ22の表示画面51Aに対する近接または接触を開始し、その後、時刻nからn+4までの間、入出力ディスプレイ22の表示画面51Aに対する近接または接触をし続けながら、第n+2フレームで、表示画面51Aに近接または接触している位置を、左から右方向に移動することを開始し、第n+4フレームで、その移動を停止して、時刻n+5において、入出力ディスプレイ22の表示画面51Aに対する近接および接触を解除した場合に得られる入力部分を表している。   In FIG. 14, for example, the user starts approaching or touching the display screen 51 </ b> A of the input / output display 22 with a certain finger at time n, and thereafter performs input / output from time n to n + 4. While continuing to approach or contact the display screen 51A of the display 22, in the (n + 2) th frame, it starts to move from the left to the right in the position approaching or contacting the display screen 51A, and the n + th The input portion obtained when the movement is stopped and the proximity and contact of the input / output display 22 to the display screen 51A is released at time n + 5 in four frames is shown.

また、図14は、ユーザが、時刻n+1において、他の1本の指で、入出力ディスプレイ22の表示画面51Aに対する近接または接触を開始し、その後、時刻n+1からn+3までの間、入出力ディスプレイ22の表示画面51Aに対する近接または接触をし続けながら、第n+2フレームで、表示画面51Aに近接または接触している位置を、右から左方向に移動することを開始し、第n+3フレームで、その移動を停止して、時刻n+4において、入出力ディスプレイ22の表示画面51Aに対する近接および接触を解除した場合に得られる入力部分を表している。   FIG. 14 also shows that the user starts approaching or touching the display screen 51A of the input / output display 22 with another finger at time n + 1, and thereafter from time n + 1 to n + 3. During the period, while the input / output display 22 keeps approaching or touching the display screen 51A, it starts moving from the right to the left in the position of approaching or touching the display screen 51A in the (n + 2) th frame. In the (n + 3) th frame, the input is obtained when the movement is stopped and the proximity and contact of the input / output display 22 to the display screen 51A is released at time n + 4.

すなわち、第nフレームでは、ユーザが、ある1本の指で、入出力ディスプレイ22の表示画面51Aに対する近接または接触を開始することにより、図14の上の図に示すように、入力部分#0が新たに出現している。   That is, in the nth frame, when the user starts approaching or touching the display screen 51A of the input / output display 22 with a certain finger, as shown in the upper diagram of FIG. Has newly appeared.

この場合、第nフレームの入力部分#0について、図13の場合と同様に新たなターゲット#0が生成される。すなわち、第nフレームでは、図14の下の図に示すように、ターゲットIDが0で、ターゲット関連情報INFOが、第nフレームの入力部分#0の位置情報等になっているターゲット属性を有する新たなターゲット#0が生成される。   In this case, a new target # 0 is generated for the input portion # 0 of the nth frame, as in the case of FIG. That is, in the nth frame, as shown in the lower diagram of FIG. 14, the target ID is 0, and the target related information INFO has the target attribute that is the position information of the input portion # 0 of the nth frame. A new target # 0 is generated.

さらに、第nフレームでは、新たなターゲット#0が生成されたことに対応して、図13の場合と同様に、イベントが生成される。すなわち、第nフレームでは、図14の下の図に示すように、イベントIDが0で、イベントタイプTypeが新たなターゲットの生成を表すCreateであり、特定情報tidがターゲット#0のターゲットIDの0であるイベント属性を有する新たなイベント#0が生成される。   Further, in the nth frame, in response to the generation of a new target # 0, an event is generated as in the case of FIG. That is, in the nth frame, as shown in the lower diagram of FIG. 14, the event ID is 0, the event type Type is “Create” indicating generation of a new target, and the specific information tid is the target ID of the target ID of the target # 0. A new event # 0 having an event attribute that is 0 is generated.

次に、第n+1フレームでは、図14の上の図に示すように、入力部分#0が移動せずに、そのまま存在している。   Next, in the (n + 1) th frame, as shown in the upper diagram of FIG. 14, the input portion # 0 is present without moving.

この場合、その1フレーム前の第nフレームのターゲット#0に、第n+1フレームの入力部分#0が統合される。その結果、第n+1フレームでは、ターゲット#0は、図14の下の図に示すように、ターゲット関連情報INFOが、第n+1フレームの入力部分#0の位置情報等で更新された第nフレームのターゲット#0、つまり、ターゲットIDが0のままで、第n+1フレームの入力部分#0の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input portion # 0 of the (n + 1) th frame is integrated with the target # 0 of the nth frame one frame before. As a result, in the (n + 1) th frame, the target # 0 has the target related information INFO updated with the position information of the input part # 0 in the (n + 1) th frame as shown in the lower diagram of FIG. The target # 0 of the nth frame, that is, the target having the target ID of 0, has the position information of the input part # 0 of the (n + 1) th frame as the target related information INFO.

また、第n+1フレームでは、ユーザが、他の1本の指で、入出力ディスプレイ22の表示画面51Aに対する近接または接触を開始することにより、図14の上の図に示すように、他の入力部分#1が新たに出現している。   Further, in the (n + 1) th frame, when the user starts approaching or touching the display screen 51A of the input / output display 22 with another finger, as shown in the upper diagram of FIG. The new input part # 1 has appeared.

この場合、第n+1フレームの新たな入力部分#1について、新たなターゲット#1が生成される。すなわち、第n+1フレームでは、図14の下の図に示すように、ターゲットIDが、既に存在するターゲット#0のターゲットIDの0とは異なる1で、ターゲット関連情報INFOが、第n+1フレームの新たな入力部分#1の位置情報等になっているターゲット属性を有する新たなターゲット#1が生成される。   In this case, a new target # 1 is generated for the new input part # 1 of the (n + 1) th frame. That is, in the (n + 1) th frame, as shown in the lower diagram of FIG. 14, the target ID is 1 which is different from the target ID 0 of the existing target # 0, and the target related information INFO is the n + th frame. A new target # 1 having a target attribute which is position information of a new input part # 1 of one frame is generated.

さらに、第n+1フレームでは、新たなターゲット#0が生成されたことに対応して、イベントが生成される。すなわち、第n+1フレームでは、図14の下の図に示すように、イベントIDが、第nフレームで生成されたイベントのイベントIDの0とは異なる1で、イベントタイプTypeが新たなターゲットの生成を表すCreateであり、特定情報tidがターゲット#1のターゲットIDの1であるイベント属性を有する新たなイベント#1が生成される。   Further, in the (n + 1) th frame, an event is generated in response to the generation of a new target # 0. That is, in the (n + 1) th frame, as shown in the lower diagram of FIG. 14, the event ID is 1 which is different from 0 of the event ID of the event generated in the nth frame, and the event type Type is a new target. A new event # 1 having an event attribute whose specific information tid is 1 of the target ID of the target # 1 is generated.

第n+2フレームでは、図14の上の図に示すように、入力部分#0と#1が移動を開始している。   In the (n + 2) th frame, as shown in the upper diagram of FIG. 14, the input parts # 0 and # 1 start moving.

この場合、その1フレーム前の第n+1フレームのターゲット#0に、第n+2フレームの入力部分#0が統合される。その結果、第n+2フレームでは、ターゲット#0は、図14の下の図に示すように、ターゲット関連情報INFOが、第n+2フレームの入力部分#0の位置情報等で更新された第n+1フレームのターゲット、つまり、ターゲットIDが0のままで、第n+2フレームの入力部分#0の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input part # 0 of the (n + 2) th frame is integrated with the target # 0 of the (n + 1) th frame one frame before. As a result, in the (n + 2) th frame, the target # 0 has the target related information INFO updated with the position information of the input part # 0 in the (n + 2) th frame as shown in the lower diagram of FIG. The target of the (n + 1) th frame, that is, the target having the target ID of 0 and the position information of the input portion # 0 of the (n + 2) th frame as the target related information INFO.

同様に、第n+1フレームのターゲット#1に、第n+2フレームの入力部分#1が統合される。その結果、第n+2フレームでは、ターゲット#1は、図14の下の図に示すように、ターゲット関連情報INFOが、第n+2フレームの入力部分#1の位置情報等で更新された第n+1フレームのターゲット、つまり、ターゲットIDが1のままで、第n+2フレームの入力部分#1の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   Similarly, the input part # 1 of the (n + 2) th frame is integrated with the target # 1 of the (n + 1) th frame. As a result, in the (n + 2) th frame, as shown in the lower diagram of FIG. 14, the target # 1 has the target related information INFO updated with the position information of the input part # 1 in the (n + 2) th frame. The target of the (n + 1) th frame, that is, the target having the target ID of 1 and the position information of the input part # 1 of the (n + 2) th frame as the target related information INFO.

また、第n+2フレームでは、ターゲット#0に統合された入力部分#0の移動が開始されたこと、したがって、ターゲット#0の移動が開始されたことに対応して、イベントが生成される。すなわち、第n+2フレームでは、図14の下の図に示すように、イベントを識別する識別情報であるイベントIDが、いままでに生成されたイベント#0及び#1のイベントとは異なる2で、イベントタイプTypeがターゲットの移動を表すMoveStartであり、特定情報tidが、移動を開始したターゲット#0のターゲットIDの0であるイベント属性を有する新たなイベント#2が生成される。   Also, in the (n + 2) th frame, an event is generated in response to the start of the movement of the input part # 0 integrated with the target # 0, and thus the start of the movement of the target # 0. . That is, in the (n + 2) th frame, as shown in the lower diagram of FIG. 14, the event ID, which is identification information for identifying the event, is different from the events # 0 and # 1 generated so far. Thus, a new event # 2 having an event attribute whose event type Type is MoveStart indicating movement of the target and whose specific information tid is 0 of the target ID of the target # 0 that has started moving is generated.

同様に、第n+2フレームでは、ターゲット#1に統合された入力部分#1の移動が開始されたこと、したがって、ターゲット#1の移動が開始されたことに対応して、イベントが生成される。すなわち、第n+2フレームでは、図14の下の図に示すように、イベントを識別する識別情報であるイベントIDが、いままでに生成されたイベント#0乃至#2のイベントIDとは異なる3で、イベントタイプTypeがターゲットの移動を表すMoveStartであり、特定情報tidが、移動を開始したターゲット#1のターゲットIDの1であるイベント属性を有する新たなイベント#3が生成される。   Similarly, in the (n + 2) th frame, an event is generated in response to the start of the movement of the input part # 1 integrated with the target # 1, and thus the start of the movement of the target # 1. The That is, in the (n + 2) th frame, as shown in the lower diagram of FIG. 14, the event ID that is the identification information for identifying the event is different from the event IDs of the events # 0 to # 2 generated so far. 3, a new event # 3 having an event attribute whose event type Type is MoveStart indicating movement of the target and whose specific information tid is 1 of the target ID of the target # 1 that started the movement is generated.

次に、第n+3フレームでは、図14の上の図に示すように、入力部分#0が移動中である。   Next, in the (n + 3) th frame, as shown in the upper diagram of FIG. 14, the input part # 0 is moving.

この場合、その1フレーム前の第n+2フレームのターゲット#0に、第n+3フレームの入力部分#0が統合される。その結果、第n+3フレームでは、ターゲット#0は、図14の下の図に示すように、ターゲット関連情報INFOが、第n+3フレームの入力部分#0の位置情報等で更新された第n+3フレームのターゲット、つまり、ターゲットIDが0のままで、第n+3フレームの入力部分#0の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input portion # 0 of the (n + 3) th frame is integrated with the target # 0 of the (n + 2) th frame one frame before. As a result, in the (n + 3) th frame, the target # 0 has the target related information INFO updated with the position information of the input part # 0 in the (n + 3) th frame as shown in the lower diagram of FIG. The target of the (n + 3) th frame, that is, the target having the target ID of 0 and having the position information of the input portion # 0 of the (n + 3) th frame as the target related information INFO.

また、第n+3フレームでは、入力部分#1が停止している。   In addition, in the (n + 3) th frame, the input part # 1 is stopped.

この場合、その1フレーム前の第n+2フレームのターゲット#1に、第n+3フレームの入力部分#1が統合される。その結果、第n+3フレームでは、ターゲット#1は、図14の下の図に示すように、ターゲット関連情報INFOが、第n+3フレームの入力部分#1の位置情報等で更新された第n+3フレームのターゲット、つまり、ターゲットIDが1のままで、第n+3フレームの入力部分#1の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input portion # 1 of the (n + 3) th frame is integrated with the target # 1 of the (n + 2) th frame one frame before. As a result, in the (n + 3) th frame, as shown in the lower diagram of FIG. 14, the target related information INFO is updated with the position information of the input portion # 1 in the (n + 3) th frame. The target of the (n + 3) th frame, that is, the target having the target ID of 1 and the position information of the input portion # 1 of the (n + 3) th frame as the target related information INFO.

さらに、第n+3フレームでは、ターゲット#1に統合された入力部分#1の移動が終了されたこと、したがって、ターゲット#1の移動が終了されたことに対応して、イベントが生成される。すなわち、第n+3フレームでは、図14の下の図に示すように、イベントを識別する識別情報であるイベントIDが、いままでに生成されたイベント#0乃至#3のイベントIDとは異なるとは異なる4で、イベントタイプTypeがターゲットの停止を表すMoveStopであり、特定情報tidが、移動を終了したターゲット#1のターゲットIDの1であるイベント属性を有する新たなイベント#4が生成される。   Furthermore, in the (n + 3) th frame, an event is generated in response to the end of the movement of the input part # 1 integrated with the target # 1, and thus the end of the movement of the target # 1. . That is, in the (n + 3) th frame, as shown in the lower diagram of FIG. 14, the event ID that is identification information for identifying the event is different from the event IDs of the events # 0 to # 3 generated so far. 4 is generated, and the event type Type is MoveStop indicating the target stop, and a new event # 4 having an event attribute whose specific information tid is 1 of the target ID of the target # 1 that has finished moving is generated. The

次に、第n+4フレームでは、ユーザが、指の近接および接触を解除することにより、図14の上の図に示すように、入力部分#1が消滅している。   Next, in the (n + 4) th frame, when the user releases the proximity and contact of the finger, the input portion # 1 disappears as shown in the upper diagram of FIG.

この場合、第n+4フレームでは、ターゲット#1が削除される。   In this case, target # 1 is deleted in the (n + 4) th frame.

また、第n+4フレームでは、図14の上の図に示すように、入力部分#0が停止している。   In the (n + 4) th frame, as shown in the upper diagram of FIG. 14, the input part # 0 is stopped.

この場合、その1フレーム前の第n+3フレームのターゲット#0に、第n+4フレームの入力部分#0が統合される。その結果、第n+4フレームでは、ターゲット#0は、図14の下の図に示すように、ターゲット関連情報INFOが、第n+4フレームの入力部分#0の位置情報等で更新された第n+4フレームのターゲット、つまり、ターゲットIDが0のままで、第n+4フレームの入力部分#0の位置情報等をターゲット関連情報INFOとして有するターゲットとなる。   In this case, the input portion # 0 of the (n + 4) th frame is integrated with the target # 0 of the (n + 3) th frame one frame before. As a result, in the (n + 4) th frame, the target # 0 has the target related information INFO updated with the position information of the input part # 0 in the (n + 4) th frame as shown in the lower diagram of FIG. The target of the (n + 4) th frame, that is, the target having the target ID of 0 and the position information of the input portion # 0 of the (n + 4) th frame as the target related information INFO.

また、第n+4フレームでは、ターゲット#0に統合された入力部分#0の移動が終了されたこと、したがって、ターゲット#0の移動が終了されたことに対応して、イベントが生成される。すなわち、第n+4フレームでは、図14の下の図に示すように、イベントを識別する識別情報であるイベントIDが、いままでに生成されたイベント#0乃至#4のイベントとは異なる5で、イベントタイプTypeがターゲットの停止を表すMoveStopであり、特定情報tidが、移動を終了したターゲット#0のターゲットIDの0であるイベント属性を有する新たなイベント#5が生成される。   Further, in the (n + 4) th frame, an event is generated in response to the end of the movement of the input part # 0 integrated with the target # 0, and thus the end of the movement of the target # 0. . That is, in the (n + 4) th frame, as shown in the lower diagram of FIG. 14, the event ID, which is identification information for identifying the event, is different from the events # 0 to # 4 generated so far. Thus, a new event # 5 having an event attribute in which the event type Type is MoveStop indicating the target stop and the specific information tid is 0 of the target ID of the target # 0 that has finished moving is generated.

同様に、第n+4フレームでは、入力部分#1が消滅したこと、したがって、ターゲット#1が削除されたことに対応して、イベントが生成される。すなわち、第n+4フレームでは、図14の下の図に示すように、イベントを識別する識別情報であるイベントIDが、いままでに生成されたイベント#0乃至#5のイベントIDとは異なる6で、イベントタイプTypeがターゲットの削除を表すDeleteであり、特定情報tidが、削除されたターゲット#1のターゲットIDの1であるイベント属性を有する新たなイベント#6が生成される。   Similarly, in the (n + 4) th frame, an event is generated in response to the disappearance of the input part # 1 and thus the deletion of the target # 1. That is, in the (n + 4) th frame, as shown in the lower diagram of FIG. 14, the event ID that is identification information for identifying the event is different from the event IDs of the events # 0 to # 5 generated so far. 6, a new event # 6 having an event attribute whose event type Type is “Delete” indicating deletion of a target and whose specific information tid is 1 of the target ID of the deleted target # 1 is generated.

第n+5フレームでは、ユーザが入出力ディスプレイ22の表示画面51Aに対する近接および接触を解除することにより、図14の上の図に示すように、入力部分#0が消滅している。   In the (n + 5) th frame, when the user releases the proximity and contact of the input / output display 22 to the display screen 51A, the input portion # 0 disappears as shown in the upper diagram of FIG.

この場合、第n+5フレームでは、ターゲット#0が削除される。   In this case, target # 0 is deleted in the (n + 5) th frame.

さらに、第n+5フレームでは、入力部分#0が消滅したこと、したがって、ターゲット#0が削除されたことに対応して、イベントが生成される。すなわち、第n+5フレームでは、図14の下の図に示すように、イベントを識別する識別情報であるイベントIDが、いままでに生成されたイベント#0乃至#6のイベントIDとは異なる7で、イベントタイプTypeがターゲットの削除を表すDeleteであり、特定情報tidが、削除されたターゲット#0のターゲットIDの0であるイベント属性を有する新たなイベント#7が生成される。   Further, in the (n + 5) th frame, an event is generated in response to the disappearance of the input part # 0, and thus the deletion of the target # 0. That is, in the (n + 5) th frame, as shown in the lower diagram of FIG. 14, the event ID that is identification information for identifying the event is different from the event IDs of the events # 0 to # 6 generated so far. In step 7, a new event # 7 having an event attribute whose event type Type is “Delete” indicating deletion of the target and whose specific information tid is “0” of the target ID of the deleted target # 0 is generated.

以上のように、入出力パネル16では、複数の点に対する入力がある場合でも、外部から入力があった入力部分の時間的若しくは空間的位置関係に基づいて、一連の入力を表すターゲットの情報を生成し、さらに、ターゲットの状態の変化を表すイベントの情報を生成して出力するので、複数の点に対する入力の情報を容易に扱うことが可能になる。   As described above, in the input / output panel 16, even when there are inputs to a plurality of points, the target information representing a series of inputs is obtained based on the temporal or spatial positional relationship of the input portion that has been input from the outside. In addition, since event information representing a change in the state of the target is generated and output, it is possible to easily handle information on inputs to a plurality of points.

ここで、図15乃至図17を参照して、入出力ディスプレイの保護部材の他の例について説明する。   Here, another example of the protective member of the input / output display will be described with reference to FIGS. 15 to 17.

図15には、図2の保護部材52の代わりに保護部材211を用いた入出力ディスプレイ201が示されている。保護部材211は、保護部材52とは異なり、有色の半透明の素材で出来ている。   FIG. 15 shows an input / output display 201 using a protection member 211 instead of the protection member 52 of FIG. Unlike the protection member 52, the protection member 211 is made of a colored translucent material.

このように保護部材211を有色とすることにより、入出力パネル16のデザイン上の見栄えが向上する。   Thus, the appearance of the input / output panel 16 in design is improved by making the protection member 211 colored.

また、保護部材211は、半透明の素材で出来ているため、視認性および受光感度の低下を低く抑えることができる。なお、例えば、光センサ22Aが、460nm以下の波長の光(青または青に近い色の光)に対する受光感度が優れている場合、換言すれば、460nm以下の波長の光を拾いやすい特性がある場合、保護部材211の色を青色の半透明とすることにより、他の色にするよりも、光センサ22Aの受光感度を良好に保つことができる。   Moreover, since the protection member 211 is made of a semi-transparent material, it is possible to suppress a decrease in visibility and light receiving sensitivity. For example, when the optical sensor 22A has excellent light receiving sensitivity with respect to light having a wavelength of 460 nm or less (blue or light having a color close to blue), in other words, there is a characteristic that it is easy to pick up light having a wavelength of 460 nm or less. In this case, by making the color of the protective member 211 semi-transparent blue, the light receiving sensitivity of the optical sensor 22A can be maintained better than other colors.

図16には、図2の保護部材52の代わりに保護部材231を用いた入出力ディスプレイ221が示されている。   FIG. 16 shows an input / output display 221 using a protection member 231 instead of the protection member 52 of FIG.

保護部材231は、本体部51に接触する面と反対の面に凹または凸状のガイド231A乃至231Eの加工が施されている。ガイド231A乃至231Eは、例えば、入出力ディスプレイ22に表示される画像上のボタンやスイッチなどの操作部(UI(ユーザインタフェース)部品)に対応した形をしている。そして、保護部材231を本体部51に装着した場合、表示画面51Aにおいて、ガイド231A乃至231Eのほぼ真下に対応する操作部が表示されるようになされている。これにより、ユーザは、表示画面51A上の操作部(UI部品)の種類および位置を手の感覚で知ることができ、例えば、表示画面51Aを見ずに操作することが可能となり、表示システム1の操作性が向上する。   The protective member 231 is processed with concave or convex guides 231A to 231E on the surface opposite to the surface in contact with the main body 51. The guides 231A to 231E have, for example, shapes corresponding to operation units (UI (user interface) parts) such as buttons and switches on an image displayed on the input / output display 22. When the protective member 231 is attached to the main body 51, the operation unit corresponding to the position just below the guides 231A to 231E is displayed on the display screen 51A. Accordingly, the user can know the type and position of the operation unit (UI component) on the display screen 51A with his / her hand. For example, the user can operate without viewing the display screen 51A. Improved operability.

図17には、図2の保護部材52の代わりに保護部材261を用いた入出力ディスプレイ251が示されている。   FIG. 17 shows an input / output display 251 using a protection member 261 instead of the protection member 52 of FIG.

保護部材261は、本体部51に接触する面と反対の面に保護部材231と同様のガイド261A乃至261Eの加工が施されるとともに、有色の半透明の素材で出来ている。これにより、表示システム1の操作性を向上させるとともに、入出力パネル16のデザイン上の見栄えを向上させることができる。   The protective member 261 is made of a colored translucent material while processing the guides 261A to 261E similar to the protective member 231 is performed on the surface opposite to the surface in contact with the main body 51. Thereby, the operability of the display system 1 can be improved and the design appearance of the input / output panel 16 can be improved.

なお、保護部材の表面に所定の模様や文字などを凹または凸状に加工することにより、入出力パネル16のデザイン上の見栄えを向上させたり、各種の情報を示したりすることも可能である。   In addition, it is also possible to improve the appearance of the input / output panel 16 in design or to display various information by processing a predetermined pattern or characters on the surface of the protective member into a concave or convex shape. .

また、保護部材を本体部51に簡単に着脱可能な構成とすることにより、例えば、表示システム1において使用するアプリケーションの種類に応じて、すなわち、表示画面51Aに表示される画像上の操作部の種類、形、位置などの違いに応じて、保護部材を取り替えるようにして、さらにユーザの操作性を向上させることができる。   Further, by adopting a configuration in which the protective member can be easily attached to and detached from the main body 51, for example, according to the type of application used in the display system 1, that is, the operation unit on the image displayed on the display screen 51A. The user's operability can be further improved by replacing the protective member according to the difference in type, shape, position, and the like.

図18は、本発明を適用した表示システムの他の一実施の形態の構成例を示すブロック図である。   FIG. 18 is a block diagram showing a configuration example of another embodiment of a display system to which the present invention is applied.

図18の表示システム301では、図1における制御部12に、入出力パネル16の生成部25が移動されている。   In the display system 301 of FIG. 18, the generation unit 25 of the input / output panel 16 is moved to the control unit 12 of FIG.

すなわち、図18において、アンテナ310、信号処理部311、記憶部313、操作部314、通信部315、表示信号処理部321、入出力ディスプレイ322、光センサ322A、受光信号処理部323、画像処理部324、及び生成部325は、図1におけるアンテナ10、信号処理部11、記憶部13、操作部14、通信部15、表示信号処理部21、入出力ディスプレイ22、光センサ22A、受光信号処理部23、画像処理部24、及び生成部25と同様に構成されるので、表示システム301は、図1における表示システム1と同様に表示受光制御処理を行うことができる。ただし、図1の生成部25の記憶部33として、図18では、記憶部313が使用されている。   18, the antenna 310, the signal processing unit 311, the storage unit 313, the operation unit 314, the communication unit 315, the display signal processing unit 321, the input / output display 322, the optical sensor 322A, the received light signal processing unit 323, and the image processing unit. 324 and the generation unit 325 are the antenna 10, the signal processing unit 11, the storage unit 13, the operation unit 14, the communication unit 15, the display signal processing unit 21, the input / output display 22, the optical sensor 22A, and the received light signal processing unit in FIG. 23, the image processing unit 24 and the generation unit 25 are configured in the same manner, and the display system 301 can perform the display light reception control process in the same manner as the display system 1 in FIG. However, in FIG. 18, the storage unit 313 is used as the storage unit 33 of the generation unit 25 in FIG.

図19は、本発明を適用した表示システムの他の一実施の形態の構成例を示すブロック図である。   FIG. 19 is a block diagram showing a configuration example of another embodiment of a display system to which the present invention is applied.

図19の表示システム401では、図1における制御部12に、入出力パネル16の生成部25と画像処理部24が移動されている。   In the display system 401 in FIG. 19, the generation unit 25 and the image processing unit 24 of the input / output panel 16 are moved to the control unit 12 in FIG. 1.

すなわち、図19において、アンテナ410、信号処理部411、記憶部413、操作部414、通信部415、表示信号処理部421、入出力ディスプレイ422、光センサ422A、受光信号処理部423、画像処理部424、及び生成部425は、図1におけるアンテナ10、信号処理部11、記憶部13、操作部14、通信部15、表示信号処理部21、入出力ディスプレイ22、光センサ22A、受光信号処理部23、画像処理部24、及び生成部25と同様に構成されるので、表示システム401は、図1における表示システム1と同様に表示受光制御処理を行うことができる。   That is, in FIG. 19, an antenna 410, a signal processing unit 411, a storage unit 413, an operation unit 414, a communication unit 415, a display signal processing unit 421, an input / output display 422, an optical sensor 422A, a received light signal processing unit 423, an image processing unit. 424 and the generation unit 425 are the antenna 10, the signal processing unit 11, the storage unit 13, the operation unit 14, the communication unit 15, the display signal processing unit 21, the input / output display 22, the optical sensor 22A, and the received light signal processing unit in FIG. 23, the image processing unit 24, and the generation unit 25, the display system 401 can perform the display light reception control process similarly to the display system 1 in FIG.

図20は、本発明を適用した入出力パネル601の外観の構成の例を示している。図20に示されるように、入出力パネル601はフラット型のモジュール形状をしている。入出力パネル601においては、例えば、絶縁性の基板611上に、液晶素子、薄膜トランジスタ、薄膜容量、受光素子等からなる画素をマトリックス状に集積形成した画素アレイ部613が設けられる。また、この画素アレイ部613を囲むように接着剤を配し、ガラス等の対向基板612が貼り付けられる。さらに、入出力パネル601には、外部から画素アレイ部613への信号等を入出力するためのコネクタ614Aおよび614Bが設けられる。コネクタ614Aおよび614Bは、例えば、FPC(フレキシブルプリントサーキット)により構成される。   FIG. 20 shows an example of an external configuration of an input / output panel 601 to which the present invention is applied. As shown in FIG. 20, the input / output panel 601 has a flat module shape. In the input / output panel 601, for example, a pixel array unit 613 in which pixels formed of a liquid crystal element, a thin film transistor, a thin film capacitor, a light receiving element, and the like are integrated and formed in a matrix on an insulating substrate 611 is provided. Further, an adhesive is disposed so as to surround the pixel array portion 613, and a counter substrate 612 such as glass is attached. Further, the input / output panel 601 is provided with connectors 614A and 614B for inputting / outputting signals to / from the pixel array unit 613 from the outside. The connectors 614A and 614B are configured by, for example, an FPC (flexible printed circuit).

以上に説明した本発明における入出力パネルは、例えば、フラットパネル形状を有し、例えば、デジタルカメラ、ノート型パーソナルコンピュータ、携帯電話機、ビデオカメラなど、電子機器に入力された、または、電子機器内で生成した映像信号を、画像または映像として表示するあらゆる分野の電子機器のディスプレイに適用することが可能である。以下この様な入出力パネルが適用された電子機器の例を示す。   The input / output panel according to the present invention described above has a flat panel shape, for example, and is input to an electronic device such as a digital camera, a notebook personal computer, a mobile phone, a video camera, or the like. It is possible to apply to the display of the electronic device of all the fields which display the video signal produced | generated by 1 as an image or an image | video. Examples of electronic devices to which such an input / output panel is applied are shown below.

図21には、本発明が適用されたテレビジョン受像機の一実施の形態が示されている。図21のテレビジョン受像機621は、フロントパネル631A、フィルターガラス631B等から構成される映像表示部631を含み、例えば、映像表示部631に本発明の入出力パネルが適用される。   FIG. 21 shows an embodiment of a television receiver to which the present invention is applied. The television receiver 621 in FIG. 21 includes a video display unit 631 including a front panel 631A, a filter glass 631B, and the like. For example, the input / output panel of the present invention is applied to the video display unit 631.

図22には、本発明が適用されたデジタルカメラの一実施の形態が示されており、上が正面図で下が背面図である。図22のデジタルカメラ641は、撮像レンズ、フラッシュ用の発光部651、表示部652、コントロールスイッチ、メニュースイッチ、シャッター653等を含み、例えば、表示部652に本発明の入出力パネルが適用される。   FIG. 22 shows an embodiment of a digital camera to which the present invention is applied. The upper view is a front view and the lower view is a rear view. A digital camera 641 in FIG. 22 includes an imaging lens, a flash light emitting unit 651, a display unit 652, a control switch, a menu switch, a shutter 653, and the like. For example, the input / output panel of the present invention is applied to the display unit 652. .

図23には、本発明が適用されたノート型パーソナルコンピュータの一実施の形態が示されている。図23のパーソナルコンピュータ661の本体部661Aは、文字等を入力するとき操作されるキーボード671を含み、本体カバー部661Bは、画像を表示する表示部672を含んでいる。例えば、表示部672に本発明の入出力パネルが適用される。   FIG. 23 shows an embodiment of a notebook personal computer to which the present invention is applied. The main body 661A of the personal computer 661 in FIG. 23 includes a keyboard 671 operated when inputting characters and the like, and the main body cover 661B includes a display 672 for displaying an image. For example, the input / output panel of the present invention is applied to the display portion 672.

図24には、本発明が適用された携帯端末装置の一実施の形態が示されており、左側の図が携帯端末装置を開いた状態を表し、右側の図が携帯端末装置を閉じた状態を表している。図24の携帯端末装置681は、上側筐体681Aと下側筐体681Bがヒンジ部681により連結され、ディスプレイ691、サブディスプレイ692、ピクチャーライト693、カメラ694等を含む。例えば、ディスプレイ691やサブディスプレイ692に本発明の入出力パネルが適用される。   FIG. 24 shows an embodiment of a mobile terminal device to which the present invention is applied. The left diagram shows a state in which the mobile terminal device is opened, and the right diagram shows a state in which the mobile terminal device is closed. Represents. A mobile terminal device 681 in FIG. 24 includes an upper housing 681A and a lower housing 681B that are connected by a hinge portion 681, and includes a display 691, a sub display 692, a picture light 693, a camera 694, and the like. For example, the input / output panel of the present invention is applied to the display 691 and the sub display 692.

図25には、本発明が適用されたビデオカメラの一実施の形態が示されている。図25のビデオカメラ701は、本体部711、前方を向いた側面に被写体撮影用のレンズ712、撮影時のスタート/ストップスイッチ713、モニタ714等を含み、例えば、モニタ714に本発明の入出力パネルが適用される。   FIG. 25 shows an embodiment of a video camera to which the present invention is applied. A video camera 701 in FIG. 25 includes a main body 711, a lens 712 for shooting an object on the side facing forward, a start / stop switch 713 at the time of shooting, a monitor 714, and the like. Panel is applied.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した表示システムの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the display system to which this invention is applied. 入出力ディスプレイの外観の構成の例を模式的に示す図である。It is a figure which shows typically the example of a structure of the external appearance of an input / output display. 入出力ディスプレイの本体部の階層構造の例を模式的に示す図である。It is a figure which shows typically the example of the hierarchical structure of the main-body part of an input / output display. 入出力ディスプレイの動作を制御するドライバの配置の例を示す図である。It is a figure which shows the example of arrangement | positioning of the driver which controls operation | movement of an input / output display. 入出力ディスプレイの画素の1画素あたりの回路の構成の例を示す図である。It is a figure which shows the example of a structure of the circuit per pixel of the pixel of an input-output display. 表示システムによる表示受光制御処理を説明するフローチャートである。It is a flowchart explaining the display light reception control processing by a display system. 表示受光制御処理を行うソフトウェアの構成を説明する図である。It is a figure explaining the structure of the software which performs a display light reception control process. 時刻tの第tフレームに存在するターゲットを表す図である。It is a figure showing the target which exists in the t-th frame of the time t. 第t+1フレームの統合処理前の入力部分を表す図である。It is a figure showing the input part before the integration process of the t + 1 frame. 第tフレームと第t+1フレームとを重ね合わせた状態を表す図である。It is a figure showing the state which overlap | superposed the t frame and the t + 1 frame. 受光画像を示す図である。It is a figure which shows a light reception image. 図6のステップS4の統合処理を説明するフローチャートである。It is a flowchart explaining the integration process of step S4 of FIG. 生成部から出力されるターゲットとイベントの情報の例を表す図である。It is a figure showing the example of the information of the target output from a production | generation part, and an event. 生成部から出力されるターゲットとイベントの情報の他の例を表す図である。It is a figure showing the other example of the target and event information output from a production | generation part. 入出力ディスプレイの外観の構成の他の例を模式的に示す図である。It is a figure which shows typically the other example of a structure of the external appearance of an input / output display. 入出力ディスプレイの外観の構成のさらに他の例を模式的に示す図である。It is a figure which shows typically the other example of the structure of the external appearance of an input / output display. 入出力ディスプレイの外観の構成のさらに他の例を模式的に示す図である。It is a figure which shows typically the other example of the structure of the external appearance of an input / output display. 本発明を適用した表示システムの他の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of other one Embodiment of the display system to which this invention is applied. 本発明を適用した表示システムの他の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of other one Embodiment of the display system to which this invention is applied. 本発明にかかる入出力パネルのモジュール構成を示す平面図である。It is a top view which shows the module structure of the input-output panel concerning this invention. 本発明にかかる入出力パネルを備えたテレビジョンセットを示す斜視図である。It is a perspective view which shows the television set provided with the input-output panel concerning this invention. 本発明にかかる入出力パネルを備えたデジタルカメラを示す斜視図である。It is a perspective view which shows the digital camera provided with the input-output panel concerning this invention. 本発明にかかる入出力パネルを備えたノート型パーソナルコンピュータを示す斜視図である。1 is a perspective view showing a notebook personal computer including an input / output panel according to the present invention. 本発明にかかる入出力パネルを備えた携帯端末装置を示す模式図である。It is a schematic diagram which shows the portable terminal device provided with the input-output panel concerning this invention. 本発明にかかる入出力パネルを備えたビデオカメラを示す斜視図である。It is a perspective view which shows the video camera provided with the input-output panel concerning this invention.

符号の説明Explanation of symbols

1 表示システム, 16 入出力パネル, 22 入出力ディスプレイ, 22A 光センサ, 51 本体部, 51A 表示画面, 52 保護部材, 61 TFT基板, 62 対向電極基板, 63 液晶層, 64 電極層, 65 対向電極, 66 カラーフィルタ, 67、68 偏光板, 69 バックライト, 111 スイッチング素子, 112 画素電極, 113 リセットスイッチ, 114 コンデンサ, 115 バッファアンプ, 116 スイッチ, 201 入出力ディスプレイ, 211 保護部材, 221 入出力ディスプレイ, 231 保護部材, 231A乃至231E ガイド, 251 入出力ディスプレイ, 261 保護部材, 261A乃至261E ガイド, 301 表示システム, 316 入出力パネル, 322 入出力ディスプレイ, 322A 光センサ, 401 表示システム, 416 入出力パネル, 422 入出力ディスプレイ, 422A 光センサ, 601 入出力パネル, 621 テレビジョン受像機, 631 映像表示部, 641 デジタルカメラ, 652 表示部, 661 パーソナルコンピュータ, 672 表示部, 681 携帯端末装置, 691 ディスプレイ, 692 サブディスプレイ, 701 ビデオカメラ, 714 モニタ   DESCRIPTION OF SYMBOLS 1 Display system, 16 Input / output panel, 22 Input / output display, 22A Optical sensor, 51 Main part, 51A Display screen, 52 Protection member, 61 TFT substrate, 62 Counter electrode substrate, 63 Liquid crystal layer, 64 Electrode layer, 65 Counter electrode , 66 color filter, 67, 68 polarizing plate, 69 backlight, 111 switching element, 112 pixel electrode, 113 reset switch, 114 capacitor, 115 buffer amplifier, 116 switch, 201 input / output display, 211 protection member, 221 input / output display , 231 protection member, 231A to 231E guide, 251 input / output display, 261 protection member, 261A to 261E guide, 301 display system, 316 input / output panel, 3 22 input / output display, 322A optical sensor, 401 display system, 416 input / output panel, 422 input / output display, 422A optical sensor, 601 input / output panel, 621 television receiver, 631 video display unit, 641 digital camera, 652 display unit , 661 personal computer, 672 display unit, 681 portable terminal device, 691 display, 692 sub-display, 701 video camera, 714 monitor

Claims (4)

画像の表示と外部からの入力に対応する光の検出を行う入出力部を有し、前記入出力部の表示画面上の複数の点に対する入力が可能な表示装置であって、前記表示画面が透明または半透明なシート状の保護部材により覆われている表示装置。   An input / output unit for detecting light corresponding to display of an image and input from the outside, and a display device capable of inputting to a plurality of points on the display screen of the input / output unit, wherein the display screen A display device covered with a transparent or translucent sheet-like protective member. 前記保護部材の表面に所定の形の凹または凸状の加工が施されている
請求項1に記載の表示装置。
The display device according to claim 1, wherein the surface of the protection member is processed to have a predetermined concave or convex shape.
前記保護部材の表面に前記表示画面に表示される操作部に対応した形の凹または凸状の加工が施されている
請求項2に記載の表示装置。
The display device according to claim 2, wherein the surface of the protection member is processed to have a concave or convex shape corresponding to an operation unit displayed on the display screen.
前記保護部材は有色である
請求項1に記載の表示装置。
The display device according to claim 1, wherein the protection member is colored.
JP2007100884A 2007-04-06 2007-04-06 Display device Active JP4333768B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2007100884A JP4333768B2 (en) 2007-04-06 2007-04-06 Display device
TW097109499A TWI387903B (en) 2007-04-06 2008-03-18 Display apparatus
US12/061,131 US20080246722A1 (en) 2007-04-06 2008-04-02 Display apparatus
KR1020080031622A KR101515868B1 (en) 2007-04-06 2008-04-04 Display apparatus
CN2008100911273A CN101281445B (en) 2007-04-06 2008-04-07 Display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007100884A JP4333768B2 (en) 2007-04-06 2007-04-06 Display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009114193A Division JP2009175761A (en) 2009-05-11 2009-05-11 Display apparatus

Publications (2)

Publication Number Publication Date
JP2008257061A true JP2008257061A (en) 2008-10-23
JP4333768B2 JP4333768B2 (en) 2009-09-16

Family

ID=39826494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007100884A Active JP4333768B2 (en) 2007-04-06 2007-04-06 Display device

Country Status (5)

Country Link
US (1) US20080246722A1 (en)
JP (1) JP4333768B2 (en)
KR (1) KR101515868B1 (en)
CN (1) CN101281445B (en)
TW (1) TWI387903B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017169791A (en) * 2016-03-23 2017-09-28 旭化成株式会社 Potential measuring device

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9256342B2 (en) 2008-04-10 2016-02-09 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
KR20100048090A (en) * 2008-10-30 2010-05-11 삼성전자주식회사 Interface apparatus for generating control command by touch and motion, interface system including the interface apparatus, and interface method using the same
TWI425400B (en) * 2009-05-26 2014-02-01 Japan Display West Inc Information input device, information input method, information input-output device, storage medium, and electronic unit
CN102135841B (en) * 2011-03-25 2015-04-29 苏州佳世达电通有限公司 Optical touch screen with file scanning function and file scanning method thereof
US20140267944A1 (en) * 2013-03-14 2014-09-18 FiftyThree Inc. Optically transparent film composites
CN105334911A (en) * 2014-06-26 2016-02-17 联想(北京)有限公司 Electronic device
CN106502383A (en) * 2016-09-21 2017-03-15 努比亚技术有限公司 A kind of information processing method and mobile terminal
CN210244392U (en) * 2019-07-07 2020-04-03 奕力科技股份有限公司 Display device capable of detecting fingerprint of finger and fingerprint identification chip
CN112835417A (en) * 2021-02-03 2021-05-25 业成科技(成都)有限公司 Electronic device and control method thereof

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4785564A (en) * 1982-12-20 1988-11-22 Motorola Inc. Electronic notepad
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) * 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7408598B2 (en) * 2002-02-20 2008-08-05 Planar Systems, Inc. Light sensitive display with selected interval of light sensitive elements
CN100511115C (en) * 2002-03-13 2009-07-08 平蛙实验室股份公司 A touch pad, a stylus for use with the touch pad, and a method of operating the touch pad
KR20040005309A (en) * 2002-07-09 2004-01-16 삼성전자주식회사 Light guide panel, and backlight assembly and liquid crystal display having the same
CN1836133A (en) * 2003-06-16 2006-09-20 三菱电机株式会社 Planar light source device and display device using the same
US7495659B2 (en) * 2003-11-25 2009-02-24 Apple Inc. Touch pad for handheld device
US7728914B2 (en) * 2004-01-28 2010-06-01 Au Optronics Corporation Position encoded sensing device with amplified light reflection intensity and a method of manufacturing the same
JP2005236421A (en) * 2004-02-17 2005-09-02 Aruze Corp Image display system
JP2005243267A (en) * 2004-02-24 2005-09-08 Advanced Display Inc Surface light source device and liquid crystal display
JP4211669B2 (en) * 2004-04-26 2009-01-21 セイコーエプソン株式会社 Display device, color filter for display device, and electronic device
US7728823B2 (en) * 2004-09-24 2010-06-01 Apple Inc. System and method for processing raw data of track pad device
JP2006209279A (en) * 2005-01-26 2006-08-10 Nec Computertechno Ltd Input device and touch reading character/symbol input method
US7609178B2 (en) * 2006-04-20 2009-10-27 Pressure Profile Systems, Inc. Reconfigurable tactile sensor input device
US7535463B2 (en) * 2005-06-15 2009-05-19 Microsoft Corporation Optical flow-based manipulation of graphical objects
US20070057929A1 (en) * 2005-09-13 2007-03-15 Tong Xie Navigation device with a contoured region that provides tactile feedback
JP5191119B2 (en) * 2006-12-06 2013-04-24 株式会社ジャパンディスプレイウェスト Display device, display device control method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017169791A (en) * 2016-03-23 2017-09-28 旭化成株式会社 Potential measuring device

Also Published As

Publication number Publication date
US20080246722A1 (en) 2008-10-09
TW200844809A (en) 2008-11-16
JP4333768B2 (en) 2009-09-16
CN101281445B (en) 2012-10-10
KR101515868B1 (en) 2015-04-29
TWI387903B (en) 2013-03-01
KR20080091022A (en) 2008-10-09
CN101281445A (en) 2008-10-08

Similar Documents

Publication Publication Date Title
JP4333768B2 (en) Display device
US11647663B2 (en) Display device having at least four overlapping display panels
US10324492B2 (en) Smartphone with front camera and maximized display screen
US9799276B2 (en) Display panel and mobile terminal
CN102592514B (en) There is the organic LED display device of light sensing function
US8487886B2 (en) Information input device, information input method, information input/output device, and information input program
US10777122B2 (en) Electroluminescence display device and driving method thereof
US20110084934A1 (en) Information input device, information input method, information input/output device, computer readable non-transitory recording medium and electronic unit
RU2725673C1 (en) Display module, a display device, a control method for the display device and a data medium
EP3232258B1 (en) Multi-face display device
JP2008299474A (en) Display control device and method, display device, imaging device, and program
US11521991B2 (en) Display module and mobile terminal
US9239642B2 (en) Imaging apparatus and method of controlling the same
US20140232665A1 (en) Electronic apparatus with a display module integrated with a touch sensor
JP2011044479A (en) Sensor element, method of driving the same, sensor device, display device with input function, and electronic apparatus
KR20110042003A (en) Information input device, information input method, information input/output device, computer readable non-transitory medium and electronic device
US20150022889A1 (en) Display device
US11119599B2 (en) Display device
US8896770B2 (en) Mobile terminal
KR20210111399A (en) Display device
CN113140152A (en) Display panel and terminal equipment
JP2009175761A (en) Display apparatus
US20160266696A1 (en) Semiconductor device and driving method thereof
KR20170050672A (en) Mobile terminal for supporting a touch input with a capacitive type and a resisitive type
KR20160069326A (en) Mobile terminal

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090615

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4333768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250