JP2010003325A - Display apparatus and display method - Google Patents

Display apparatus and display method Download PDF

Info

Publication number
JP2010003325A
JP2010003325A JP2009233629A JP2009233629A JP2010003325A JP 2010003325 A JP2010003325 A JP 2010003325A JP 2009233629 A JP2009233629 A JP 2009233629A JP 2009233629 A JP2009233629 A JP 2009233629A JP 2010003325 A JP2010003325 A JP 2010003325A
Authority
JP
Japan
Prior art keywords
display
image
unit
instruction
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009233629A
Other languages
Japanese (ja)
Inventor
Kazunori Yamaguchi
和範 山口
Tsutomu Harada
勉 原田
Mitsuru Tateuchi
満 建内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009233629A priority Critical patent/JP2010003325A/en
Publication of JP2010003325A publication Critical patent/JP2010003325A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display apparatus capable of performing advanced operations by detecting a plurality of contact places on a display screen and continuously detecting the positions, sizes or the like of the contact places. <P>SOLUTION: By using the display apparatus which performs display with a plurality of display elements arranged in a matrix shape as a display/light receiving display panel unit 120, wherein light receiving elements arranged near the respective plurality of display elements can acquire an image of an object that comes into contact with or approaches a display surface, a light receiving image generation unit 114 generates a light receiving image on the basis of a light receiving signal acquired by a light receiving signal receiver 113, and an image processing/operating unit 115 detects the shape and position of a contact part. A command determination unit 116 determines a command corresponding to the shape and position of the contact part detected by the image processing/operating unit 115, and performs prescribed processing in accordance with the command. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えば、液晶表示ディスプレイやEL(electro−luminescence )ディスプレイに適用して好適な表示装置及び表示方法に関し、特にディスプレイを通じた操作を効率的、効果的に行う技術に関する。   The present invention relates to a display device and a display method suitable for application to, for example, a liquid crystal display or an EL (electro-luminescence) display, and more particularly to a technique for efficiently and effectively performing an operation through the display.

従来、テレビジョン受像機などの表示装置の表示画面上に、その画面に触れることで操作が可能なタッチパネルを構成させる場合、表示装置とは別体のタッチパネルを表示画面上に重ねる構成としてあった。   Conventionally, when a touch panel that can be operated by touching a display screen of a display device such as a television receiver is configured, a touch panel separate from the display device is stacked on the display screen. .

別体のタッチパネルを使用する構成としては、例えば、画面の上に透明で薄い入力検出装置を貼り付けたものがある。ディスプレイの表面に接触したことを検知する手段としては、圧力の変化を感知する抵抗膜式や、人体との接触で変化する静電気による電気信号を感知する静電容量式などのタッチパネルが実用化されている。しかし、これらのタッチパネルは、基本的に表面の一点のみの位置検出が可能であり、複数点の同時検出はできない。そのためタッチパネルを用いた操作入力装置においては、接触した1点の位置を基に使用者からの指示を判別するか、あるいは一点の位置の変化を基に指示を判別する方法が一般的であった。   As a configuration using a separate touch panel, for example, there is one in which a transparent and thin input detection device is pasted on a screen. As a means of detecting contact with the surface of the display, touch panels such as a resistive film type that senses changes in pressure and a capacitive type that senses electrical signals due to static electricity that changes due to contact with the human body have been put into practical use. ing. However, these touch panels can basically detect the position of only one point on the surface, and cannot simultaneously detect a plurality of points. Therefore, in an operation input device using a touch panel, a method of determining an instruction from a user based on the position of one point of contact or a method of determining an instruction based on a change in the position of one point has been common. .

特許文献1には、表示画面上の2次元方向の指示位置の移動入力を受け付け、移動開始から移動終了までの指示位置の座標変化に基づいて使用者からの指示内容を判別し、指示内容に応じた処理を行う操作入力受付装置についての開示がある。   Patent Document 1 accepts a movement input of a designated position in a two-dimensional direction on a display screen, determines the instruction content from the user based on the coordinate change of the designated position from the movement start to the movement end, There is a disclosure of an operation input reception device that performs a process according to the above.

特開2004−336597号公報JP 2004-336597 A

ディスプレイを通した操作を分かりやすく、効率的に行うためには、ディスプレイの表面に直接触れて指示する方法が有効であるが、従来のタッチパネルでは表示画面上の接触箇所を1点しか認識できないため、操作方法が限定され、画面上で実行できる処理に限界があった。   In order to perform operations through the display in an easy-to-understand and efficient manner, the method of directly touching and instructing the display surface is effective, but the conventional touch panel can recognize only one point on the display screen. The operation method is limited, and there is a limit to the processing that can be executed on the screen.

これらの従来のタッチパネルの不都合を解決するために、パネルを分割して複数点を検出できるようにしたタッチパネルも考案されているが、各々限られた範囲の中で1点ずつを検出するものであり、画面上の自由な位置で複数の点を検知する事は難しい。また、赤外線式などの検出部を複数備えることで、複数点の位置検出ができる接触位置検出装置も考案されているが、画面外部に検出部を設置する必要があるなど、装置が大型化、複雑化するという問題があった。   In order to solve the disadvantages of these conventional touch panels, a touch panel has been devised in which a panel can be divided to detect a plurality of points, but each detects a single point within a limited range. Yes, it is difficult to detect multiple points at free positions on the screen. In addition, a contact position detection device that can detect the position of a plurality of points by providing a plurality of detection units such as an infrared type has been devised, but the size of the device is increased, such as the need to install a detection unit outside the screen, There was a problem of increasing complexity.

本発明は、表示画面上の複数の接触箇所を検出し、その位置や大きさなどを連続的に検出することにより、高度な操作を可能にする表示装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a display device that enables a high-level operation by detecting a plurality of contact points on a display screen and continuously detecting the positions and sizes thereof.

本発明の一側面は、表示画面に画像を表示するための複数の表示素子と、前記表示画面内に配置された複数のセンサと、前記複数のセンサからの出力に基づいて、前記表示画面に接触又は近接する物体の位置および大きさの情報を得るための演算処理を行う演算部と、前記演算部で、各々が個別に連結された一領域を形成する複数箇所の接触又は近接する物体の接触部を検出した場合に、各接触部が形成する領域の面積および各接触部の互いの位置関係に応じて、操作者の指示を判定する指示判定部とを備え、判定した指示に応じた所定の処理を実行する表示装置である。   One aspect of the present invention is based on a plurality of display elements for displaying an image on a display screen, a plurality of sensors arranged in the display screen, and outputs from the plurality of sensors. A calculation unit that performs calculation processing to obtain information on the position and size of an object that is in contact with or in proximity, and a plurality of contact or proximity objects that form a region in which the calculation unit is individually connected to each other. An instruction determination unit that determines an instruction of the operator according to the area of the region formed by each contact part and the mutual positional relationship of each contact part when the contact part is detected, and according to the determined instruction It is a display device that executes predetermined processing.

前記表示画面に表示される画像を制御する表示制御部をさらに備え、前記指示判定部は、さらに、各接触部の表示面上の位置に応じて、前記操作者の指示を判定し、前記表示制御部は、前記指示判定部からの指示に応じて前記画像を制御することができる。   The display control unit further controls an image displayed on the display screen, and the instruction determination unit further determines an instruction of the operator according to a position on a display surface of each contact unit, and the display The control unit can control the image in accordance with an instruction from the instruction determination unit.

前記指示判定部は、さらに、各近接部の互いの位置関係の変化およびその方向に応じて、前記操作者の指示を判定することができる。   The instruction determination unit can further determine the instruction of the operator according to the change in the positional relationship between the proximity units and the direction thereof.

前記表示画面に表示される画像を制御する表示制御部をさらに備え、前記表示制御部は、前記指示判定部からの指示に応じて前記画像を制御することができる。   A display control unit that controls an image displayed on the display screen is further provided, and the display control unit can control the image in accordance with an instruction from the instruction determination unit.

前記演算部は、前記複数のセンサからの出力をそれぞれ所定の閾値と比較して二値化し、二値化された前記複数のセンサからの出力に対して、所定の値の前記出力の集合体からなる連結成分のうち所定の閾値より小さい連結成分を除外する孤立点除去処理、若しくは、前記連結成分の1つ1つに一意のラベルを付すラベリング処理を行う前に、ノイズ除去処理を行うことができる。   The arithmetic unit binarizes the outputs from the plurality of sensors by comparing each of the outputs with a predetermined threshold, and the set of outputs having a predetermined value with respect to the binarized outputs from the plurality of sensors The noise removal process is performed before the isolated point removal process that excludes the connected components that are smaller than the predetermined threshold among the connected components formed by or the labeling process that adds a unique label to each of the connected components. Can do.

前記ノイズ除去処理は、二値化された各センサからの出力を1つずつ注目画素とし、前記注目画素の周囲の幾つかの画素の状態によって前記注目画素の画素値を特定する処理であるようにすることができる。   The noise removal process is a process in which the output from each binarized sensor is set as a target pixel one by one, and the pixel value of the target pixel is specified by the state of several pixels around the target pixel. Can be.

前記演算部は、前記ラベリング処理を行う前に、前記孤立点除去処理を行うことができる。   The arithmetic unit can perform the isolated point removal process before performing the labeling process.

前記指示判定部は、検出された各接触部に関する情報であるオブジェクト情報に基づいて、前記操作者の指示を判定することができる。   The instruction determination unit can determine an instruction of the operator based on object information that is information regarding each detected contact unit.

前記オブジェクト情報には、前記接触部の座標位置の変化に係る情報が含まれることができる。   The object information may include information related to a change in the coordinate position of the contact portion.

前記所定の処理は、前記表示素子で表示させる表示画像全体を変化させる処理、または、前記表示素子で表示させる表示画像を生成させるアプリケーションの動作を変化させる処理であり、前記表示素子で表示させる表示画像全体を変化させる処理は、前記表示画像のスクロール、または、前記表示画像の拡大若しくは縮小を含み、前記表示素子で表示させる表示画像を生成させるアプリケーションの動作を変化させる処理は、前記表示画像に含まれる文字列の選択若しくは消去を含むことができる。   The predetermined process is a process for changing the entire display image displayed on the display element or a process for changing an operation of an application for generating a display image displayed on the display element. The process of changing the entire image includes scrolling the display image or enlarging or reducing the display image, and the process of changing the operation of the application that generates the display image to be displayed on the display element is applied to the display image. Selection or deletion of the included character string can be included.

本発明の一側面は、また、表示画面内に配置された複数のセンサからの出力に基づいて、前記表示画面に接触又は近接する物体の位置および大きさの情報を得るための演算処理を行い、各々が個別に連結された一領域を形成する複数箇所の接触又は近接する物体の接触部を検出した場合に、各接触部が形成する領域の面積および各接触部の互いの位置関係に応じて、操作者の指示を判定し、判定した指示に応じた所定の処理を実行する表示方法である。   One aspect of the present invention also performs a calculation process for obtaining information on the position and size of an object that is in contact with or close to the display screen based on outputs from a plurality of sensors arranged in the display screen. , Depending on the area of each region formed by each contact part and the mutual positional relationship of each contact part when detecting a plurality of contacts or contact parts of adjacent objects that form one individually connected region In this display method, the operator's instruction is determined and predetermined processing is executed in accordance with the determined instruction.

本発明の一側面においては、表示画面内に配置された複数のセンサからの出力に基づいて、前記表示画面に接触又は近接する物体の位置および大きさの情報を得るための演算処理が行われ、各々が個別に連結された一領域を形成する複数箇所の接触又は近接する物体の接触部が検出された場合に、各接触部が形成する領域の面積および各接触部の互いの位置関係に応じて、操作者の指示が判定され、判定した指示に応じた所定の処理が実行される。   In one aspect of the present invention, calculation processing for obtaining information on the position and size of an object that is in contact with or close to the display screen is performed based on outputs from a plurality of sensors arranged in the display screen. , When a plurality of contacts or contact parts of adjacent objects that form one individually connected region are detected, the area of the region formed by each contact part and the mutual positional relationship of each contact part In response, the operator's instruction is determined, and a predetermined process corresponding to the determined instruction is executed.

本発明によると、表示画面上の複数箇所の接触位置又は近接位置や、接触又は近接する複数の物体の大きさや位置の変化に応じて、各種処理が可能になるため、表示画面を通した操作の種類が増え、高度な操作が可能になる。   According to the present invention, various processes can be performed according to changes in the position or proximity position of a plurality of locations on the display screen, or the size or position of a plurality of objects that are in contact with or close to each other. The number of types increases and advanced operations become possible.

本発明が適用される情報処理システムの機能的構成例を示す機能ブロック図である。It is a functional block diagram which shows the functional structural example of the information processing system to which this invention is applied. 図1のコマンド認識/発行部17の詳細例を示す機能ブロック図である。It is a functional block diagram which shows the detailed example of the command recognition / issue part 17 of FIG. 本発明の一実施の形態による表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display apparatus by one embodiment of this invention. 本発明の一実施の形態による表示/受光ディスプレイパネルの例を示す構成図である。It is a block diagram which shows the example of the display / light-receiving display panel by one embodiment of this invention. 本発明の一実施の形態による画素構成例を示す接続図である。It is a connection diagram showing a pixel configuration example according to an embodiment of the present invention. 本発明の一実施の形態による表示と受光のタイミング例を示すタイミング図である。It is a timing diagram which shows the example of a timing of the display and light reception by one embodiment of this invention. 本発明の一実施の形態による表示装置の操作例(1)を示す説明図である。It is explanatory drawing which shows the operation example (1) of the display apparatus by one embodiment of this invention. 本発明の一実施の形態による画像処理例(1)を示すフローチャートである。It is a flowchart which shows the image processing example (1) by one embodiment of this invention. 図8の処理のうちの画像処理(面積計算)の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the image process (area calculation) of the processes of FIG. 図9の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図9の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図9の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図9の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図9の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図9の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図9の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図8の処理のうちの画像処理(位置計算)の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of the image process (position calculation) of the processes of FIG. 図17の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図17の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図17の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 本発明の一実施の形態による表示装置の操作例(2)を示す説明図である。It is explanatory drawing which shows the operation example (2) of the display apparatus by one embodiment of this invention. 本発明の一実施の形態による画像処理例(2)を示すフローチャートである。It is a flowchart which shows the image processing example (2) by one embodiment of this invention. 本発明の一実施の形態による表示装置の操作例(3)を示す説明図である。It is explanatory drawing which shows the example of operation (3) of the display apparatus by one embodiment of this invention. 本発明の一実施の形態による画像処理例(3)を示すフローチャートである。It is a flowchart which shows the image processing example (3) by one embodiment of this invention. 図24の処理のうちのステップS108の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of step S108 among the processes of FIG. 図25の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図25のステップS108g乃至S108jの採用理由を説明する図である。FIG. 26 is a diagram illustrating a reason for adopting steps S108g to S108j in FIG. 図24の処理のうちのステップS114の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of step S114 among the processes of FIG. 図24の処理のうちのステップS114の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of step S114 among the processes of FIG. 図24の処理のうちのステップS120の判断処理の判断手法例を説明する図である。It is a figure explaining the example of a judgment technique of the judgment process of step S120 among the processes of FIG. 図24の処理のうちのステップS120の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of step S120 among the processes of FIG. 図31の処理結果の具体例を示す図である。It is a figure which shows the specific example of the process result of FIG. 図24の処理のうちのステップS122の判断処理の処理内容例を説明する図である。It is a figure explaining the example of a processing content of judgment processing of Step S122 among processings of FIG. 図24の処理のうちのステップS122の判断処理の処理内容例を説明する図である。It is a figure explaining the example of a processing content of judgment processing of Step S122 among processings of FIG. 図24の処理のうちのステップS123の判断処理の処理内容例を説明する図である。It is a figure explaining the example of a processing content of judgment processing of Step S123 among processings of FIG. 本発明の一実施の形態による操作後画面例(1)を示す説明図である。It is explanatory drawing which shows the example after-operation screen (1) by one embodiment of this invention. 本発明の一実施の形態による表示装置の操作例(4)を示す説明図である。It is explanatory drawing which shows the operation example (4) of the display apparatus by one embodiment of this invention. 本発明の一実施の形態による画像処理例(4)を示すフローチャートである。It is a flowchart which shows the image processing example (4) by one embodiment of this invention. 本発明の一実施の形態による操作後画面例(2)を示す説明図である。It is explanatory drawing which shows the example (2) after operation screen by one embodiment of this invention. 本発明の一実施の形態による表示装置の操作例(5)を示す説明図である。It is explanatory drawing which shows the operation example (5) of the display apparatus by one embodiment of this invention. 本発明の一実施の形態による画像処理例(5)を示すフローチャートである。It is a flowchart which shows the image processing example (5) by one embodiment of this invention. 本発明の一実施の形態による操作後画面例(3)を示す説明図である。It is explanatory drawing which shows the example screen (3) after operation by one embodiment of this invention. 本発明の一実施の形態による画像処理例(6)を示すフローチャートである。It is a flowchart which shows the image processing example (6) by one embodiment of this invention. 本発明が適用される処理をソフトウエアで実行するパーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of the personal computer which performs the process with which this invention is applied with software.

以下、本発明の一実施の形態を、図1乃至図44を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS.

図1は、本発明が適用される情報処理システムの機能的構成例を示す機能ブロック図である。   FIG. 1 is a functional block diagram showing a functional configuration example of an information processing system to which the present invention is applied.

図1の情報処理システムは、本発明が適用される画像処理装置としての画像入出力装置1と、情報処理装置2とから構成されている。   The information processing system in FIG. 1 includes an image input / output device 1 as an image processing device to which the present invention is applied, and an information processing device 2.

画像入出力装置1は、自身が生成した画像データや、情報処理装置2から入力された画像データを、操作者に認識可能な画像として表示することができる。また、画像入出力装置1は、所定の画像データを取得するためのコマンド等の各種情報を、情報処理装置2に適宜出力することもできる。   The image input / output device 1 can display image data generated by itself or image data input from the information processing device 2 as an image recognizable to the operator. Further, the image input / output device 1 can appropriately output various information such as a command for obtaining predetermined image data to the information processing device 2.

詳細には、画像入出力装置1は、表示画像生成部11乃至コマンド認識/発行部17を含むように構成されている。   Specifically, the image input / output device 1 is configured to include a display image generation unit 11 to a command recognition / issue unit 17.

表示画像生成部11は、表示部13において動画像や静止画像を表示するための画像データを生成し、表示制御部12に提供する。なお、以下、動画像と静止画像とを区別する必要がない場合、それらをまとめて単に画像と称する。   The display image generation unit 11 generates image data for displaying a moving image or a still image on the display unit 13 and provides the generated image data to the display control unit 12. Hereinafter, when it is not necessary to distinguish between a moving image and a still image, they are collectively referred to as an image.

また、表示画像生成部11は、必要に応じて、情報処理装置2と各種情報の授受を行う。なお、授受される情報の具体例については、後述する。   The display image generation unit 11 exchanges various types of information with the information processing apparatus 2 as necessary. A specific example of information exchanged will be described later.

表示制御部12は、表示画像生成部11からの画像データを、表示部13の画面に表示できる形式およびタイミングの形態に変換し、表示部13に提供する。表示部13は、表示制御部12からの画像データを、認識可能な画像として画面に表示する。これにより、操作者は画像を視認できるようになる。   The display control unit 12 converts the image data from the display image generation unit 11 into a format and timing format that can be displayed on the screen of the display unit 13 and provides the display unit 13 with the format. The display unit 13 displays the image data from the display control unit 12 on the screen as a recognizable image. As a result, the operator can visually recognize the image.

受光部14は、複数の受光素子がマトリクス状に配置されて構成されている。複数の受光素子のそれぞれからは、受光量に基づく信号(以下、受光信号と称する)が出力され、受光画像生成部15にそれぞれ提供される。   The light receiving unit 14 is configured by arranging a plurality of light receiving elements in a matrix. From each of the plurality of light receiving elements, a signal based on the amount of received light (hereinafter referred to as a light receiving signal) is output and provided to the received light image generating unit 15.

受光部14は、例えば、表示部13と同一平面上又は重ね合わさられて配置されている。従って、受光部14は、表示部13が画像を表示している最中にその表示部13に対して入射された光を、受光することになる。   The light receiving unit 14 is disposed, for example, on the same plane as the display unit 13 or overlapped. Therefore, the light receiving unit 14 receives light incident on the display unit 13 while the display unit 13 displays an image.

換言すると、操作者は、表示部13に表示された画像を観察しつつ、光による指示を表示部13に対して行うことができる。このとき、その光が受光部14の各受光素子に入射され、その指示に応じたレベルをそれぞれ有する受光信号が各受光素子から出力されることになる。ここに、「光による指示」とは、受光部14の複数の受光素子のうちの少なくとも一部の入射光の光量を変化させることをいう。この場合、入射光の光源は特に限定されず、また、入射光の光量の変化量、変化率、変化方向(明→暗の方向、または暗→明の方向)等も特に限定されない。例えば、外部の光源からの光を受光部14に照射することによる指示(光量を増加させる指示)、外部の光源からの光を遮って影として与える指示(光量を減少させる指示)、或いは、光源として、外部の光源ではなく、表示部13からの照射光の反射光を用いる指示等の様々な指示を、「光による指示」として採用することができる。   In other words, the operator can give a light instruction to the display unit 13 while observing the image displayed on the display unit 13. At this time, the light is incident on each light receiving element of the light receiving unit 14, and a light receiving signal having a level corresponding to the instruction is output from each light receiving element. Here, “instruction by light” refers to changing the amount of incident light of at least a part of the plurality of light receiving elements of the light receiving unit 14. In this case, the light source of the incident light is not particularly limited, and the change amount, change rate, change direction (bright → dark direction, or dark → light direction) of the incident light amount is not particularly limited. For example, an instruction by irradiating the light receiving unit 14 with light from an external light source (instruction to increase the amount of light), an instruction to block light from the external light source and give it as a shadow (instruction to decrease the amount of light), or a light source As described above, various instructions such as an instruction using the reflected light of the irradiation light from the display unit 13 instead of an external light source can be adopted as the “instruction by light”.

受光画像生成部15は、受光部14の複数の受光素子のそれぞれから出力された各受光信号に基づいて、1枚の静止画像の画像データ(以下、受光画像データと称し、それに対応する静止画像を受光画像と称する)を生成し、オブジェクト検出部16に提供する。より正確には、受光部14の各受光素子からの受光信号は順次出力されてくるので、受光画像生成部15においては、複数の受光画像データが連続的に生成され、生成された順番で1枚ずつオブジェクト検出部16に順次提供される。即ち、受光画像生成部15は、1つの受光画像を例えばフィールドまたはフレームとして、複数のフィールドまたはフレームから構成される動画像のストリームデータを生成して、オブジェクト検出部16に提供する。換言すると、以下、単に受光画像と称している場合、それは、1つのフレームまたはフィールドを意味する。   The light reception image generation unit 15 is based on each light reception signal output from each of the plurality of light receiving elements of the light reception unit 14, and image data of one still image (hereinafter referred to as light reception image data, corresponding to the still image) Is referred to as a received light image) and provided to the object detection unit 16. More precisely, since the light reception signals from the respective light receiving elements of the light receiving unit 14 are sequentially output, the light reception image generation unit 15 continuously generates a plurality of light reception image data. The images are sequentially provided to the object detection unit 16 one by one. That is, the light reception image generation unit 15 generates stream data of a moving image composed of a plurality of fields or frames, for example, using one light reception image as a field or frame, and provides it to the object detection unit 16. In other words, hereinafter, when simply referred to as a received light image, it means one frame or field.

オブジェクト検出部16は、受光画像生成部15からの受光画像データからオブジェクトを1以上検出する。   The object detection unit 16 detects one or more objects from the received light image data from the received light image generation unit 15.

ここに、オブジェクトとは、受光画像内の領域であって、所定の規則に従って形成される一領域をいう。例えば、受光画像が複数の画素から構成されているとすると、所定の規則に従って連結される1以上の画素の集合体(以下、連結要素と称する)が、オブジェクトの一例である。   Here, the object is an area in the received light image and is an area formed according to a predetermined rule. For example, assuming that the light-receiving image is composed of a plurality of pixels, an aggregate of one or more pixels (hereinafter referred to as a connection element) connected according to a predetermined rule is an example of the object.

オブジェクト検出部16は、さらに、各オブジェクトに関する各種情報(以下、これらの各種情報をまとめてオブジェクト情報と称する)をそれぞれ生成する。例えば、オブジェクトが持つ様々な属性情報、より具体的には例えば、その重心の座標、その中心の座標、その面積、その形状等が、オブジェクト情報としてオブジェクト検出部16により生成される。   The object detection unit 16 further generates various types of information regarding each object (hereinafter, the various types of information are collectively referred to as object information). For example, various attribute information possessed by the object, more specifically, for example, the coordinates of the center of gravity, the coordinates of the center, the area, the shape thereof, and the like are generated by the object detection unit 16 as object information.

オブジェクト検出部16により生成された各オブジェクト情報は、コマンド認識/発行部17に提供される。   Each object information generated by the object detection unit 16 is provided to the command recognition / issue unit 17.

なお、オブジェクト情報の生成機能は、オブジェクト検出部16が有する必要は特に無く、後述するコマンド認識/発行部17に委譲してもよい。この場合、オブジェクト検出部16が、オブジェクトを検出し、その検出結果をコマンド認識/発行部17に提供する。そして、コマンド認識/発行部17が、その検出結果に基づいて、オブジェクト情報を生成することになる。   The object information generation function need not be included in the object detection unit 16 and may be delegated to a command recognition / issuance unit 17 described later. In this case, the object detection unit 16 detects the object and provides the detection result to the command recognition / issue unit 17. Then, the command recognition / issuance unit 17 generates object information based on the detection result.

いずれにしても、コマンド認識/発行部17は、各オブジェクト情報に基づいて、表示部13に対して操作者が与えた「光による指示」とは如何なるコマンドであったのかを認識し、即ち、操作者が画像入出力装置1に対して与えたコマンドを認識し、そのコマンドを表示画像生成部11に発行する。   In any case, based on each object information, the command recognition / issuance unit 17 recognizes what the command “light instruction” given to the display unit 13 by the operator is, that is, The operator recognizes a command given to the image input / output device 1 and issues the command to the display image generation unit 11.

なお、コマンド認識/発行部17の詳細例やコマンド例等については、図2を参照して後述する。   A detailed example and command example of the command recognition / issue unit 17 will be described later with reference to FIG.

このようにしてコマンド認識/発行部17から所定のコマンドが発行されると、表示画像生成部11は、その所定のコマンドに従って表示部13の表示画像を変更すべく、新たな画像データを生成し、表示制御部12に提供する。すると、表示部13の表示画像は、その所定のコマンドに従って更新されることになる。   When a predetermined command is issued from the command recognition / issuance unit 17 in this way, the display image generation unit 11 generates new image data to change the display image of the display unit 13 in accordance with the predetermined command. Provided to the display control unit 12. Then, the display image on the display unit 13 is updated according to the predetermined command.

なお、表示画像生成部11は、表示画像データを自身で生成せずに、コマンド認識/発行部17から発行されたコマンドを、外部の情報処理装置2に提供するようにしてもよい。この場合、情報処理装置2は、得られたコマンドによって表示させる画像データを変更し、即ち新たな画像データを生成し、表示画像生成部11に提供する。表示画像生成部11は、その画像データを表示制御部12に提供する。すると、この場合も、表示部13の表示画像は、そのコマンドに従って更新されることになる。換言すると、画像データの生成機能は、画像入出力装置1が有する必要は特に無く、外部の情報処理装置2に委譲することも可能である。   The display image generation unit 11 may provide the command issued from the command recognition / issuance unit 17 to the external information processing apparatus 2 without generating display image data by itself. In this case, the information processing apparatus 2 changes the image data to be displayed according to the obtained command, that is, generates new image data and provides it to the display image generation unit 11. The display image generation unit 11 provides the image data to the display control unit 12. Then, also in this case, the display image of the display unit 13 is updated according to the command. In other words, the image input / output device 1 is not particularly required to have the image data generation function, and can be delegated to the external information processing device 2.

なお、表示部13の画面表示の状態によっては、ある時だけコマンドの発行が必要になる場合がある。例えば、画面の右端にソフトウエアボタンが出現する場合である。この場合は、コマンド認識/発行部17は、自身でコマンドを認識せずに、オブジェクト情報を表示画像生成部11を介して情報処理装置2に提供し、情報処理装置2側でコマンドを認識させるようにしてもよい。或いは、情報処理装置2または表示画像生成部11が、表示画像内のソフトウエアボタンの座標位置およびその有無を認識し、点線矢印で示されているように、その認識結果をコマンド認識/発行部17に提供し、コマンド定義を新たに追加して、コマンド認識/発行部17がコマンドの発行有無を判断するようにしてもよい。   Depending on the screen display state of the display unit 13, it may be necessary to issue a command only at certain times. For example, a software button appears at the right end of the screen. In this case, the command recognition / issuance unit 17 provides the object information to the information processing apparatus 2 via the display image generation unit 11 without recognizing the command itself, and causes the information processing apparatus 2 to recognize the command. You may do it. Alternatively, the information processing apparatus 2 or the display image generation unit 11 recognizes the coordinate position of the software button in the display image and the presence / absence of the software button, and the command recognition / issue unit issues the recognition result as indicated by a dotted arrow. 17, a command definition may be newly added, and the command recognition / issue unit 17 may determine whether a command is issued.

図2は、図1の画像入出力装置1のうちのコマンド認識/発行部17の詳細な機能的構成例を示している。   FIG. 2 shows a detailed functional configuration example of the command recognition / issuing unit 17 in the image input / output device 1 of FIG.

図2の例のコマンド認識/発行部17は、検出結果保持部21乃至コマンド発行部27を含むように構成されている。   The command recognition / issue unit 17 in the example of FIG. 2 is configured to include a detection result holding unit 21 to a command issue unit 27.

オブジェクト検出部16から出力された各オブジェクト情報は、検出結果保持部21、時間位置変化型コマンド認識部22、位置関係型コマンド認識部23、形状型コマンド認識部24、および複合型コマンド認識部25のそれぞれに提供される。   Each object information output from the object detection unit 16 includes a detection result holding unit 21, a time position change type command recognition unit 22, a positional relationship type command recognition unit 23, a shape type command recognition unit 24, and a composite type command recognition unit 25. Provided to each of the.

コマンド定義保持部26には、所定のオブジェクト情報に基づいて所定のコマンドを判定するための条件が1以上保持されている。   The command definition holding unit 26 holds one or more conditions for determining a predetermined command based on predetermined object information.

本実施の形態では、判定されるオブジェクト情報の種類に応じて次の4つの型のコマンドが定義されている。   In the present embodiment, the following four types of commands are defined according to the type of object information to be determined.

即ち、1つ目の型のコマンドは、オブジェクト情報のうちの、オブジェクトの形状に基づいて判定されるコマンドである。以下、このような1つ目の型のコマンドを、形状型コマンドと称する。   That is, the first type of command is a command that is determined based on the shape of the object in the object information. Hereinafter, such a first type command is referred to as a shape type command.

2つ目の型のコマンドは、オブジェクト情報のうち、オブジェクトの座標位置に基づいて判定されるコマンドである。かかる2つ目の型のコマンドには、1つのオブジェクトの座標位置のみに基づいて判定されるコマンドと、複数のオブジェクトの各々の座標位置の関係に基づいて判定されるコマンドとが存在する。以下、このような2つ目の型のコマンドを、位置関係型コマンドと称する。   The second type of command is a command determined based on the coordinate position of the object in the object information. The second type of command includes a command that is determined based only on the coordinate position of one object and a command that is determined based on the relationship between the coordinate positions of a plurality of objects. Hereinafter, such a second type of command is referred to as a positional relationship type command.

3つ目の型のコマンドは、オブジェクト情報のうち、オブジェクトの時間位置変化に基づいて判定されるコマンドである。即ち、上述したように、受光画像生成部15においては、時間的に連続して複数の受光画像データが順次生成される。それらに対応する複数の受光画像のうちの時間差がある2以上の受光画像における、同一オブジェクトの座標位置の変化の関係に基づいて判定されるコマンドが、3つ目の型のコマンドである。以下、このような3つ目の型のコマンドを、時間位置変化型コマンドと称する。   The third type of command is a command that is determined based on a change in the time position of the object in the object information. That is, as described above, the light reception image generation unit 15 sequentially generates a plurality of light reception image data sequentially in time. A command that is determined based on the relationship of changes in the coordinate position of the same object in two or more received light images having a time difference among a plurality of received light images corresponding to them is a third type command. Hereinafter, such a third type of command is referred to as a time position change type command.

4つ目の型のコマンドは、オブジェクト情報のうちの、上述したオブジェクトの形状、オブジェクトの座標位置、および、オブジェクトの時間位置変化のうちの2以上の情報を複合的に用いて判定されるコマンドである。以下、このような4つ目の型のコマンドを、複合型コマンドと称する。   The fourth type of command is a command that is determined using a combination of two or more of the above-described object shape, object coordinate position, and object temporal position change in the object information. It is. Hereinafter, such a fourth type command is referred to as a composite type command.

さらに以下、形状型コマンド、位置関係型コマンド、時間位置変化型コマンド、および複合型コマンドのそれぞれの詳細について、その順番で個別に説明していく。   Further, details of each of the shape type command, the positional relationship type command, the time position change type command, and the composite type command will be described individually in that order.

はじめに、形状型コマンドについて説明する。   First, the shape type command will be described.

1つの形状型コマンドに対してオブジェクトの1以上の形状が対応付けられており、この対応関係が条件として、コマンド定義保持部26に保持されている。そこで、形状型コマンド認識部24は、オブジェクト検出部16から提供されたオブジェクト情報のうちのオブジェクトの形状を取得し、その形状と、コマンド定義保持部26に保持されている各種条件とを比較する。そして、その形状と合致する条件がコマンド定義保持部26に保持されている場合には、形状型コマンド認識部24は、その条件により特定される形状型コマンド、即ち、その形状に対応付けられた形状型コマンドが、操作者により指示されたコマンドであると認識し、その認識結果をコマンド発行部27に通知する。   One or more shapes of the object are associated with one shape type command, and this correspondence is held in the command definition holding unit 26 as a condition. Therefore, the shape-type command recognition unit 24 acquires the shape of the object in the object information provided from the object detection unit 16 and compares the shape with various conditions held in the command definition holding unit 26. . When the condition that matches the shape is held in the command definition holding unit 26, the shape type command recognition unit 24 associates the shape type command specified by the condition, that is, the shape. It recognizes that the shape type command is a command instructed by the operator, and notifies the command issuing unit 27 of the recognition result.

ここで、オブジェクトの形状とは、丸や四角等のオブジェクトのかたちの他、オブジェクトの所定部分の長さや幅、オブジェクトの大きさ(面積)等、或いは、それらの1以上の組合せを含む広義な概念である。   Here, the shape of the object is a broad meaning including the shape of an object such as a circle or square, the length or width of a predetermined portion of the object, the size (area) of the object, or a combination of one or more thereof. It is a concept.

なお、オブジェクトの形状としてオブジェクトの面積が採用され、かかるオブジェクトの面積と対応付けられた形状型コマンドが採用された場合の具体例について、図40等を用いて後述する。   A specific example in which the area of the object is employed as the shape of the object and a shape type command associated with the area of the object is employed will be described later with reference to FIG.

次に、位置関係型コマンドについて説明する。   Next, the positional relationship type command will be described.

1つの位置関係型コマンドに対して、1つのオブジェクトの所定の座標位置、または、複数のオブジェクトの各々の座標位置の所定の関係が対応付けられており、この対応関係が条件として、コマンド定義保持部26に保持されている。そこで、位置関係型コマンド認識部23は、オブジェクト検出部16から提供されたオブジェクト情報のうちの各オブジェクトの各座標位置を取得し、座標位置単体や2以上の座標位置の関係と、コマンド定義保持部26に保持されている各種条件とをそれぞれ比較する。そして、各座標位置のうちの所定の1つの位置、または、2以上の座標位置の所定の関係と合致する条件がコマンド定義保持部26に保持されている場合には、位置関係型コマンド認識部23は、その条件により特定される位置関係型コマンド、即ち、各座標位置のうちの所定の1つの位置、または、2以上の座標位置の所定の関係に対応付けられた位置関係型コマンドが、操作者により指示されたコマンドであると認識し、その認識結果をコマンド発行部27に通知する。   Predetermined coordinate positions of one object or predetermined relationships of coordinate positions of a plurality of objects are associated with one positional relationship type command, and the command definition is retained as a condition. Held in the portion 26. Therefore, the positional relationship type command recognition unit 23 acquires each coordinate position of each object in the object information provided from the object detection unit 16, and holds the command definition and the relationship between the coordinate position alone or two or more coordinate positions. The various conditions held in the unit 26 are respectively compared. If the command definition holding unit 26 holds a condition that matches a predetermined one of the coordinate positions or a predetermined relationship between two or more coordinate positions, the positional relationship type command recognition unit 23 is a positional relationship type command specified by the condition, that is, a positional relationship type command associated with a predetermined position of each coordinate position or a predetermined relationship between two or more coordinate positions, It recognizes that the command is instructed by the operator, and notifies the command issuing unit 27 of the recognition result.

なお、オブジェクトの座標位置は、受光画像内におけるオブジェクトを一意に特定できる位置であれば特に限定されない。例えば、オブジェクトの重心、中心、所定の端点等の各座標位置を、オブジェクトの座標位置として採用できる。なお、受光画像生成部15により生成される受光画像が複数の画素からなる場合、受光画像における所定の画素位置が、オブジェクトの座標位置として採用される。   The coordinate position of the object is not particularly limited as long as the object can be uniquely specified in the received light image. For example, each coordinate position such as the center of gravity, center, and predetermined end point of the object can be adopted as the coordinate position of the object. In addition, when the light reception image produced | generated by the light reception image generation part 15 consists of a some pixel, the predetermined pixel position in a light reception image is employ | adopted as a coordinate position of an object.

また、複数のオブジェクトの各々の座標位置の所定の関係とは、各々の座標位置が示す各点の絶対的な位置関係、受光画像内における各点の相対的な位置関係、それらを組み合わせた関係等を含む広義な概念である。   In addition, the predetermined relationship between the coordinate positions of a plurality of objects is the absolute positional relationship between the points indicated by the coordinate positions, the relative positional relationship between the points in the received light image, or a combination of these. It is a broad concept including

前者の関係、即ち、各点の絶対的な位置関係としては、例えば、各点の絶対距離に基づく関係や、各点を結んで形成される形状に基づく関係を採用できる。なお、各点の絶対距離に基づく関係が採用され、かかる関係と対応付けられた位置関係型コマンドが採用された場合の具体例については、図38を用いて後述する。また、各点を結んで形成される形状に基づく関係として、例えば、各点がほぼ直線状に並んでいる(縦または横に並んでいる)という関係が採用され、かかる関係と対応付けられた位置関係型コマンドが採用された場合の具体例については、図8、図22等を用いて後述する。   As the former relationship, that is, the absolute positional relationship between the points, for example, a relationship based on the absolute distance between the points or a relationship based on the shape formed by connecting the points can be employed. A specific example in which a relationship based on the absolute distance of each point is employed and a positional relationship type command associated with the relationship is employed will be described later with reference to FIG. In addition, as a relationship based on the shape formed by connecting the points, for example, a relationship in which the points are arranged in a substantially straight line (lined up vertically or horizontally) is adopted, and is associated with the relationship. A specific example when the positional relationship type command is employed will be described later with reference to FIGS.

一方、後者の関係、即ち、各点の相対的な位置関係としては、例えば、受光画像を基準とした各点の配置関係、具体的には例えば、各点の全てが受光画像の下側または上側にあるという関係を採用できる。かかる関係と対応付けられた位置関係型コマンドが採用された場合の具体例については、図22等を用いて後述する。なお、より正確に言えば、図22の例は、3点がほぼ横に並んでいるとう前者の関係(ステップS114参照)と、ほぼ横に並んでいるその3点が画面(静止画像)の上側または下側にあるという後者の関係(ステップS116参照)との組み合わせが採用され、かかる組合せの関係と対応付けられた「表示画面を所定の方向にスクロールさせる」という位置関係型コマンドが採用された場合の例である。   On the other hand, the latter relationship, that is, the relative positional relationship between the points, for example, the positional relationship of the points with respect to the received light image, specifically, for example, all of the points are below the received light image or The relationship of being on the upper side can be adopted. A specific example when the positional relationship type command associated with such a relationship is employed will be described later with reference to FIG. More precisely, in the example of FIG. 22, the former relationship in which three points are arranged side by side (see step S114) and the three points that are arranged side by side are the screen (still image). A combination with the latter relationship (see step S116) of being on the upper side or the lower side is employed, and a positional relationship type command of “scrolling the display screen in a predetermined direction” associated with the relationship of the combination is employed. This is an example.

次に、時間位置変化型コマンドについて説明する。   Next, the time position change type command will be described.

1つの時間位置関係型コマンドに対して、オブジェクトの所定の時間位置変化が対応付けられており、この対応関係が条件として、コマンド定義保持部26に保持されている。そこで、時間位置変化型コマンド認識部22は、オブジェクト検出部16から提供されたオブジェクト情報のうちのオブジェクトの座標位置を取得し、また、検出結果保持部21に保持されている同一オブジェクトの過去の座標位置を1以上取得し、それらの座標位置の時間位置変化を認識し、その変化と、コマンド定義保持部26に保持されている各種条件とを比較する。そして、その変化と合致する条件がコマンド定義保持部26に保持されている場合には、時間位置変化型コマンド認識部22は、その条件により特定される時間位置変化型コマンド、即ち、その時間位置変化に対応付けられた時間位置変化型コマンドが、操作者により指示されたコマンドであると認識し、その認識結果をコマンド発行部27に通知する。   A predetermined time position change of the object is associated with one time position relation type command, and this correspondence relation is held in the command definition holding unit 26 as a condition. Therefore, the time position change type command recognition unit 22 acquires the coordinate position of the object in the object information provided from the object detection unit 16, and the past position of the same object held in the detection result holding unit 21 is acquired. One or more coordinate positions are acquired, time position changes of those coordinate positions are recognized, and the changes are compared with various conditions held in the command definition holding unit 26. If the command definition holding unit 26 holds a condition that matches the change, the time position change type command recognition unit 22 determines the time position change type command specified by the condition, that is, the time position. The time position change command associated with the change is recognized as a command instructed by the operator, and the recognition result is notified to the command issuing unit 27.

なお、オブジェクトの座標位置は、位置関係型コマンド認識部23で利用される情報と基本的に同様のものを採用できる。   The object coordinate position may be basically the same as the information used in the positional relationship type command recognition unit 23.

また、オブジェクト検出部16から提供されるオブジェクトの座標位置とは、動画像を構成する複数の受光画像(フレームまたはフィールド)のうちの、処理対象として注目すべき受光画像(以下、注目受光画像と称する)における座標位置をいう。一方、検出結果保持部21から提供されるオブジェクトの過去の座標位置とは、注目受光画像より過去に処理された受光画像における座標位置をいう。   The coordinate position of the object provided from the object detection unit 16 is a light reception image to be noted as a processing target among a plurality of light reception images (frames or fields) constituting a moving image (hereinafter referred to as a light reception image of interest). The coordinate position in the above). On the other hand, the past coordinate position of the object provided from the detection result holding unit 21 refers to the coordinate position in the received light image processed in the past from the noticed received light image.

即ち、検出結果保持部21においては、受光画像生成部15により1枚の受光画像データが生成され、それからオブジェクト情報がオブジェクト検出部16により生成される度に、このオブジェクト情報が更新されていく。これにより、時間位置変化型コマンド認識部22においては、注目受光画像におけるオブジェクトの座標位置(最新のデータ)と、例えば注目受光画像の1つ前の受光画像における同一オブジェクトの座標位置(1つ前のデータ)との比較が可能になる。もちろん、検出結果保持部21は、1つ前の状態のみを残しておくだけでなく、複数枚の過去の受光画像データ毎のオブジェクト情報をそれぞれ保持しておくこともでき、この場合には、過去一定時間との間での比較も可能になる。   That is, in the detection result holding unit 21, one piece of received light image data is generated by the received light image generation unit 15, and then the object information is updated each time the object information is generated by the object detection unit 16. Thereby, in the time position change type command recognition unit 22, the coordinate position (latest data) of the object in the noticed light reception image and the coordinate position (one before) of the same object in the light reception image immediately before the noticeable light reception image, for example. Comparison with the data). Of course, the detection result holding unit 21 can not only keep the previous state but also hold object information for each of a plurality of past received light image data. In this case, Comparison with a certain time in the past is also possible.

また、時間位置変化型コマンド認識部22が認識するオブジェクトの時間位置変化は、時間的変化を表現可能な情報であれば特に限定されず、オブジェクトの移動方向、移動量、それらを組み合わせた移動ベクトル、移動速度等を採用できる。   Further, the time position change of the object recognized by the time position change command recognition unit 22 is not particularly limited as long as it is information that can express the time change, and the movement direction, the movement amount, and the movement vector combining them are possible. The moving speed can be adopted.

なお、時間位置変化型コマンドが採用された場合の具体例については、図24を用いて後述する。なお、より正確に言えば、図24の例は、3点がほぼ円周状に並んでいるとう位置関係(ステップS120)と、その円周が拡大または縮小方向に移動しているという時間位置変化(ステップS123参照)との組み合わせが採用され、かかる組合せと対応付けられた「表示画面を拡大/縮小させる」という複合型コマンドが採用された場合の例である。   A specific example when the time position change command is employed will be described later with reference to FIG. More precisely, in the example of FIG. 24, the positional relationship (step S120) in which the three points are arranged in a substantially circular shape, and the time position at which the circumference moves in the enlargement or reduction direction. This is an example in which a combination with a change (see step S123) is employed, and a composite command “enlarge / reduce the display screen” associated with the combination is employed.

次に、複合型コマンドについて説明する。   Next, the composite command will be described.

1つの複合型コマンドに対しては、オブジェクトの形状、座標位置、時間位置変化等のうちの2以上が複合されたものが条件として対応付けられており、かかる条件が、コマンド定義保持部26に保持されている。そこで、複合型コマンド認識部25は、オブジェクト検出部16から提供された各種オブジェクト情報を取得し、また必要に応じて、検出結果保持部21に保持されている過去のオブジェクト情報(座標位置等)を取得し、それらを用いた各種組合せと、コマンド定義保持部26に保持されている各種条件とを比較する。そして、所定の組合せと合致する条件がコマンド定義保持部26に保持されている場合には、複合型コマンド認識部25は、その条件により特定される複合型コマンドが、操作者により指示されたコマンドであると認識し、その認識結果をコマンド発行部27に通知する。   One compound type command is associated with a combination of two or more of the object shape, coordinate position, time position change, etc. as a condition, and the condition is stored in the command definition holding unit 26. Is retained. Therefore, the composite command recognition unit 25 acquires various object information provided from the object detection unit 16 and, if necessary, past object information (coordinate positions, etc.) held in the detection result holding unit 21. , And various combinations using them are compared with various conditions held in the command definition holding unit 26. When the condition that matches the predetermined combination is held in the command definition holding unit 26, the composite command recognition unit 25 determines that the composite command specified by the condition is a command instructed by the operator. And notifies the command issuing unit 27 of the recognition result.

コマンド定義保持部26は、上述した様に、オブジェクト検出部16から提供されたオブジェクト情報等が、所定のコマンドに対応付けられているか否かを判断するための定義(条件)を保持している。コマンド定義保持部26は、あらかじめ設定されている定義だけでなく、時間位置変化型コマンド認識部22乃至複合型コマンド認識部25からコマンド定義保持部26に引かれた各矢印で示されるように、操作者の操作によって発生したオブジェクト情報に基づく新たな定義を保持することも可能である。また、上述したように、表示部13の画面表示の状態との比較が必要になる場合、例えば、画面の右端にソフトウエアボタンが出現するような場合、表示画像生成部11からコマンド定義保持部26に引かれた矢印で示されるように、コマンド定義保持部26は、表示画像生成部11または情報処理装置2から新たな定義を取得して、保持することもできる。   As described above, the command definition holding unit 26 holds definitions (conditions) for determining whether or not the object information provided from the object detection unit 16 is associated with a predetermined command. . The command definition holding unit 26 is not limited to the definition set in advance, but as indicated by the arrows drawn from the time position change type command recognition unit 22 to the composite type command recognition unit 25 to the command definition holding unit 26. It is also possible to hold a new definition based on object information generated by the operation of the operator. Further, as described above, when a comparison with the screen display state of the display unit 13 is necessary, for example, when a software button appears at the right end of the screen, the display definition generating unit 11 sends a command definition holding unit. As indicated by an arrow drawn at 26, the command definition holding unit 26 can also acquire and hold a new definition from the display image generation unit 11 or the information processing apparatus 2.

コマンド発行部27は、時間位置変化型コマンド認識部22乃至複合型コマンド認識部25のうちの何れかにより認識されたコマンドを、表示画像生成部11に対して発行する。   The command issuing unit 27 issues a command recognized by any one of the time position change type command recognition unit 22 to the composite type command recognition unit 25 to the display image generation unit 11.

なお、複合型コマンド認識部25の機能を、コマンド発行部27に委譲することも可能である。この場合、コマンド発行部27は、時間位置変化型コマンド認識部22乃至形状型コマンド認識部24の各認識結果を総合的に判断して、どのようなコマンドが操作者から発せられたかを最終的に判断して、そのコマンドを表示画像生成部11に対して発行する。特に、オブジェクトの形状、位置関係、および時間位置変化のうちの2以上の条件が重なりあった状態が発生する場合、コマンド発行部27は、その意味を判断し、最終的なコマンド、即ち、上述した複合型コマンドを発行する役目を負う。   It is possible to delegate the function of the composite command recognition unit 25 to the command issuing unit 27. In this case, the command issuing unit 27 comprehensively determines each recognition result of the time position change type command recognizing unit 22 to the shape type command recognizing unit 24, and finally determines what command is issued from the operator. The command is issued to the display image generation unit 11. In particular, when a state occurs in which two or more conditions among the shape, positional relationship, and temporal position change of the object overlap, the command issuing unit 27 determines the meaning and determines the final command, that is, the above-described state. It is responsible for issuing the combined command.

以上説明した図1または図2に示される1つの機能ブロックは、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、それらの組合せで構成してもよい。また、図1または図2に示される機能ブロックは、特に図示しないが、他の機能ブロックと結合した機能ブロックとして構成してもよいし、分割して複数の小機能ブロックとして構成してもよい。   One functional block shown in FIG. 1 or FIG. 2 described above may be composed of hardware alone, software alone, or a combination thereof. . The functional blocks shown in FIG. 1 or FIG. 2 are not particularly illustrated, but may be configured as functional blocks combined with other functional blocks, or may be divided and configured as a plurality of small functional blocks. .

以下の図3乃至図43の例(以下、本例と称する)は、図2の機能的構成を有する画像入出力装置1を、液晶表示ディスプレイとして構成された表示装置に適用した例であり、その液晶表示ディスプレイを構成する各発光素子に隣接して受光素子を配置して、発光(表示)と受光(読み取り)とを並行して行えるように構成した例である。ここでは、発光(表示)と受光(読み取り)を並行して行える本例のディスプレイを、表示/受光ディスプレイと称する。即ち、図1の表示部13と受光部14とを組み合わせたものの一例が、本例の表示/受光ディスプレイである。また、後述するように本例の表示/受光ディスプレイは、画面を触れた状態である接触だけでなく、画面に近接した物体についても検出が可能であり、以下の説明で接触の検出と述べた場合には、特に説明がある場合を除いて、近接の検出をも含むようにしてある。   The following examples of FIGS. 3 to 43 (hereinafter referred to as this example) are examples in which the image input / output device 1 having the functional configuration of FIG. 2 is applied to a display device configured as a liquid crystal display. In this example, a light receiving element is arranged adjacent to each light emitting element constituting the liquid crystal display so that light emission (display) and light reception (reading) can be performed in parallel. Here, the display of this example capable of performing light emission (display) and light reception (reading) in parallel is referred to as a display / light reception display. That is, an example of a combination of the display unit 13 and the light receiving unit 14 of FIG. 1 is the display / light receiving display of this example. In addition, as will be described later, the display / light-receiving display of this example can detect not only a touch that touches the screen but also an object close to the screen. In some cases, proximity detection is also included, unless otherwise specified.

図3は、本例の表示装置の構成例を示すブロック図である。本例では、表示装置の入出力の処理を行う入出力処理部101と、画面上に表示した文書などの情報を編集するドキュメント処理部102から構成する場合について説明する。   FIG. 3 is a block diagram illustrating a configuration example of the display device of this example. In this example, a case will be described in which the input / output processing unit 101 that performs input / output processing of the display device and the document processing unit 102 that edits information such as a document displayed on the screen are described.

表示信号生成部110は、例えば、ドキュメント処理部102から要求されたドキュメントや、その他のアプリケーションから要求された画像などの情報を表示するための表示データを生成し、その表示データを信号制御部111に送る。信号制御部111は、表示データを表示信号ドライバ112に送り、表示信号ドライバ112は表示/受光ディスプレイパネル部120で画像を表示させるための駆動を行う。   For example, the display signal generation unit 110 generates display data for displaying information such as a document requested from the document processing unit 102 or an image requested from another application, and the display data is displayed on the signal control unit 111. Send to. The signal control unit 111 sends display data to the display signal driver 112, and the display signal driver 112 performs driving for displaying an image on the display / light receiving display panel unit 120.

表示/受光ディスプレイパネル部120(表示/受光パネルと呼ぶ)は、液晶表示ディスプレイとして構成し、ガラス基板などの透明な基板上に透明電極などを配置して、表示エリア(センサエリア)121(図4参照)に、複数の画素(表示素子)をマトリクス状に形成したディスプレイであり、背面にバックライト(図示せず)を配置してある。本例のバックライトは、例えば複数の発光ダイオードが配列されたものを使用してあり、比較的高速でバックライトの点灯のオン・オフ制御ができるようにしてある。バックライトの点灯のオン・オフ制御は、表示信号ドライバ112での表示駆動に連動して行われる。表示信号ドライバ112による液晶表示ディスプレイの駆動としては、ディスプレイを構成する画素電極に、駆動用の電圧信号を印加することで行われる。   The display / light-receiving display panel unit 120 (referred to as a display / light-receiving panel) is configured as a liquid crystal display, and a transparent electrode or the like is disposed on a transparent substrate such as a glass substrate to display a display area (sensor area) 121 (FIG. 4) is a display in which a plurality of pixels (display elements) are formed in a matrix, and a backlight (not shown) is arranged on the back. The backlight of this example uses, for example, an array of a plurality of light emitting diodes, and can turn on / off the backlight at a relatively high speed. On / off control of lighting of the backlight is performed in conjunction with display driving by the display signal driver 112. The driving of the liquid crystal display by the display signal driver 112 is performed by applying a driving voltage signal to the pixel electrodes constituting the display.

表示/受光パネル部120は、表示素子とは別に複数の受光素子を配置してある。即ち、例えば、表示エリア(センサエリア)121の各表示画素に隣接して、受光素子がマトリクス状に配置してあり、この受光素子への受光光量に対応して蓄積した信号電荷を、受光信号レシーバ113からの駆動で読み出す構成としてある。   The display / light receiving panel unit 120 includes a plurality of light receiving elements separately from the display elements. That is, for example, light receiving elements are arranged in a matrix adjacent to each display pixel in the display area (sensor area) 121, and signal charges accumulated corresponding to the amount of light received by the light receiving elements are converted into light receiving signals. It is configured to read by driving from the receiver 113.

信号制御部111は、表示信号ドライバ112へ表示データを送るとともに、上記表示及び受光の走査ラインの制御を行う表示側スキャナ127と受光側スキャナ128に対して駆動を指示する。   The signal control unit 111 sends display data to the display signal driver 112 and instructs the display-side scanner 127 and the light-receiving-side scanner 128 to drive the display and light-receiving scanning lines.

受光信号レシーバ113は、表示/受光パネル部120に入力された光を受光信号として読み出し、受光画像生成部114に送る。受光画像生成部114は、受光信号を基に表示画面に接触又は近接する物体の状態などを画像データとして生成する。受光画像生成部114には記憶装置(フレームメモリ(図示せず))があり、1フレーム毎の画像データを記憶する。この画像データは画像処理演算部115にて画像処理され、接触又は近接する物体の形状や大きさ、位置の変化などの判定を行う。この判定を行う際には、1フレーム前の判定結果との差分を判断して、接触状態の変化についても検出するようにしてある。また、本例においては、複数箇所の同時接触についても判定するようにしてある。画像処理演算部115での判定結果は、指示判定部116に送られ、その判定結果に基づいてどのように指示されたかを判断し、表示信号生成部110に送られる。表示信号生成部110では、実行中のアプリケーションに応じた所定の処理を行う。具体的な処理状態の例については後述する。   The light reception signal receiver 113 reads the light input to the display / light reception panel unit 120 as a light reception signal and sends it to the light reception image generation unit 114. The received light image generation unit 114 generates, as image data, the state of an object that touches or approaches the display screen based on the received light signal. The received light image generation unit 114 has a storage device (frame memory (not shown)) and stores image data for each frame. This image data is subjected to image processing by the image processing calculation unit 115, and determination is made of changes in the shape, size, position, etc. of an object that is in contact with or in proximity. When this determination is made, a difference from the determination result of the previous frame is determined to detect a change in the contact state. In this example, determination is also made for simultaneous contact at a plurality of locations. The determination result in the image processing calculation unit 115 is sent to the instruction determination unit 116, where it is determined how the instruction is given based on the determination result, and is sent to the display signal generation unit 110. The display signal generation unit 110 performs predetermined processing according to the application being executed. An example of a specific processing state will be described later.

即ち、入出力処理部101が、図1の画像入出力装置1の一例である。具体的には、表示信号生成部110が表示画像生成部11の一例であり、信号制御部111と表示信号ドライバ112とが表示制御部12の一例であり、表示/受光パネル部120(表示側スキャナ127や受光側スキャナ128を含めてもよい)が表示部13と受光部14との組合せの一例であり、受光信号レシーバ113と受光画像生成部114が受光画像生成部15の一例であり、画像処理演算部115が主にオブジェクト検出部16の一例であり、指示判定部116が主にコマンド認識/発行部17の一例である。なお、「主に」と記述したのは、コマンド認識/発行部17の一部の機能を、画像処理演算部115が有している場合もあるからである。   That is, the input / output processing unit 101 is an example of the image input / output device 1 of FIG. Specifically, the display signal generation unit 110 is an example of the display image generation unit 11, the signal control unit 111 and the display signal driver 112 are examples of the display control unit 12, and the display / light receiving panel unit 120 (display side) The scanner 127 and the light-receiving side scanner 128 may be included) are examples of the combination of the display unit 13 and the light-receiving unit 14, and the light-receiving signal receiver 113 and the light-receiving image generation unit 114 are examples of the light-receiving image generation unit 15. The image processing calculation unit 115 is mainly an example of the object detection unit 16, and the instruction determination unit 116 is mainly an example of the command recognition / issue unit 17. Note that “mainly” is described because the image processing calculation unit 115 may have some functions of the command recognition / issuance unit 17.

次に、図4を参照して、本例の表示/受光パネル部120のドライバの配置例を説明する。図3に示したように、表示/受光パネル部120は、画面表示のための表示信号ドライバ112と受光のための受光信号レシーバ113を通して画像データの発光(表示)と受光(読み取り)を行うが、実際の構成としては、どちらも2次元の画像に対応するために水平方向と垂直方向の2組の装置で構成する。   Next, with reference to FIG. 4, an example of the arrangement of drivers in the display / light receiving panel unit 120 of this example will be described. As shown in FIG. 3, the display / light receiving panel unit 120 emits (displays) and receives (reads) image data through a display signal driver 112 for screen display and a received light signal receiver 113 for receiving light. As an actual configuration, both are configured by two sets of devices in the horizontal direction and the vertical direction in order to correspond to a two-dimensional image.

表示/受光パネル部120は、図4に示すように、中央に透明な表示エリア(センサエリア)121が配置され、表示エリア121の4つの端面に、表示用水平ドライバ122、表示用垂直ドライバ123、センサ用水平レシーバ125、センサ用垂直レシーバ124を配置してある。表示用水平ドライバ122と表示用垂直ドライバ123には、表示用のデータとして、表示信号と制御クロックとが供給されて、表示エリア121にマトリクス状に配置された表示画素の駆動が行われる。センサ用水平レシーバ125とセンサ用垂直レシーバ124には、読み出し用のクロックが供給されて、そのクロックに同期して読み出された受光信号を、受光信号線を介して受光画像生成部114に供給する。   As shown in FIG. 4, the display / light-receiving panel unit 120 has a transparent display area (sensor area) 121 disposed in the center, and a display horizontal driver 122 and a display vertical driver 123 on four end faces of the display area 121. The sensor horizontal receiver 125 and the sensor vertical receiver 124 are arranged. A display signal and a control clock are supplied as display data to the display horizontal driver 122 and the display vertical driver 123, and the display pixels arranged in a matrix in the display area 121 are driven. A reading clock is supplied to the sensor horizontal receiver 125 and the sensor vertical receiver 124, and a light reception signal read in synchronization with the clock is supplied to the light reception image generation unit 114 via the light reception signal line. To do.

図5は、表示エリア121に配置された画素の1つの構成を示した図である。1つの画素131が備える表示のための構成としては、ここでは水平方向にゲート電極131hが配置してあり、垂直方向にドレイン電極131iが配置してあり、両電極の交点にスイッチング素子131aが配置してあり、そのスイッチング素子131aと画素電極131bが接続してある。スイッチング素子131aは、ゲート電極131hを介して得られる信号によりオン・オフが制御され、ドレイン電極131iを介して供給される信号により、画素電極131bでの表示状態が設定される。   FIG. 5 is a diagram showing one configuration of the pixels arranged in the display area 121. As a configuration for display provided in one pixel 131, here, a gate electrode 131h is arranged in the horizontal direction, a drain electrode 131i is arranged in the vertical direction, and a switching element 131a is arranged at the intersection of both electrodes. The switching element 131a and the pixel electrode 131b are connected. The switching element 131a is turned on / off by a signal obtained through the gate electrode 131h, and a display state at the pixel electrode 131b is set by a signal supplied through the drain electrode 131i.

そして、画素電極131bに隣接した位置に、受光センサ(受光素子)131cが配置してあり、電源電圧VDDが供給される。この受光センサ(受光素子)131cには、リセットスイッチ131dとコンデンサ131eが接続してあり、リセットスイッチ131dでリセットされた後、コンデンサ131eで受光量に対応した電荷を蓄積するようにしてある。その蓄積された電荷に比例した電圧が、読み出しスイッチ131gがオンとなるタイミングで、バッファアンプ131fを介して、信号出力用電極131jに供給され、外部に出力される。リセットスイッチ131dのオン・オフは、リセット電極131kに得られる信号により制御され、読み出しスイッチ131gのオン・オフは、読出し制御電極131mに得られる信号により制御される。   A light receiving sensor (light receiving element) 131c is arranged at a position adjacent to the pixel electrode 131b, and the power supply voltage VDD is supplied. A reset switch 131d and a capacitor 131e are connected to the light receiving sensor (light receiving element) 131c, and after being reset by the reset switch 131d, charges corresponding to the amount of received light are accumulated by the capacitor 131e. A voltage proportional to the accumulated electric charge is supplied to the signal output electrode 131j via the buffer amplifier 131f at the timing when the readout switch 131g is turned on, and is output to the outside. On / off of the reset switch 131d is controlled by a signal obtained at the reset electrode 131k, and on / off of the readout switch 131g is controlled by a signal obtained at the readout control electrode 131m.

図6は、画像の表示(発光)と受光とが、各フレーム期間に行われる状態を示した図である。図6の横軸は時間であり、縦軸は表示や受光を行う走査ライン(水平ライン)の位置を示してあり、表示信号の書き換えや受光信号の読出しは、ここでは1画面の最下段のラインから順に走査ラインを上に変化させて、最後に最上段のライン(1番目のライン)の走査を行う構成としてある。図6では、任意のフレーム位置である、nフレーム目の処理と、そのnフレームの次のフレームであるn+1フレーム目の処理を示してあり、同様の処理が継続して行われる。   FIG. 6 is a diagram illustrating a state in which image display (light emission) and light reception are performed in each frame period. In FIG. 6, the horizontal axis represents time, and the vertical axis represents the position of a scanning line (horizontal line) that performs display and light reception. Here, rewriting of the display signal and reading of the light reception signal are performed at the bottom of one screen. The scanning line is changed upward in order from the line, and finally the scanning of the uppermost line (first line) is performed. FIG. 6 shows the processing of the nth frame, which is an arbitrary frame position, and the processing of the (n + 1) th frame, which is the next frame of the nth frame, and the same processing is continuously performed.

ここでは、1フレーム期間は、例えば1 /60秒としてあり、図6に示すように、その1フレーム期間を前半と後半に2等分して分けてあり、前半はバックライトを点灯させる期間とし、後半はバックライトを消灯させる期間としてある。そして、受光信号の読出しについては、点灯期間と消灯期間のそれぞれで行うようにしてある。   Here, one frame period is, for example, 1/60 seconds, and as shown in FIG. 6, the one frame period is divided into two parts, the first half and the second half, and the first half is a period during which the backlight is turned on. The second half is a period for turning off the backlight. The light reception signal is read out in each of the lighting period and the extinguishing period.

さらに、バックライトオンの期間と、バックライトオフの期間とを、それぞれ2等分してある。nフレーム目では、表示のための画素電極の駆動ラインG1は、バックライトオンの期間の前半に、画面の下半分の走査を行って、そのラインの表示状態を、そのフレーム期間の画像に書き換えさせ、バックライトオンの期間の後半では、走査ラインを変化させずに休止期間としてある。バックライトオフの期間の前半には、画面の上半分の走査を行って、そのラインの表示状態を、そのフレーム期間の画像に書き換えさせ、バックライトオフの期間の後半では、走査ラインを変化させずに休止期間としてある。   Further, the backlight on period and the backlight off period are each divided into two equal parts. In the nth frame, the pixel electrode drive line G1 for display scans the lower half of the screen in the first half of the backlight on period and rewrites the display state of the line to an image of the frame period. In the second half of the backlight-on period, the scanning line is not changed and the rest period is set. In the first half of the backlight off period, the upper half of the screen is scanned to rewrite the display state of the line to the image of the frame period, and in the second half of the backlight off period, the scan line is changed. Without a rest period.

受光処理については、nフレーム目では、バックライトオンの期間の前半に、全てのラインの受光信号を順にリセットさせる処理RS1を行い、バックライトオンの期間の後半に、全てのラインの受光信号を順に読み出す処理RD1を行い、それぞれのセンサで一定期間蓄積した受光信号を読み出す。同様に、バックライトオフの期間の前半に、全てのラインの受光信号を順にリセットさせる処理RS2を行い、バックライトオフの期間の後半に、全てのラインの受光信号を順に読み出す処理RD2を行い、それぞれのセンサで一定期間蓄積した受光信号を読み出す。   As for the light receiving process, in the nth frame, the process RS1 for sequentially resetting the light receiving signals of all the lines is performed in the first half of the backlight on period, and the light receiving signals of all the lines are processed in the second half of the backlight on period. Processing RD1 is sequentially read, and the received light signals accumulated for a certain period by each sensor are read. Similarly, in the first half of the backlight off period, a process RS2 for sequentially resetting the light reception signals of all lines is performed, and in the second half of the backlight off period, a process RD2 for sequentially reading the light reception signals of all lines is performed, Read the received light signal accumulated for a certain period by each sensor.

このようにして、1フレーム当り、バックライトがオンでいわゆる自発光時の受光信号読出しと、バックライトがオフで消灯時の受光信号読出しの2回の読出しが行われる。その1フレームの2回の読出し信号は、受光画像生成部114内のフレームメモリ(図示せず)に入力されて、各画素位置の信号ごとに差分が検出され、その差分の信号が、ノイズ除去された差分受光信号として、画像処理演算部115に送られる。   In this way, two readings are performed per frame, that is, reading the received light signal when the backlight is on and so-called self-emission, and reading the received light signal when the backlight is off and the light is turned off. The two readout signals of one frame are input to a frame memory (not shown) in the received light image generation unit 114, and a difference is detected for each signal at each pixel position. The difference received light signal is sent to the image processing calculation unit 115.

図7は、本例の表示装置を指で操作する場合の例を示した図である。ここでは、表示装置として例えばユーザ(操作者)が携帯可能な小型・薄型の表示装置130として構成してあり、表示/受光パネル部120の表示エリア121の表示面を操作者が指f1、f2、f3などで触れることで、操作ができる構成としてある。このように、表示/受光パネル部120の表示エリア121の表面に、指などの反射物が触れた、あるいは近づいた場合、パネル部に表示されている映像によって反射物が照射され、反射した光が再び表示/受光パネル部120に戻り、これを受光することで反射物の形状や位置を検出する。図7の上部に示したように表示エリア121の画面右端を操作者が指f1、f2、f3の3本で触れた場合、図7の下部に示したような受光画像が得られる。この受光画像では、3つの接触部141、142、143が検出される。なお、より正確には、図7の下部の受光画像とは、図9乃至図12を参照して後述する画像二値化処理後の画像(図12参照)である。   FIG. 7 is a diagram illustrating an example in which the display device of this example is operated with a finger. Here, the display device is configured as a small and thin display device 130 that can be carried by a user (operator), for example, and the operator operates fingers f1 and f2 on the display surface of the display area 121 of the display / light receiving panel unit 120. , F3, etc., and can be operated by touching. As described above, when a reflective object such as a finger touches or approaches the surface of the display area 121 of the display / light-receiving panel unit 120, the reflected light is irradiated by the image displayed on the panel unit and reflected. Returns to the display / light-receiving panel unit 120 and receives the light to detect the shape and position of the reflector. When the operator touches the right edge of the display area 121 with three fingers f1, f2, and f3 as shown in the upper part of FIG. 7, a received light image as shown in the lower part of FIG. 7 is obtained. In this received light image, three contact portions 141, 142, and 143 are detected. More precisely, the received light image in the lower part of FIG. 7 is an image (see FIG. 12) after the image binarization process described later with reference to FIGS.

図7に示すような受光画像から接触部の形状や位置を検出する処理は、画像処理演算部115で行われる。そして、画像処理演算部115は、検出した接触部の形状や位置の情報を指示判定部116に送り、指示判定部116にて検出された複数の接触部の形状や位置に対応した指示を判断し、その指示を表示信号生成部110に送る。   The processing for detecting the shape and position of the contact portion from the received light image as shown in FIG. Then, the image processing calculation unit 115 sends information on the detected shape and position of the contact part to the instruction determination unit 116, and determines instructions corresponding to the shapes and positions of the plurality of contact parts detected by the instruction determination unit 116. The instruction is sent to the display signal generation unit 110.

図8は、画像処理演算部115と指示判定部116における、受光画像から操作指示を判断する処理の例を示すフローチャートである。本フローチャートを参照して、検出した複数の接触部の位置関係を基に操作者からの指示を判断する処理について説明する。ここでは、予め接触部と操作指示との対応を「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」と定義しておいた場合について説明する。   FIG. 8 is a flowchart illustrating an example of processing for determining an operation instruction from the received light image in the image processing calculation unit 115 and the instruction determination unit 116. With reference to this flowchart, a process for determining an instruction from the operator based on the detected positional relationship between the plurality of contact portions will be described. Here, a case will be described in which the correspondence between the contact portion and the operation instruction is defined as “when three fingers are simultaneously touched in the vertical direction, the display image is scrolled in that direction”.

換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、位置関係型コマンド認識部23、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図8のフローチャートに示されている。即ち、「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義がコマンド定義保持部26に保持されており、位置関係型コマンド認識部23がかかる定義に基づいて、「表示画像を左方向にスクロールさせる」または「表示画像を右方向にスクロールさせる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図8のフローチャートに示されている。   In other words, of the command recognition / issuance unit 17 of FIG. 2 configured as the instruction determination unit 116 in the example of FIG. 3, the positional relationship type command recognition unit 23, the command definition holding unit 26, and the command issuance unit 27. An example of the processing when the above functions mainly is shown in the flowchart of FIG. That is, the definition of “when three fingers are simultaneously touched in the vertical direction and the display image is scrolled in that direction” is held in the command definition holding unit 26, and the positional relationship type command recognition unit 23 Based on this definition, an example of processing when the command issuing unit 27 recognizes a command “scroll the display image leftward” or “scroll the display image rightward” and issues the command is shown in FIG. 8 is a flowchart.

まず、接触部を検出するための面積の閾値Aを設定する(ステップS101)。閾値Aは、画面上に操作者の指などが接触しているか否かを判断できるように設定するもので、指や、操作指示用のペンなど、操作するものに合わせてその面積を設定する。次に、受光画像生成部114によって受光信号から変換された受光画像データ(以下、適宜画像データと略記する)を取得し(ステップS102 )、第1の画像処理として接触部の面積を計算する(ステップS103)。なお、ステップS103の処理の詳細例については、図9乃至図16を参照して後述する。面積の計算の結果、画像データ中に面積の閾値A以上の点(図8でいう点とは、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等で後述する1つの連結成分を意味する)があるかを判断し(ステップS104)、点があれば次の処理に進み、なければ次の画像データを取得する。面積A以上の点がある場合、その点が3点か否かを判断し(ステップS105)、3点あれば次の処理に進み、なければ別処理へ進む(ステップS106)。   First, an area threshold A for detecting a contact portion is set (step S101). The threshold A is set so that it can be determined whether or not the operator's finger is in contact with the screen, and the area is set according to the operation target such as a finger or an operation instruction pen. . Next, the received light image data (hereinafter abbreviated as image data as appropriate) converted from the received light signal by the received light image generation unit 114 is acquired (step S102), and the area of the contact portion is calculated as the first image processing (step S102). Step S103). A detailed example of the process in step S103 will be described later with reference to FIGS. As a result of the area calculation, a point that is equal to or larger than the area threshold A in the image data (the point in FIG. 8 does not mean one pixel, but will be described later with reference to one object described above, that is, FIG. 9 and the like. It is determined whether there is one connected component (step S104). If there is a point, the process proceeds to the next process, and if not, the next image data is acquired. If there is a point of area A or more, it is determined whether or not there are 3 points (step S105).

次に、第2の画像処理として、3点の接触部の位置関係を計算する(ステップS107)。なお、ステップS107の処理の詳細例については、図17乃至図20を参照して後述する。位置の計算の結果、3点がほぼ縦方向に並んでいるかを判断し(ステップS108)、点がほぼ縦方向に並んでいれば次の処理に進み、並んでいなければ別処理へ進む(ステップS109)。3点がほぼ縦方向に並んでいる場合、その点が画面のどの位置にあるかを判断し(ステップS110)、画面の左側に位置する場合は、表示画面を左方向へスクロールする指示とし(ステップS111)、画面の右側に位置する場合は、表示画面を右方向へスクロールする指示とする(ステップS112)。   Next, as the second image processing, the positional relationship between the three contact portions is calculated (step S107). A detailed example of the process in step S107 will be described later with reference to FIGS. As a result of the position calculation, it is determined whether the three points are substantially aligned in the vertical direction (step S108). If the points are approximately aligned in the vertical direction, the process proceeds to the next process. Step S109). If the three points are almost aligned in the vertical direction, it is determined where the point is on the screen (step S110), and if it is on the left side of the screen, an instruction to scroll the display screen to the left is given ( If it is located on the right side of the screen (step S111), it is instructed to scroll the display screen in the right direction (step S112).

例えば、図7の上部に示したように、表示エリア121の画面右端を操作者が指f1、f2、f3の3 本で触れた場合、図7の下部に示したような受光画像が得られ、3つの接触部141、142、143が検出される。この例では、接触部の面積が閾値A以上あり、3点の接触部がほぼ縦方向に並んで、画面の右側に位置しているため、表示画面を右スクロールさせることができる。   For example, as shown in the upper part of FIG. 7, when the operator touches the right edge of the display area 121 with three fingers f1, f2, and f3, a received light image as shown in the lower part of FIG. 7 is obtained. Three contact portions 141, 142, and 143 are detected. In this example, the area of the contact portion is greater than or equal to the threshold value A, and the three contact portions are arranged substantially in the vertical direction and are positioned on the right side of the screen, so that the display screen can be scrolled to the right.

ここで、図8のステップS103の画像処理(面積計算)と、ステップS107の画像処理(位置計算)とのそれぞれの詳細について、その順番で個別に説明していく。   Here, the details of the image processing (area calculation) in step S103 of FIG. 8 and the image processing (position calculation) in step S107 will be described individually in that order.

なお、以下の説明では、図8のステップS103の画像処理(面積計算)と、ステップS107の画像処理(位置計算)とは何れも、図3の画像処理演算部115により実行されるとする。ただし、図8のステップS103の画像処理(面積計算)と、ステップS107の画像処理(位置計算)とのうちの少なくとも一部を、指示判定部116に実行させるようにしてもよい。   In the following description, it is assumed that the image processing (area calculation) in step S103 in FIG. 8 and the image processing (position calculation) in step S107 are both executed by the image processing calculation unit 115 in FIG. However, at least a part of the image processing (area calculation) in step S103 and the image processing (position calculation) in step S107 in FIG. 8 may be executed by the instruction determination unit 116.

図9は、ステップS103の画像処理(面積計算)の詳細例を説明するフローチャートである。   FIG. 9 is a flowchart for explaining a detailed example of the image processing (area calculation) in step S103.

ステップS103aにおいて、画像処理演算部115は、画像二値化処理を実行する。   In step S103a, the image processing calculation unit 115 executes an image binarization process.

具体的には例えば、図8のステップS102において、図10に示される受光画像に対応する画像データが取得されたとする。この画像データは、上述した図7の上部の状態で、1フィールド期間におけるディスプレイ表面(図3の表示/受光パネル部120の表示面)に配置された各受光素子からの出力を再校正した結果得られたものである。図10の例では、受光素子の出力が大きくなるほど、より白くなるようになされており、また、指が接触または近接している場所からの受光素子の出力は大きく、そうでない場所からの受光素子の出力は小さい値となるようになされている。   Specifically, for example, assume that image data corresponding to the received light image shown in FIG. 10 is acquired in step S102 of FIG. This image data is the result of recalibrating the output from each light receiving element arranged on the display surface (display / display surface of the light receiving panel section 120 in FIG. 3) in the state of the upper part in FIG. 7 described above. It is obtained. In the example of FIG. 10, the larger the output of the light receiving element is, the more white the light is output, and the output of the light receiving element from the place where the finger is in contact with or close to the light is large. The output of is designed to be a small value.

この図10の受光画像の横線Lに対応する画像データの水平ラインの各画素の信号レベル(輝度)が、図11の上部に示されている。この場合、画像処理演算部115は、画像二値化処理として、かかる水平ラインの各信号レベル(各画素値)と、スライスレベル(S)とを比較し、スライスレベル(S)以上である画素には「1」という画素値を付し、スライスレベル(S)未満である場合「0」という画素値を付す処理を実行する。かかる画像二値化処理が施された結果が、図11の下部に示されている。なお、図11の例では、スライスレベル(S)は固定されているが、必ずしも固定である必要は無い。例えば、画像データ全体の平均値からスライスレベル(S)を導出してもよいし、画像データから作成した平均化などのフィルタの値をスライスレベル(S)として算出してもよい。   The signal level (luminance) of each pixel in the horizontal line of the image data corresponding to the horizontal line L of the received light image in FIG. 10 is shown in the upper part of FIG. In this case, the image processing calculation unit 115 compares each signal level (each pixel value) of the horizontal line with the slice level (S) as an image binarization process, and a pixel that is equal to or higher than the slice level (S). Is assigned a pixel value of “1”, and if it is less than the slice level (S), a process of attaching a pixel value of “0” is executed. The result of such image binarization processing is shown in the lower part of FIG. In the example of FIG. 11, the slice level (S) is fixed, but it is not necessarily fixed. For example, the slice level (S) may be derived from the average value of the entire image data, or a filter value such as averaging created from the image data may be calculated as the slice level (S).

このような画像二値化処理を、図10の受光画像に対応する画像データの全水平ラインについて同様に施した結果得られる画像が、図12に示されている。即ち、上述したように、図12の画像とは、図7の上部に示したように表示エリア121の画面右端を操作者が指f1、f2、f3の3本で触れた場合に得られる図7の下部の画像である。即ち、図7で説明した3つの接触部141、142、143のそれぞれとは、より正確には、画素値が「1」の画素(白い画素)を多く含む領域141,142,143のそれぞれをいう。   FIG. 12 shows an image obtained as a result of performing such an image binarization process on all horizontal lines of image data corresponding to the received light image of FIG. 10 in the same manner. That is, as described above, the image of FIG. 12 is a diagram obtained when the operator touches the right edge of the display area 121 with three fingers f1, f2, and f3 as shown in the upper part of FIG. FIG. That is, each of the three contact portions 141, 142, and 143 described in FIG. 7 is more precisely the regions 141, 142, and 143 including many pixels (white pixels) having a pixel value “1”. Say.

ただし、図12の領域141,142,143のそれぞれの内部には、画素値が「0」の画素(黒い画素)も存在しており、また、領域141,142,143の境界もあいまいである。ここで、画素値が「1」の画素の集合体からなる領域、即ち、画素値が「1」の画素の連結成分をオブジェクトとして検出すると定義すると、図12の状態の領域141,142,143はまだ、検出されたオブジェクトであるとはいえない。なお、かかる定義を採用したのは、オブジェクト情報を容易に作成できるから、例えば、オブジェクトの面積算出(後述するステップS103e参照)や、オブジェクトの重心位置の算出(図17乃至図20を参照して後述する)等が容易に行えるからである。   However, in each of the areas 141, 142, and 143 in FIG. 12, pixels (black pixels) having a pixel value of “0” exist, and the boundaries between the areas 141, 142, and 143 are ambiguous. . Here, if it is defined that a region composed of a collection of pixels having a pixel value “1”, that is, a connected component of pixels having a pixel value “1” is detected as an object, the regions 141, 142, and 143 in the state of FIG. Is not yet a detected object. This definition is adopted because the object information can be easily created. For example, the area calculation of the object (see step S103e described later) and the gravity center position of the object (see FIGS. 17 to 20). This is because it can be easily performed.

そこで、図12の領域141,142,143のそれぞれに対応するオブジェクト(連結成分)であって、指のオブジェクト候補を検出すべく、さらに、図9のステップS103b乃至S103dの処理が実行されるのである。   Therefore, since the object (connected component) corresponding to each of the areas 141, 142, and 143 in FIG. 12 and the finger object candidate is detected, the processing in steps S103b to S103d in FIG. 9 is further executed. is there.

即ち、図3の画像処理演算部115は、ステップS103bにおいて、ノイズ除去処理を実行し、ステップS103cにおいて、孤立点除去処理を実行し、さらに、ステップS103dにおいて、ラベリング処理を実行する。これにより、指のオブジェクト候補となる幾つかの連結成分が生成される。   That is, the image processing calculation unit 115 in FIG. 3 executes noise removal processing in step S103b, performs isolated point removal processing in step S103c, and further executes labeling processing in step S103d. As a result, several connected components that are finger object candidates are generated.

なお、ステップS103bの処理でノイズ除去処理が実行される理由は、次の通りである。   The reason why the noise removal process is executed in the process of step S103b is as follows.

即ち、図3の受光画像生成部114から出力された画像データ(図10参照)は、表示/受光パネル部120の各受光素子が持つばらつきや周囲環境によってノイズを含んだものになっている場合が多い。このノイズは、画像二値化処理(ステップS103a)の後にも残ることがあり、こうしたノイズが多く残っている場合は、後に行う孤立点除去処理(ステップS103c)やラベリング処理(ステップS103d)の際に処理量が著しく増加することがある。これを防止する為に、ステップS103bの処理でノイズ除去処理を実行するのである。   That is, when the image data (see FIG. 10) output from the received light image generation unit 114 in FIG. 3 includes noise due to variations of the respective light receiving elements of the display / light receiving panel unit 120 and the surrounding environment. There are many. This noise may remain after the image binarization process (step S103a). If a lot of such noise remains, the isolated point removal process (step S103c) or the labeling process (step S103d) to be performed later will be performed. The throughput may increase significantly. In order to prevent this, the noise removal process is executed in the process of step S103b.

ノイズ除去処理としては、様々な手法が提案されており、何れの手法を採用しても構わないが、ここでは次のような手法が採用されているとする。即ち、処理対象として注目すべき画素(以下、注目画素と称する)の周囲の幾つかの画素の状態を調査し、この状態によって注目画素の画素値を特定する、といった手法が採用されているとする。   Various methods have been proposed for the noise removal processing, and any method may be adopted. Here, it is assumed that the following method is adopted. That is, a method is employed in which the state of several pixels around a pixel to be processed as a processing target (hereinafter referred to as a pixel of interest) is investigated, and the pixel value of the pixel of interest is identified based on this state. To do.

そして、ここでは例えば次のようなルールが規定されているとする。即ち、注目画素の8近傍の各画素のうちの画素値が「0」の画素の数(黒の画素数)が1個以下の場合、注目画素の画素値は「1」とする。即ち、注目画素は白の画素とする。一方、注目画素の8近傍の各画素のうちの画素値が「0」の画素の数(黒の画素数)が5個以上の場合、注目画素の画素値は「0」とする。即ち、注目画素は黒の画素とする。また、注目画素の8近傍の各画素のうちの画素値が「0」の画素の数(黒の画素数)が2個以上4個以下の場合、注目画素の画素値は元のままの値(二値化されているので「0」または「1」)とする、といったルールが規定されているとする。   Here, for example, the following rule is defined. That is, when the number of pixels having a pixel value “0” (the number of black pixels) among the pixels in the vicinity of 8 of the pixel of interest is 1 or less, the pixel value of the pixel of interest is “1”. That is, the target pixel is a white pixel. On the other hand, when the number of pixels having the pixel value “0” (the number of black pixels) among the pixels in the vicinity of 8 of the pixel of interest is 5 or more, the pixel value of the pixel of interest is “0”. That is, the target pixel is a black pixel. In addition, when the number of pixels having a pixel value “0” (the number of black pixels) is 2 or more and 4 or less, the pixel value of the pixel of interest is the original value. It is assumed that a rule such as “0” or “1” because it is binarized is defined.

この場合、図3の画像処理演算部115は、画像二値化処理後の受光画像を構成する各画素を1つずつ注目画素として、上述したルールに従って注目画素の画素値を決定していく。なお、注目画素の設定手法は特に限定されないが、ここでは例えば、受光画像の左上から順次右側に注目画素を設定していき、右端の画素が注目画素に設定されたら、次に、1つ下の行(水平ライン)の左端の画素を注目画素に設定していく、という設定を最下行(最終水平ライン)まで繰り返していく、という設定手法が採用されているとする。   In this case, the image processing calculation unit 115 in FIG. 3 determines the pixel value of the pixel of interest according to the above-described rule, with each pixel constituting the received light image after the image binarization processing being one pixel of interest. Note that the method of setting the target pixel is not particularly limited, but here, for example, when the target pixel is set sequentially from the upper left to the right side of the received light image, and the rightmost pixel is set as the target pixel, the next lower pixel is set. It is assumed that a setting method is adopted in which the setting of setting the pixel at the left end of this row (horizontal line) as the target pixel is repeated until the bottom row (final horizontal line).

なお、上述したルールはあくまでも一例であり、他のルールを採用してもよい。例えば、注目画素の画素値を「0」にする基準条件は、上述した例では黒の画素の数が1個以下とされたが、上述した例に限定されず、状況に応じて適宜変更することもできる。同様に、注目画素の画素値を「1」にする基準条件は、上述した例では黒の画素の数が5個以上とされたが、上述した例に限定されず、状況に応じて適宜変更することもできる。   Note that the rules described above are merely examples, and other rules may be adopted. For example, the reference condition for setting the pixel value of the target pixel to “0” is set to one or less black pixels in the above-described example, but is not limited to the above-described example, and is appropriately changed depending on the situation. You can also Similarly, the reference condition for setting the pixel value of the target pixel to “1” is set to five or more black pixels in the above example, but is not limited to the above example, and is appropriately changed according to the situation. You can also

次に、ステップS103cの孤立点除去処理について、詳しく説明する。   Next, the isolated point removal process in step S103c will be described in detail.

上述したように、ステップS103dのラベリング処理の結果得られた幾つかの連結成分の中から指のオブジェクトが検出されることになる。即ち、ステップS103dのラベリング処理の結果、指のオブジェクト候補となる幾つかの連結成分が得られることになる。なお、ここでは、接触或いは近接している物体(ここでは指)に対応する画素データ(画素値)群が、指のオブジェクトとして検出されることになる。そこで、かかる検出処理を容易に行うべく、即ち、指のオブジェクト候補の数を減らすことを目的として、ノイズ除去処理後の画像データに含まれる幾つかの連結成分のうちの、明らかに接触あるいは近接している物体ではない連結成分、即ち、除去しきれなかったノイズにより形成された連結成分を除外する、といった処理を行うと好適である。かかる処理の一例として、図9の例では、ステップS103cの孤立点除去処理が実行されるのである。   As described above, a finger object is detected from among several connected components obtained as a result of the labeling process in step S103d. That is, as a result of the labeling process in step S103d, several connected components that are finger object candidates are obtained. Here, a pixel data (pixel value) group corresponding to an object (here, a finger) in contact with or close to the object is detected as an object of the finger. Therefore, for the purpose of easily performing such detection processing, that is, for the purpose of reducing the number of finger object candidates, of the several connected components included in the image data after the noise removal processing, it is clearly in contact or proximity. It is preferable to perform processing such as removing a connected component that is not an object, that is, a connected component formed by noise that cannot be removed. As an example of such processing, in the example of FIG. 9, the isolated point removal processing in step S103c is executed.

具体的には例えば、ステップS103bのノイズ除去処理後の結果、図13に示されるような受光画像(一部)が得られたとする。   Specifically, for example, it is assumed that a light reception image (a part) as shown in FIG. 13 is obtained as a result of the noise removal processing in step S103b.

この場合、周囲が黒で囲まれた白の画素の集合体である連結成分I,IIが、指のオブジェクト候補となる。   In this case, the connected components I and II, which are aggregates of white pixels surrounded by black, are finger object candidates.

上述したように、図8のステップS101の処理で面積閾値Aが設定され、ステップS104の処理でデータ中に面積A以上の点(上述したように、ここでいう点は、1つの画素ではなく連結成分)があるか否かが判定される。即ち、図8の例では、面積A以上の連結成分(ステップS104でいう点)が指のオブジェクトとして検出されることになる。   As described above, the area threshold A is set in the process of step S101 in FIG. 8, and the point of area A or larger in the data in the process of step S104 (as described above, this point is not a single pixel. It is determined whether or not there is a connected component. That is, in the example of FIG. 8, a connected component (the point in step S104) having an area A or more is detected as a finger object.

この場合、面積とは、連結成分に属する画素の総数であるとし、面積閾値A=100が設定されたとすると、この面積閾値Aよりも遥かに小さい面積の連結成分(画素群)、例えば「5」以下の面積の連結成分は、指のオブジェクトではなくノイズであると判断できる。   In this case, if the area is the total number of pixels belonging to the connected component and the area threshold A = 100 is set, the connected component (pixel group) having an area much smaller than the area threshold A, for example, “5 It can be determined that the connected component of the following area is not a finger object but noise.

図13の例では、連結成分Iは、3つの白い画素の集合体である。即ち、連結成分Iの面積は「3」である。そこで、かかる連結成分Iは有意なデータではないと判断し、即ち指のオブジェクト候補ではないと判断し、連結成分Iを除去する、という処理が孤立点除去処理である。なお、連結成分Iを除去するとは、連結成分Iを構成する3つの白い画素を黒の画素に変換する、即ち、連結成分Iを構成する3つの画素の画素値を「1」から「0」に変換することを意味する。なお、連結成分IIは、15の白い画素の集合体である。即ち、連結成分IIの面積は「15」である。従って、連結成分IIは、孤立点除去処理では除去されずにそのまま残ることになる。即ち、図13の受光画像(一部)に対して孤立点除去処理が施されると、図14に示されるような画像が得られることになる。   In the example of FIG. 13, the connected component I is an aggregate of three white pixels. That is, the area of the connected component I is “3”. Therefore, the process of determining that the connected component I is not significant data, that is, determining that the connected component I is not a finger object candidate and removing the connected component I is an isolated point removal process. The removal of the connected component I means that the three white pixels constituting the connected component I are converted to black pixels, that is, the pixel values of the three pixels constituting the connected component I are changed from “1” to “0”. It means to convert to. The connected component II is an aggregate of 15 white pixels. That is, the area of the connected component II is “15”. Accordingly, the connected component II remains without being removed by the isolated point removal process. That is, when isolated point removal processing is performed on the received light image (part) of FIG. 13, an image as shown in FIG. 14 is obtained.

次に、ステップS103dのラベリング処理について、詳しく説明する。   Next, the labeling process in step S103d will be described in detail.

即ち、孤立点除去処理後の画像データの中から、画素値が「1」の画素(白い画素)の集合体からなる連結成分の1つ1つに一意のラベルを付す処理が、ラベリング処理である。   That is, the labeling process is a process in which a unique label is attached to each connected component made up of a collection of pixels (white pixels) having a pixel value “1” from the image data after the isolated point removal process. is there.

具体的には例えば、ステップS103cの孤立点除去処理後の結果、図15に示されるような受光画像(一部)が得られたとする。   Specifically, for example, it is assumed that a light reception image (partial) as shown in FIG. 15 is obtained as a result of the isolated point removal process in step S103c.

この場合、図15の受光画像に対してラベリング処理が施されると、図16に示されるように、4つの連結成分のそれぞれに対して、Label 01 , Label 02 , Label 03 , Label 04のそれぞれが付されることになる。   In this case, when the received light image of FIG. 15 is subjected to labeling processing, as shown in FIG. 16, each of the four connected components is labeled 01, Label 02, Label 03, and Label 04, respectively. Will be attached.

このようにして、図9のステップS103dのラベリング処理が実行されると、処理はステップS103eに進む。ステップS103eにおいて、図3の画像処理演算部115は、ラベルが付された各連結成分の点(画素)の数を数える。   In this way, when the labeling process of step S103d in FIG. 9 is executed, the process proceeds to step S103e. In step S103e, the image processing calculation unit 115 in FIG. 3 counts the number of points (pixels) of each connected component with a label.

このステップS103eの処理結果が、各連結成分の面積となる。具体的には例えば図16の例の受光画像に対してステップS103eの処理が施されると、Label 01の連結成分の面積は「189」と、Label 02の連結成分の面積は「6」と、Label 03の連結成分の面積は「236」と Label 04の連結成分の面積は「18」と、それぞれ算出されることになる。   The processing result of step S103e is the area of each connected component. Specifically, for example, when the process of step S103e is performed on the received light image of FIG. 16, the area of the connected component of Label 01 is “189”, and the area of the connected component of Label 02 is “6”. The area of the connected component of Label 03 is calculated as “236”, and the area of the connected component of Label 04 is calculated as “18”.

この場合、例えば面積閾値A=100が設定されたとすると、Label 01の連結成分と、Label 03の連結成分とのそれぞれが、指のオブジェクトとして検出されることになる。即ちここでは、近接又は接触した指に対応する連結成分であって、図8のステップS104等でいう「面積A以上の点」として検出されることになる。   In this case, for example, if the area threshold A = 100 is set, the connected component of Label 01 and the connected component of Label 03 are detected as finger objects. That is, here, it is a connected component corresponding to a finger that is close to or touching, and is detected as “a point greater than area A” in step S104 of FIG.

以上、図8のステップS103の画像処理(面積計算)の詳細について説明した。   The details of the image processing (area calculation) in step S103 of FIG. 8 have been described above.

次に、図8のステップS107の画像処理(位置計算)の詳細について説明する。   Next, details of the image processing (position calculation) in step S107 of FIG. 8 will be described.

図17は、ステップS107の画像処理(位置計算)の詳細例を説明するフローチャートである。   FIG. 17 is a flowchart illustrating a detailed example of the image processing (position calculation) in step S107.

ステップS107aにおいて、図3の画像処理演算部115は、各連結成分の重心位置座標を算出する。   In step S107a, the image processing calculation unit 115 in FIG. 3 calculates the barycentric position coordinates of each connected component.

なお、ステップS107aの処理で重心位置座標が算出される連結成分とは、指のオブジェクトとして検出された連結成分、即ち、図8のステップS104等でいう「面積がA以上の点」として検出された連結成分である。具体的には例えば、上述した図16の例では、Label 01の連結成分とLabel 03の連結成分とが、ステップS107aの処理対象になる。   The connected component for which the center-of-gravity position coordinates are calculated in the process of step S107a is detected as the connected component detected as the finger object, that is, the “point having an area of A or more” in step S104 of FIG. Connected components. Specifically, for example, in the example of FIG. 16 described above, the connected component of Label 01 and the connected component of Label 03 are processing targets of Step S107a.

ただし、より正確にいえば、Label 01の連結成分とLabel 03の連結成分とが、ステップS107aの処理対象になるためには、図8のステップS105に示されるように、図16には図示しない面積A以上の点(連結成分)がさらに1つ存在する必要がある。ここでは、図16のLabel 01の連結成分とLabel 03の連結成分との他、図16には図示しないLabel 02の連結成分(図16に図示されているLabel 02の連結成分とは別の連結成分)が、面積A以上であったとする。そして、Label 01の連結成分,Label 02の連結成分,Label 03の連結成分に対して、図17の画像処理(位置計算)が施されるとして、以下、説明していく。   However, more precisely, in order for the connected component of Label 01 and the connected component of Label 03 to be processed in step S107a, as shown in step S105 of FIG. 8, it is not shown in FIG. One more point (connected component) of area A or more needs to exist. Here, in addition to the connected component of Label 01 in FIG. 16 and the connected component of Label 03, the connected component of Label 02 (not shown in FIG. 16) (the connected component different from the connected component of Label 02 shown in FIG. 16) is used. Component) is area A or more. The following description will be made assuming that the image processing (position calculation) of FIG. 17 is performed on the connected component of Label 01, the connected component of Label 02, and the connected component of Label 03.

この場合、例えば図16のLabel 01の連結成分を構成する各画素をPn(nは1乃至189のうちの何れかの整数値)とし、この座標を(xn,yn)とすると、Label 01の連結成分の重心位置座標は、次のようにして算出される。   In this case, for example, if each pixel constituting the connected component of Label 01 in FIG. 16 is Pn (n is any integer value from 1 to 189) and the coordinates are (xn, yn), Label 01 The barycentric position coordinates of the connected component are calculated as follows.

即ち、Label 01の連結成分は189個の画素の集合体であるので、この189個の画素の位置座標の平均が、重心位置座標となる。即ち、重心位置座標G01=((x1+x2+x3+…x189)/189, (y1+y2+y3+…y189)/189)となる。   That is, since the connected component of Label 01 is an aggregate of 189 pixels, the average of the position coordinates of 189 pixels is the barycentric position coordinate. That is, the center-of-gravity position coordinates G01 = ((x1 + x2 + x3 +... X189) / 189, (y1 + y2 + y3 +... Y189) / 189).

あるいは、Labelk(ここでは、kは01,02,03のうちの何れかの値)の重心位置座標を求める式は、全画素を順に計算していく場合、次の式(1)のように表される。
Gk=((Σxi*wi)/ Σwi,(Σyi*wi)/ Σwi) ・・・(1)
ただし、式(1)において、wiはLabelkを持つ画素の場合1、そうでないとき0とする。
Alternatively, the equation for obtaining the center-of-gravity position coordinates of Labelk (here, k is any value of 01, 02, 03) is as shown in the following equation (1) when all pixels are calculated in order. expressed.
Gk = ((Σxi * wi) / Σwi, (Σyi * wi) / Σwi) (1)
However, in Expression (1), wi is 1 for a pixel having a Label and 0 otherwise.

このようにして、ステップS107aの処理により、Label 01の連結成分の重心位置座標G01,Label 02の連結成分の重心位置座標G02,Label 03の連結成分の重心位置座標G03のそれぞれが算出される。なお、図18は、上述した図16の例に対応させて、Label 01の連結成分の重心位置座標G01とLabel 03の連結成分の重心位置座標G03とが算出された結果が示されている。   In this way, the gravity center position coordinate G01 of the connected component of Label 01, the gravity center position coordinate G02 of the connected component of Label 02, and the gravity center position coordinate G03 of the connected component of Label 03 are calculated by the processing of Step S107a. FIG. 18 shows the result of calculating the gravity center position coordinates G01 of the connected component of Label 01 and the gravity center position coordinates G03 of the connected component of Label 03, corresponding to the example of FIG.

なお、以下、Label K(ここではKは01,02,03のうちの何れかの値)の連結成分の重心位置座標GKの点を、単に点GKと称する。また、ステップS107aにより、図19に示される結果が得られたとして、以下、説明していく。   Hereinafter, the point of the center-of-gravity position coordinate GK of the connected component of Label K (here, K is one of 01, 02, and 03) is simply referred to as point GK. Further, the following description will be made assuming that the result shown in FIG. 19 is obtained in step S107a.

次に、ステップS107bにおいて、画像処理演算部115は、重心位置間の距離を算出する。ここでは、図19に示されるように、点G01-点G02間の距離、点G02-点G03間の距離、および、点G03-点G01間の距離がそれぞれ算出される。   Next, in step S107b, the image processing calculation unit 115 calculates the distance between the gravity center positions. Here, as shown in FIG. 19, the distance between point G01 and point G02, the distance between point G02 and point G03, and the distance between point G03 and point G01 are calculated.

ステップS107cにおいて、画像処理演算部115は、最高点と最下点が作る角度を計算する。ここに、最高点とは、ステップS107aで算出された各連結成分の重心位置座標(点G01,G02,G03)のうちのy座標の値が最も大きい点を指す。一方、最下点とは最も小さい点を指す。ここでは、図19に示されるように、最高点は点G01であり、最下点はG03であるので、この2点を結ぶ線分と水平線とがなす角度θsが計算される。   In step S107c, the image processing calculation unit 115 calculates the angle formed by the highest point and the lowest point. Here, the highest point refers to a point having the largest y coordinate value among the barycentric position coordinates (points G01, G02, G03) of each connected component calculated in step S107a. On the other hand, the lowest point refers to the smallest point. Here, as shown in FIG. 19, since the highest point is the point G01 and the lowest point is G03, the angle θs formed by the line segment connecting these two points and the horizontal line is calculated.

ステップS107dにおいて、画像処理演算部115は、各重心位置の中央の座標を計算する。具体的には例えば、図19に示されるように、次の式(2)によって、各重心位置の中央の座標Gtotalが算出される。   In step S107d, the image processing calculation unit 115 calculates the coordinates of the center of each barycentric position. Specifically, for example, as shown in FIG. 19, the center coordinate Gtotal of each gravity center position is calculated by the following equation (2).

Gtotal =((x1+x2+x3)/3, (y1+y2+y3)/3) ・・・(2)   Gtotal = ((x1 + x2 + x3) / 3, (y1 + y2 + y3) / 3) (2)

以上の画像処理(位置計算)の処理結果を利用することで、図8のステップS108やS110の判定処理を実行することができる。   By using the processing result of the image processing (position calculation) described above, the determination processing in steps S108 and S110 in FIG. 8 can be executed.

例えば、ステップS108の「3点はほぼ縦に並んでいるか」否かの判定については、ステップS107cの処理で算出された角度θsを用いることができる。   For example, the angle θs calculated in the process of step S107c can be used to determine whether or not “three points are arranged substantially vertically” in step S108.

具体的には例えば、判定条件としての角度θvを設定しておき、次の不等式(3)を満たせば、3点はほぼ縦に並んでいると判定することが可能になる。
90-θv < θs < 90+θv ・・・(3)
Specifically, for example, if the angle θv is set as a determination condition and the following inequality (3) is satisfied, it is possible to determine that the three points are substantially aligned vertically.
90-θv <θs <90 + θv (3)

例えば角度θv=10°が設定されている場合には、角度θsが80°乃至100°のときに、ステップS108の処理でYESである、即ち「3点はほぼ縦に並んでいる」と判定されることになる。   For example, when the angle θv = 10 ° is set, when the angle θs is 80 ° to 100 °, YES is determined in the process of step S108, that is, “three points are almost aligned vertically” is determined. Will be.

さらに例えば、ステップS108の「3点はほぼ縦に並んでいるか」否かの判定については、上述した角度θsに加えて、ステップS107bの処理で算出された重心位置間の距離も用いることができる。これにより、より詳細な判断が可能になる。   Further, for example, in determining whether or not “the three points are substantially vertically aligned” in step S108, in addition to the angle θs described above, the distance between the gravity center positions calculated in the process in step S107b can also be used. . As a result, more detailed determination is possible.

具体的には例えば、3点はほぼ縦に並んでいると判定するか否かの条件として、上述した角度θsを用いる条件に加えてさらに、次の不等式(4),(5)を共に満たすという条件を付加することができる。
(点G01-点G02間の距離)<(点G03-点G01間の距離) ・・・(4)
(点G02-点G03間の距離)<(点G03-点G01間の距離) ・・・(5)
Specifically, for example, the following inequalities (4) and (5) are satisfied in addition to the above-described condition using the angle θs as a condition for determining whether or not the three points are arranged substantially vertically. This condition can be added.
(Distance between point G01 and point G02) <(Distance between point G03 and point G01) (4)
(Distance between point G02 and point G03) <(Distance between point G03 and point G01) (5)

或いは例えば、付加する条件として、次の不等式(6)を満たすという条件を採用してもよい。
(点G02-点Gmid間の距離)<(点G03-点G01間の距離の半分) ・・・(6)
なお、式(6)における点Gmidとは、図20に示されるように、座標((x1-x3)/2 , (y1-y3)/2)の点である。なお、この場合の判定処理の詳細については、図25を参照して後述する。
Alternatively, for example, a condition that the following inequality (6) is satisfied may be adopted as the condition to be added.
(Distance between point G02 and point Gmid) <(Half of distance between point G03 and point G01) (6)
Note that the point Gmid in the equation (6) is a point of coordinates ((x1-x3) / 2, (y1-y3) / 2) as shown in FIG. The details of the determination process in this case will be described later with reference to FIG.

また例えば、図8のステップS110の「画面のどの位置にあるか」の判定については、ステップS107dの処理で算出された重心位置の中央の座標Gtotalを用いることができる。具体的には例えば、重心位置の中央の座標Gtotalが、受光画像の中央よりも左側に位置する場合、画面の左側にあると判定することができる。これに対して、重心位置の中央の座標Gtotalが、受光画像の中央よりも右側に位置する場合、画面の右側にあると判定することができる。   Further, for example, for the determination of “in which position on the screen” in step S110 of FIG. 8, the center coordinate Gtotal of the center of gravity calculated in the process of step S107d can be used. Specifically, for example, when the center coordinate Gtotal of the center of gravity position is located on the left side of the center of the received light image, it can be determined that it is on the left side of the screen. On the other hand, when the center coordinate Gtotal of the center of gravity position is located on the right side of the center of the received light image, it can be determined that it is on the right side of the screen.

次に、複数の接触部の位置関係を基に操作者からの指示を判断する処理の他の例について図21、図22を参照して説明する。図21は、表示エリア121の画面下端を操作者が指f1、f2、f3の3本で触れた場合である。このとき、図21の下部に示したような受光画像が得られ、3つの接触部151、152、153が検出される。   Next, another example of processing for determining an instruction from an operator based on the positional relationship between a plurality of contact portions will be described with reference to FIGS. FIG. 21 shows a case where the operator touches the lower end of the display area 121 with three fingers f1, f2, and f3. At this time, the received light image as shown in the lower part of FIG. 21 is obtained, and the three contact portions 151, 152, 153 are detected.

図22は、図21に示すような接触部が検出される場合の、受光画像から操作指示を判断する処理の例を示すフローチャートである。本フローチャートを参照して、検出した複数の接触部の位置関係を基に操作者からの指示を判断する処理について説明する。   FIG. 22 is a flowchart illustrating an example of processing for determining an operation instruction from a received light image when a contact portion as illustrated in FIG. 21 is detected. With reference to this flowchart, a process for determining an instruction from the operator based on the detected positional relationship between the plurality of contact portions will be described.

ここでは、予め接触部と操作指示との対応の定義として、「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義に加えてさらに、「3本の指が同時に横方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義もなされている場合について説明する。   Here, as a definition of the correspondence between the contact portion and the operation instruction in advance, in addition to the definition that “when three fingers are simultaneously touched in the vertical direction, the display image is scrolled in that direction”, “ A case will also be described in which the definition of “when the three fingers are simultaneously touched in the horizontal direction and the display image is scrolled in that direction” is also described.

換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、位置関係型コマンド認識部23、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図22のフローチャートに示されている。即ち、「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」および「3本の指が同時に横方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義がコマンド定義保持部26に保持されており、位置関係型コマンド認識部23がかかる2つの定義に基づいて、「表示画像を左方向にスクロールさせる」、「表示画像を右方向にスクロールさせる」、「表示画像を上方向にスクロールさせる」、および、「表示画像を下方向にスクロールさせる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図22のフローチャートに示されている。   In other words, of the command recognition / issuance unit 17 of FIG. 2 configured as the instruction determination unit 116 in the example of FIG. 3, the positional relationship type command recognition unit 23, the command definition holding unit 26, and the command issuance unit 27. An example of the process when is mainly functioning is shown in the flowchart of FIG. That is, “when three fingers are touched side by side in the vertical direction at the same time, the display image is scrolled in that direction” and “when three fingers are touched side by side in the horizontal direction at the same time, The definition of “scroll in the direction” is held in the command definition holding unit 26, and the positional relationship type command recognition unit 23 performs “scroll the display image leftward”, “ Processing example when recognizing commands such as “scroll right”, “scroll display image upward”, and “scroll display image downward” and command issue unit 27 issues such a command Is shown in the flowchart of FIG.

なお、図22でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。   Note that the point in FIG. 22 does not mean one pixel, like the point in FIG. 8, but means one object described above, that is, one connected component in FIG.

本処理において、接触部を検出するための面積の閾値Aを設定する処理(ステップS101)から、検出した3点の接触部がほぼ縦方向に並んでいるかを判断する処理(ステップS108)までは、上記図8のフローチャートで説明したものと同様である。3点がほぼ縦方向に並んでいれば別処理へ進み(ステップS113)、並んでいなければ次の処理へ進む。なお、ここでいうステップS113の別処理とは、例えば上記図8のステップS110乃至S112の処理をいう。次に、3点がほぼ横方向に並んでいるかを判断し(ステップS114)、3点が横方向に並んでいない場合は別処理へ進む(ステップS115)。検出した3点がほぼ横方向に並んでいる場合、その点が画面のどの位置にあるかを判断し(ステップS116)、画面の下側に位置する場合は、表示画面を下方向へスクロールする指示とし(ステップS117 )、画面の上側に位置する場合は、表示画面を上方向へスクロールする指示とする(ステップS118)。   In this process, from the process of setting the threshold value A of the area for detecting the contact part (step S101) to the process of determining whether the detected three contact parts are substantially aligned in the vertical direction (step S108). This is the same as that described in the flowchart of FIG. If the three points are substantially aligned in the vertical direction, the process proceeds to another process (step S113), and if not, the process proceeds to the next process. Note that the separate processing in step S113 here refers to, for example, the processing in steps S110 to S112 in FIG. Next, it is determined whether the three points are substantially aligned in the horizontal direction (step S114). If the three points are not aligned in the horizontal direction, the process proceeds to another process (step S115). If the three detected points are arranged substantially horizontally, it is determined where the points are on the screen (step S116), and if it is located on the lower side of the screen, the display screen is scrolled downward. If it is located at the upper side of the screen (step S117), the display screen is scrolled upward (step S118).

なお、ステップS114の3点はほぼ横に並んでいるか否かの判定処理は、上述したステップS108の判定処理と同様に実行すればよい。また、ステップS116の画面のどの位置にあるか否かの判定処理は、上述した図8のステップS110の判定処理と同様に実行すればよい。   In addition, what is necessary is just to perform the determination process of whether three points of step S114 are located in a line substantially similarly to the determination process of step S108 mentioned above. Moreover, what is necessary is just to perform the determination process of which position on the screen of step S116 is the same as the determination process of step S110 of FIG. 8 mentioned above.

例えば、図21の上部に示したように、表示エリア121の画面下端を操作者が指f1、f2 、f3の3本で触れた場合は、図21の下部に示したような受光画像が得られ、検出された3つの接触部151、152、153がほぼ横方向に並んで、画面の下側に位置しているため、表示画面を下スクロールさせることができる。   For example, as shown in the upper part of FIG. 21, when the operator touches the lower end of the display area 121 with three fingers f1, f2, and f3, a received light image as shown in the lower part of FIG. 21 is obtained. Since the detected three contact portions 151, 152, 153 are arranged in the horizontal direction and are located on the lower side of the screen, the display screen can be scrolled down.

上記の例では、検出した接触部の位置関係を基に操作者の指示を判断したが、次に、複数の接触部の移動位置変化を基に操作者からの指示を判断する処理例について、図23乃至図36を参照して説明する。図23は、表示エリア121の表示面に操作者が指f1、f2、f3の3本で触れた状態を示している。ここでは、この状態から指f1、f2、f3の触れる位置を、矢印a1、a2、a3で示す向きに動かしたとする。図23の下部に、この場合の受光画像を示す。受光画像P1は指を動かす前の受光画像の例であり、3つの接触部161a、162a、163aが検出されている。受光画像P2は指を動かしている途中の受光画像の例であり、受光画像P3は指を動かした後の受光画像の例である。このように受光画像データにおいて、時間の経過に従って接触部の位置が変化し、受光画像P3では、3つの接触部161c、162c、163cの間隔が最初の受光画像P1より離れていることが分かる。   In the above example, the operator's instruction is determined based on the detected positional relationship of the contact portion.Next, for a processing example in which an instruction from the operator is determined based on the movement position change of the plurality of contact portions, This will be described with reference to FIGS. FIG. 23 shows a state where the operator touches the display surface of the display area 121 with three fingers f1, f2, and f3. Here, it is assumed that the positions touched by the fingers f1, f2, and f3 are moved in the directions indicated by the arrows a1, a2, and a3 from this state. The received light image in this case is shown in the lower part of FIG. The light reception image P1 is an example of a light reception image before the finger is moved, and three contact portions 161a, 162a, and 163a are detected. The received light image P2 is an example of a received light image while moving a finger, and the received light image P3 is an example of a received light image after moving the finger. Thus, in the received light image data, the position of the contact portion changes with the passage of time, and in the received light image P3, it can be seen that the intervals between the three contact portions 161c, 162c, 163c are separated from the first received light image P1.

図24は、図23に示すような接触部が検出される場合の、受光画像から操作指示を判断する処理の例を示すフローチャートである。本フローチャートを参照して、検出した複数の接触部の移動位置の変化を基に操作者からの指示を判断する処理について説明する。ここでは、予め接触部と操作指示との対応を「3本の指がほぼ円周状に接触し、その円が大きくなるように画面上を移動した場合に、表示画像を拡大する」と「3本の指がほぼ円周状に接触し、その円が小さくなるように画面上を移動した場合に、表示画像を縮小する」とを定義しておく。   FIG. 24 is a flowchart illustrating an example of processing for determining an operation instruction from a received light image when a contact portion as illustrated in FIG. 23 is detected. With reference to this flowchart, a process for determining an instruction from the operator based on the detected change in the movement position of the plurality of contact portions will be described. Here, the correspondence between the contact portion and the operation instruction is preliminarily defined as “the display image is enlarged when the three fingers are in a substantially circumferential contact and moved on the screen so that the circle becomes large” and “ It is defined that “the display image is reduced when three fingers come into contact with each other in a substantially circular shape and moved on the screen so that the circle becomes smaller”.

換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、検出結果保持部21、複合型コマンド認識部25、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図24のフローチャートに示されている。即ち、「3本の指がほぼ円周状に接触し、その円が大きくなるように画面上を移動した場合に、表示画像を拡大する」と「3本の指がほぼ円周状に接触し、その円が小さくなるように画面上を移動した場合に、表示画像を縮小する」という定義がコマンド定義保持部26に保持されており、複合型コマンド認識部25がかかる2つの定義に基づいて、「表示画像を拡大表示させる」または「表示画像を縮小表示させる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図24のフローチャートに示されている。   In other words, among the command recognition / issue unit 17 of FIG. 2 configured as the instruction determination unit 116 in the example of FIG. 3, the detection result holding unit 21, the composite command recognition unit 25, the command definition holding unit 26, and An example of processing when the command issuing unit 27 mainly functions is shown in the flowchart of FIG. That is, “When three fingers touch almost a circle and move on the screen so that the circle is larger, the display image is enlarged.” “Three fingers touch almost a circle. The definition that “the display image is reduced when moving on the screen so that the circle becomes smaller” is held in the command definition holding unit 26, and the composite command recognition unit 25 is based on these two definitions. FIG. 24 is a flowchart showing an example of processing when the command issuing unit 27 recognizes the command “display the display image in an enlarged manner” or “display the display image in a reduced size” and issues the command. .

即ち、「3本の指がほぼ円周状に接触し」た場合という3つのオブジェクト(指)の位置関係に基づく条件と、「その円が大きくなるように画面上を移動した場合」というオブジェクトの時間位置変化に基づく条件との複合条件が、「表示画像を拡大表示させる」という複合型コマンドの条件となっている。同様に、「3本の指がほぼ円周状に接触し」た場合という3つのオブジェクトの位置関係に基づく条件と、「その円が小さくなるように画面上を移動した場合」というオブジェクトの時間位置変化に基づく条件との複合条件が、「表示画像を縮小表示させる」という複合型コマンドの条件となっている。   That is, the condition based on the positional relationship of the three objects (finger) when “three fingers are in contact with a substantially circle” and the object “when moved on the screen so that the circle becomes larger” The combined condition with the condition based on the time position change is a condition of the combined command of “enlarged display of display image”. Similarly, the condition based on the positional relationship of the three objects “when three fingers are almost in contact with a circle” and the time of the object “when moving on the screen so that the circle becomes smaller” The combined condition with the condition based on the position change is the condition of the combined command “display the display image in a reduced size”.

このため、図24の例では、複合型コマンド認識部25が機能する。換言すると、上述したように、複合型コマンド認識部25の機能がコマンド発行部27に委譲されている場合には、位置関係型コマンド認識部23と時間位置変化型コマンド認識部22とが機能することになる。   Therefore, the composite command recognition unit 25 functions in the example of FIG. In other words, as described above, when the function of the composite command recognition unit 25 is delegated to the command issuing unit 27, the positional relationship type command recognition unit 23 and the time position change type command recognition unit 22 function. It will be.

なお、図24でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。   Note that the point in FIG. 24 does not mean one pixel, like the point in FIG. 8, but means one object described above, that is, one connected component in FIG.

本処理において、接触部を検出するための面積の閾値Aを設定する処理(ステップS101)から検出した3点の接触部がほぼ横方向に並んでいるかを判断する処理(ステップS114)までは、上記図22のフローチャートで説明したものと同様である。3点がほぼ横方向に並んでいる場合は別処理へ進む(ステップS119)。   In this process, from the process of setting the threshold value A of the area for detecting the contact part (step S101) to the process of determining whether the three contact parts detected are aligned substantially in the horizontal direction (step S114) This is the same as that described in the flowchart of FIG. If the three points are arranged almost horizontally, the process proceeds to another process (step S119).

なお、ここでいうステップS113の別処理とは、例えば上述した図8のステップS110乃至S112の処理をいう。ただし、かかる処理例を実行するためには、「3本の指が同時に縦方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義がコマンド定義保持部26に保持されている必要がある。   Note that the separate processing in step S113 here refers to, for example, the processing in steps S110 to S112 in FIG. 8 described above. However, in order to execute such a processing example, the command definition holding unit 26 holds a definition that “when three fingers are simultaneously touched in the vertical direction, the display image is scrolled in that direction”. Need to be.

また、ここでいうステップS119の別処理とは、例えば上述した図22のステップS116乃至S118の処理をいう。ただし、かかる処理例を実行するためには、「3本の指が同時に横方向に並んで接触した場合に、表示画像をその方向にスクロールさせる」という定義がコマンド定義保持部26に保持されている必要がある。   Further, the separate processing in step S119 here refers to, for example, the processing in steps S116 to S118 in FIG. 22 described above. However, in order to execute such a processing example, the command definition holding unit 26 holds a definition that “when three fingers are simultaneously touched in the horizontal direction, the display image is scrolled in that direction”. Need to be.

ステップS114の処理でNOであると判定された場合、即ち、3点が横方向に並んでいない場合、更にその3点がほぼ円周状に並んでいるかを判断し(ステップS120)、円周状に並んでいない場合は別処理へ進む(ステップS121)。円周状に並んでいる場合は、各点が移動しているかを判断し(ステップS122)、移動していない場合は処理を終了する。移動している場合は、どのように移動しているかを判断し(ステップS123)、3点が離れる方向に移動している場合は、表示画面を拡大表示する指示とし(ステップS124)、3点が近づく方向に移動している場合は、表示画面を縮小表示する指示とする(ステップS125)。   If it is determined NO in the process of step S114, that is, if the three points are not arranged in the horizontal direction, it is further determined whether the three points are arranged in a substantially circular shape (step S120). If not, the process proceeds to another process (step S121). If they are arranged in a circle, it is determined whether each point has moved (step S122), and if not, the process ends. If it is moving, it is determined how it is moving (step S123). If it is moving in the direction in which the three points are separated, an instruction to enlarge the display screen is given (step S124). Is moving in the direction of approaching, it is instructed to reduce the display screen (step S125).

さらに以下、図25乃至図35を参照して、図24の例の処理のうちの主要な処理の詳細について説明していく。   Further, with reference to FIGS. 25 to 35, details of main processes in the process of the example of FIG. 24 will be described below.

なお、以下の説明では、図24のステップS120までの処理は、図3の画像処理演算部115により実行されるとする。ただし、図24のステップS120までの処理のうちの少なくとも一部を、指示判定部116に実行させるようにしてもよい。   In the following description, it is assumed that the processing up to step S120 in FIG. 24 is executed by the image processing calculation unit 115 in FIG. However, you may make it make the instruction | indication determination part 116 perform at least one part of the processes to FIG.24 S120.

図25は、ステップS108の「3点はほぼ縦に並んでいるか」否かの判定処理の詳細例を説明するフローチャートである。   FIG. 25 is a flowchart for explaining a detailed example of the determination process of “whether the three points are substantially vertically aligned” in step S108.

なお、図24のステップS107の画像処理(位置計算)により、図26に示される結果が得られたとして、以下、説明を行っていく。   The following description will be made assuming that the result shown in FIG. 26 is obtained by the image processing (position calculation) in step S107 of FIG.

ステップS108a乃至S108fまでが、上述した式(3)の不等式を用いる判定処理である。   Steps S108a to S108f are determination processing using the inequality of equation (3) described above.

即ち、ステップS108aにおいて、図3の画像処理演算部115は、角度θvを設定する。この角度θvは、上述したように、3つの連結成分(図24のステップS108でいう3点)がほぼ縦に並んでいるか否かを判定するための条件としての角度であり、通常はコマンド定義保持部26(図2)等に予め保持されている。   That is, in step S108a, the image processing calculation unit 115 in FIG. 3 sets the angle θv. As described above, this angle θv is an angle as a condition for determining whether or not three connected components (three points in step S108 in FIG. 24) are arranged substantially vertically. It is held in advance in the holding unit 26 (FIG. 2) or the like.

ステップS108bにおいて、画像処理演算部115は、3つの連結成分のうちの最小のy座標を持つ重心を選び、それを点Gminとする。例えば図26の例では、点G03が点Gminとなる。   In step S108b, the image processing calculation unit 115 selects the center of gravity having the minimum y coordinate among the three connected components, and sets it as the point Gmin. For example, in the example of FIG. 26, the point G03 becomes the point Gmin.

ステップS108cにおいて、画像処理演算部115は、3つの連結成分のうちの最大のy座標を持つ重心を選び、それを点Gmaxとする。例えば図26の例では、点G01が点Gmaxとなる。   In step S108c, the image processing calculation unit 115 selects the center of gravity having the maximum y coordinate among the three connected components, and sets it as a point Gmax. For example, in the example of FIG. 26, the point G01 becomes the point Gmax.

ステップS108dにおいて、画像処理演算部115は、3つの連結成分のうちの残りの重心を点Gauxとする。例えば図26の例では、点G02が点Gauxとなる。   In step S108d, the image processing calculation unit 115 sets the remaining centroid of the three connected components as the point Gaux. For example, in the example of FIG. 26, the point G02 becomes the point Gaux.

ステップS108eにおいて、画像処理演算部115は、点Gmaxと点Gminが作る角度θsを求める。例えば図26の例では、点G01と点G03とが作る角度θsが求まる。   In step S108e, the image processing calculation unit 115 obtains an angle θs formed by the points Gmax and Gmin. For example, in the example of FIG. 26, the angle θs formed by the points G01 and G03 is obtained.

ステップS108fにおいて、画像処理演算部115は、90-θv < θs かつ θs< 90+θv か否かを判定する。   In step S108f, the image processing calculation unit 115 determines whether 90−θv <θs and θs <90 + θv.

即ち、ステップS108fの判定処理とは、上述した不等式(3)を満たすか否かの処理である。   That is, the determination process in step S108f is a process for determining whether or not the above inequality (3) is satisfied.

ステップS108fの処理でNOであると判定された場合、3点(3つの連結成分)はほぼ縦に並んでいないと判定され、即ち、ステップS108の判定処理としてNOであると最終判定され、処理は図24のステップS114に進む。   If it is determined as NO in the process of step S108f, it is determined that the three points (three connected components) are not arranged substantially vertically, that is, it is finally determined as NO as the determination process in step S108, and the process Advances to step S114 in FIG.

これに対して、ステップS108fの処理でYESであると判定された場合、ステップS108g乃至S108jがさらに実行される。即ち、ステップS108g乃至S108jまでが、上述した式(6)の不等式を用いる判定処理である。換言すると、ステップS108g乃至S108jまでの判定処理とは、3点の並び方に注目した場合の判定処理である。   On the other hand, if it is determined YES in step S108f, steps S108g to S108j are further executed. That is, steps S108g to S108j are determination processing using the inequality of equation (6) described above. In other words, the determination processing from steps S108g to S108j is determination processing when attention is paid to the arrangement of three points.

ステップS108gにおいて、画像処理演算部115は、点Gmaxと点Gminの中点Gmidを求める。例えば図26の例では、点G01と点G03との中点Gmid0103が、中点Gmidとして求められる。   In step S108g, the image processing calculation unit 115 obtains a midpoint Gmid between the point Gmax and the point Gmin. For example, in the example of FIG. 26, the midpoint Gmid0103 between the points G01 and G03 is obtained as the midpoint Gmid.

ステップS108hにおいて、画像処理演算部115は、点Gmidと点Gaux(図26の例ではG02)との距離"Gmid-Gaux"を求める。また、ステップS108iにおいて、画像処理演算部115は、点Gmaxと点Gminとの距離"Gmax-Gmin"を求める。   In step S108h, the image processing calculation unit 115 obtains a distance “Gmid-Gaux” between the point Gmid and the point Gaux (G02 in the example of FIG. 26). In step S108i, the image processing calculation unit 115 obtains a distance “Gmax−Gmin” between the point Gmax and the point Gmin.

ステップS108jにおいて、画像処理演算部115は、"Gmid-Gaux" < "Gmax-Gmin"/2であるか否かを判定する。なお、図26の例の場合、即ち、GmaxがG01であり、GminがG03であり、GauxがG02である場合には、"Gmid-Gaux" < "Gmax-Gmin"/2とは、上述した不等式式(6)になる。即ち、この場合、ステップS108jの判定処理とは、不等式(6)を満たすか否かの判定処理となる。   In step S108j, the image processing calculation unit 115 determines whether or not “Gmid-Gaux” <“Gmax-Gmin” / 2. In the case of the example of FIG. 26, that is, when Gmax is G01, Gmin is G03, and Gaux is G02, “Gmid-Gaux” <“Gmax-Gmin” / 2 is described above. The inequality equation (6) is obtained. That is, in this case, the determination process in step S108j is a determination process as to whether or not inequality (6) is satisfied.

換言すると、ステップS108jの判定処理とは、距離"Gmid-Gaux"が、距離"Gmax-Gmin"の距離の半分よりも短いか否かの判定処理である。距離"Gmid-Gaux"が、距離"Gmax-Gmin"の距離の半分よりも短いとは、距離"Gmid-Gaux"(図26の例では"Gmid-G02")が、距離"Gmax-Gmid"(図26の例では"G01-Gmid0103")よりも短い、或いは、距離"Gmin-Gmid"(図26の例では"G03-Gmid0103")よりも短いことを意味する。   In other words, the determination process of step S108j is a determination process of whether or not the distance “Gmid-Gaux” is shorter than half of the distance “Gmax-Gmin”. The distance “Gmid-Gaux” is shorter than half of the distance “Gmax-Gmin”. The distance “Gmid-Gaux” (“Gmid-G02” in the example of FIG. 26) is the distance “Gmax-Gmid”. ("G01-Gmid0103" in the example of FIG. 26) or shorter than the distance "Gmin-Gmid" ("G03-Gmid0103" in the example of FIG. 26).

従って、距離"Gmid-Gaux"(図26の例では"Gmid-G02")が、距離"Gmax-Gmid"(図26の例では"G01-Gmid0103")よりも短い、或いは、距離"Gmin-Gmid"(図26の例では"G03-Gmid0103")よりも短い場合には、ステップS108jの処理でYESであると判定され、その結果、3点(3つの連結成分)はほぼ縦に並んでいると判定され、即ち、ステップS108の判定処理としてYESであると最終判定され、処理は図24のステップS113に進む。   Accordingly, the distance “Gmid-Gaux” (“Gmid-G02” in the example of FIG. 26) is shorter than the distance “Gmax-Gmid” (“G01-Gmid0103” in the example of FIG. 26) or the distance “Gmin-Gaux”. If it is shorter than “Gmid” (“G03-Gmid0103” in the example of FIG. 26), it is determined YES in the process of step S108j, and as a result, the three points (three connected components) are arranged substantially vertically. That is, it is finally determined that the determination process in step S108 is YES, and the process proceeds to step S113 in FIG.

これに対して、ステップS108jの処理でNOであると判定された場合、3点(3つの連結成分)はほぼ縦に並んでいないと判定され、即ち、ステップS108の判定処理としてNOであると最終判定され、処理は図24のステップS114に進む。   On the other hand, if it is determined as NO in the process of step S108j, it is determined that the three points (three connected components) are not aligned substantially vertically, that is, the determination process of step S108 is NO. The final determination is made, and the process proceeds to step S114 in FIG.

このように、図25の例では、ステップS108a乃至S108fまでの判定処理だけでなく、即ち、上述した式(3)の不等式を用いる判定処理だけでなく、ステップS108g乃至S108jまでの判定処理、上述した式(6)の不等式を用いる判定処理まで実行される。かかる理由は、上述した式(3)の不等式を用いる判定処理だけでは、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理まで行き着かない場合があるからである。   In this way, in the example of FIG. 25, not only the determination processing from steps S108a to S108f, that is, not only the determination processing using the inequality of equation (3) described above, but also the determination processing from steps S108g to S108j, The determination processing using the inequality of the equation (6) is executed. The reason for this is that the determination process using the inequality of expression (3) described above may not lead to the determination process of “whether the three points are substantially circumferential” in step S120 of FIG. Because.

具体的には例えば、図24のステップS107の画像処理(位置計算)により、図26ではなく、図27に示される結果が得られたとする。この場合、図27に示されるように、角度θsは、重心G2'と重心G3'とが作る角度となるため、ステップS108a乃至S108fまでの判定処理だけでは、即ち、上述した式(3)の不等式を用いる判定処理だけでは、3点(3つの連結成分)はほぼ縦に並んでいると判定されることになる。しかしながら、図27に示される位置関係の場合には、「3点はほぼ縦に並んでいると」とは判定せずに、「3点はほぼ円周状に並んでいる」と判定する方が好適であることが多い。そこで、図25の例では、上述した式(6)の不等式を用いる判定処理をさらに付加することで、「3点はほぼ縦に並んでいると」という条件を厳しくしているのである。ただし、図27に示される位置関係を持って「3点はほぼ縦に並んでいる」と判断する様なルールを意識的に決めることに問題があるわけではない。   Specifically, for example, it is assumed that the result shown in FIG. 27 instead of FIG. 26 is obtained by the image processing (position calculation) in step S107 of FIG. In this case, as shown in FIG. 27, since the angle θs is an angle formed by the centroid G2 ′ and the centroid G3 ′, only the determination processing from steps S108a to S108f, that is, the above-described equation (3). Only with the determination process using the inequality, it is determined that the three points (three connected components) are arranged substantially vertically. However, in the case of the positional relationship shown in FIG. 27, it is not determined that “the three points are arranged substantially vertically”, but “the three points are arranged substantially circumferentially”. Is often preferred. Therefore, in the example of FIG. 25, the condition that “the three points are almost vertically aligned” is made stricter by further adding a determination process using the inequality of the above-described equation (6). However, there is no problem in consciously determining a rule that determines that “the three points are almost vertically aligned” with the positional relationship shown in FIG.

以上、図24のステップS108の「3点はほぼ縦に並んでいるか」否かの判定処理の詳細について説明した。   The details of the determination process of whether or not “the three points are substantially vertically aligned” in step S108 of FIG. 24 have been described above.

以下、図24のステップS114の「3点はほぼ横に並んでいるか」否かの判定処理の詳細について、図28に示される場合を例として説明する。即ち、図24のステップS107の画像処理(位置計算)により、図28に示される結果が得られ、その結果、図24のステップS108の処理でNOであると判定されて、ステップS114に進んだ場合を例として、以下、説明を行っていく。   In the following, details of the determination process of “whether the three points are substantially side by side” in step S114 of FIG. 24 will be described using the case shown in FIG. 28 as an example. That is, the result shown in FIG. 28 is obtained by the image processing (position calculation) in step S107 in FIG. 24. As a result, it is determined NO in step S108 in FIG. 24, and the process proceeds to step S114. The case will be described below as an example.

なお、「3点はほぼ横に並んでいるか」否かの判定処理は、基本的に、「3点はほぼ縦に並んでいるか」否かの判定処理と同様の処理となる。そこで、以下、上述した処理に対応する処理については、適宜説明を省略する。   Note that the determination process for determining whether or not “three points are substantially aligned” is basically the same process as the determination process for determining whether or not “three points are approximately aligned”. Therefore, description of processes corresponding to the processes described above will be omitted as appropriate.

図29は、ステップS114の「3点はほぼ横に並んでいるか」否かの判定処理の詳細例を説明するフローチャートである。   FIG. 29 is a flowchart for explaining a detailed example of the determination processing of “whether the three points are substantially side by side” in step S114.

ステップS114a乃至S114fまでの処理が、図25のステップS108a乃至S108fまでの処理に対応する。   The processing from step S114a to S114f corresponds to the processing from step S108a to S108f in FIG.

即ち、ステップS114aにおいて、図3の画像処理演算部115は、角度θhを設定する。この角度θhは、角度θvと同様に、3つの連結成分(図24のステップS114でいう3点)がほぼ横に並んでいるか否かを判定するための条件としての角度であり、通常はコマンド定義保持部26(図2)等に予め保持されている。   That is, in step S114a, the image processing calculation unit 115 in FIG. 3 sets the angle θh. Like the angle θv, this angle θh is an angle as a condition for determining whether or not three connected components (three points in step S114 in FIG. 24) are arranged substantially horizontally. It is held in advance in the definition holding unit 26 (FIG. 2).

ステップS114bにおいて、画像処理演算部115は、3つの連結成分のうちの最小のx座標を持つ重心を選び、それを点Gminとする。即ち、図28の例でいえば、点G13が点Gminとなる。   In step S114b, the image processing calculation unit 115 selects the center of gravity having the minimum x coordinate among the three connected components, and sets it as the point Gmin. That is, in the example of FIG. 28, the point G13 becomes the point Gmin.

ステップS114cにおいて、画像処理演算部115は、3つの連結成分のうちの最大のx座標を持つ重心を選び、それを点Gmaxとする。即ち、図28の例でいえば、点G11が点Gmaxとなる。   In step S114c, the image processing calculation unit 115 selects the center of gravity having the maximum x coordinate among the three connected components, and sets it as the point Gmax. That is, in the example of FIG. 28, the point G11 becomes the point Gmax.

ステップS114dにおいて、画像処理演算部115は、3つの連結成分のうちの残りの重心を点Gauxとする。即ち、図28の例でいえば、点G12が点Gauxとなる。   In step S114d, the image processing calculation unit 115 sets the remaining centroid of the three connected components as a point Gaux. That is, in the example of FIG. 28, the point G12 becomes the point Gaux.

ステップS114eにおいて、画像処理演算部115は、点Gmaxと点Gminが作る角度θs(図28参照)を求める。   In step S114e, the image processing calculation unit 115 obtains an angle θs (see FIG. 28) formed by the points Gmax and Gmin.

ステップS114fにおいて、画像処理演算部115は、-θh < θs かつ θs< θh か否かを判定する。   In step S114f, the image processing calculation unit 115 determines whether -θh <θs and θs <θh.

ステップS114fの処理でNOであると判定された場合、3点(3つの連結成分)はほぼ横に並んでいないと判定され、即ち、ステップS114の判定処理としてNOであると最終判定され、処理は図24のステップS120に進む。   If it is determined NO in the process of step S114f, it is determined that the three points (three connected components) are not substantially aligned side by side, that is, the determination is NO as the determination process of step S114, and the process Advances to step S120 in FIG.

これに対して、ステップS114fの処理でYESであると判定された場合、ステップS114g乃至S114jがさらに実行される。即ち、ステップS114g乃至S114jまでの処理が、上述した図25のステップS108g乃至S108jまでの処理に対応する。換言すると、ステップS114g乃至S114jまでの判定処理とは、3点の並び方に注目した場合の判定処理である。   On the other hand, if it is determined YES in the process of step S114f, steps S114g to S114j are further executed. That is, the processing from step S114g to S114j corresponds to the processing from step S108g to S108j in FIG. In other words, the determination process from step S114g to S114j is a determination process when attention is paid to the arrangement of three points.

ステップS114gにおいて、画像処理演算部115は、点Gmaxと点Gminの中点Gmidを求める。例えば図28の例では、点G11と点G13との中点Gmid0103が、中点Gmidとして求められる。   In step S114g, the image processing calculation unit 115 obtains a midpoint Gmid between the point Gmax and the point Gmin. For example, in the example of FIG. 28, the midpoint Gmid0103 between the points G11 and G13 is obtained as the midpoint Gmid.

ステップS114hにおいて、画像処理演算部115は、点Gmidと点Gaux(図28の例ではG12)との距離"Gmid-Gaux"を求める。また、ステップS114iにおいて、画像処理演算部115は、点Gmaxと点Gminとの距離"Gmax-Gmin"を求める。   In step S114h, the image processing calculation unit 115 obtains a distance “Gmid-Gaux” between the point Gmid and the point Gaux (G12 in the example of FIG. 28). In step S114i, the image processing calculation unit 115 obtains a distance “Gmax−Gmin” between the point Gmax and the point Gmin.

ステップS114jにおいて、画像処理演算部115は、"Gmid-Gaux" < "Gmax-Gmin"/2であるか否かを判定する。   In step S114j, the image processing calculation unit 115 determines whether or not “Gmid-Gaux” <“Gmax-Gmin” / 2.

ステップS114jの処理でYESであると判定された場合、3点(3つの連結成分)はほぼ横に並んでいると判定され、即ち、ステップS114の判定処理としてYESであると最終判定され、処理は図24のステップS119に進む。   If it is determined as YES in the process of step S114j, it is determined that the three points (three connected components) are substantially aligned side by side, that is, the determination is YES as the determination process in step S114, and the process Advances to step S119 in FIG.

これに対して、ステップS114jの処理でNOであると判定された場合、3点(3つの連結成分)はほぼ横に並んでいないと判定され、即ち、ステップS114の判定処理としてNOであると最終判定され、処理は図24のステップS120に進む。   On the other hand, when it is determined NO in the process of step S114j, it is determined that the three points (three connected components) are not substantially aligned side by side, that is, the determination process of step S114 is NO. The final determination is made, and the process proceeds to step S120 in FIG.

このように、図29の例では、ステップS114a乃至S114fまでの判定処理だけでなく、ステップS114g乃至S114jまでの判定処理まで実行される。かかる理由は、ステップS114a乃至S114fまでの判定処理だけでは、即ち角度θsを用いる判定処理だけでは、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理まで行き着かない場合があるからである。このことについては、図27を参照して上述した通りである。   As described above, in the example of FIG. 29, not only the determination processing from steps S114a to S114f but also the determination processing from steps S114g to S114j are executed. The reason is that only the determination process from steps S114a to S114f, that is, only the determination process using the angle θs, determines whether or not “three points are arranged substantially in a circle” in step S120 of FIG. This is because there is a case where it does not reach the end. This is as described above with reference to FIG.

以上、図24のステップS114の「3点はほぼ横に並んでいるか」否かの判定処理の詳細について説明した。   As above, the details of the determination process of whether or not “three points are arranged substantially horizontally” in step S114 of FIG. 24 have been described.

以下、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理の詳細について説明する。   Hereinafter, the details of the determination process of “whether the three points are arranged substantially in a circle” in step S120 of FIG. 24 will be described.

上述したように、図24の例では、ステップS108の処理で「3点はほぼ縦に並んでいるか」否かが判定され、さらに、ステップS114の処理で「3点はほぼ横に並んでいるか」否かが判定される。即ち、図24の例では、「縦又は横」かつ「並んでいる」という条件が設定されている。従って、それ以外の3点(3つの連結成分)の配置は全て「ほぼ円周状に並んでいる」と判定するようにしてもよい。この場合、ステップS108の処理で3点はほぼ縦に並んでいないと判定されて、さらに、ステップS114の処理で3点はほぼ横に並んでいないと判定された後に、ステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理が実行されるので、ステップS120の処理では常にYESと判定されることになる。   As described above, in the example of FIG. 24, it is determined whether or not “3 points are substantially vertically aligned” in the process of step S108, and further, “3 points are approximately horizontally aligned” in the process of step S114. Is determined. That is, in the example of FIG. 24, the conditions “vertical or horizontal” and “lined up” are set. Therefore, all the other three points (three connected components) may be determined as “almost circumferentially arranged”. In this case, it is determined in the process of step S108 that the three points are not substantially aligned vertically, and further, in the process of step S114, it is determined that the three points are not substantially aligned in the horizontal direction. Since the determination process of whether or not “they are arranged in a substantially circumferential shape” is executed, it is always determined as YES in the process of step S120.

ただし、この場合、図24のステップS107の画像処理(位置計算)により図30に示される結果が得られたときにも、即ち、3つの連結成分の重心(ステップS120等でいう3点)の配置が図30に示されるように、「縦でも横でもない」が比較的「並んでいる」配置であったときにも、「ほぼ円周状に並んでいる」と判定されてしまうことになる。   However, in this case, when the result shown in FIG. 30 is obtained by the image processing (position calculation) in step S107 in FIG. 24, that is, the centroids of the three connected components (three points in step S120). As shown in FIG. 30, even when “not vertical or horizontal” is a relatively “aligned” arrangement, it is determined that “almost circumferentially aligned”. Become.

そこで、このような「縦でも横でもない」が比較的「並んでいる」配置を、「ほぼ円周状に並んでいる」配置から除外すべく、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判断処理として、例えば図31に示されるような処理を採用することができる。   Therefore, in order to exclude the arrangement in which “not vertical or horizontal” is relatively “aligned” from the “almost circumferentially aligned” arrangement, “3 points in step S120 of FIG. For example, a process as shown in FIG. 31 can be adopted as a process for determining whether or not they are arranged in a circle.

即ち、図31は、ステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理の詳細例を説明するフローチャートである。   That is, FIG. 31 is a flowchart for explaining a detailed example of the determination process of “whether the three points are arranged substantially in a circle” in step S120.

図24のステップS107の画像処理(位置計算)により、図32に示される結果が得られたとして、以下、説明を行っていく。   The following description will be given assuming that the result shown in FIG. 32 is obtained by the image processing (position calculation) in step S107 of FIG.

ステップS120aにおいて、図3の画像処理演算部115は、3つの連結成分(ステップS120等でいう3点)の各重心間の距離を求める。   In step S120a, the image processing calculation unit 115 in FIG. 3 obtains the distance between the centroids of the three connected components (three points in step S120).

ここで、3つの連結成分の各重心を、図32に示されるように、点G31,G32,G33のそれぞれと称するとすると、点G31-点G32間の距離、点G32-点G33間の距離、および点G33-点G31間の距離が求められる。   Here, assuming that the centers of gravity of the three connected components are referred to as points G31, G32, and G33, as shown in FIG. 32, the distance between point G31 and point G32, and the distance between point G32 and point G33. , And the distance between point G33 and point G31.

ステップS120bにおいて、画像処理演算部115は、最長の距離を作る2つの重心を点Ga,Gbとして、この中点を点Gmidとする。また、ステップS120cにおいて、画像処理演算部115は、残りの重心を点Gauxとする。例えば図32の例では、点G31が点Gaとなり、点G32が点Gbとなり、点Gmid3132が中点Gmidとなり、点G33が点Gauxとなる。   In step S120b, the image processing calculation unit 115 sets two centroids that make the longest distance as points Ga and Gb, and sets the middle point as a point Gmid. In step S120c, the image processing calculation unit 115 sets the remaining center of gravity as the point Gaux. For example, in the example of FIG. 32, the point G31 becomes the point Ga, the point G32 becomes the point Gb, the point Gmid3132 becomes the middle point Gmid, and the point G33 becomes the point Gaux.

ステップS120dにおいて、画像処理演算部115は、点Gmidと点Gauxとの距離"Gmid-Gaux"を求める。また、ステップS120eにおいて、画像処理演算部115は、点Gaと点Gbとの距離"Ga-Gb"を求める。   In step S120d, the image processing calculation unit 115 obtains a distance “Gmid-Gaux” between the point Gmid and the point Gaux. In step S120e, the image processing calculation unit 115 obtains a distance “Ga−Gb” between the point Ga and the point Gb.

ステップS120fにおいて、画像処理演算部115は、"Gmid-Gaux" > "Ga-Gb"/2であるか否かを判定する。   In step S120f, the image processing calculation unit 115 determines whether or not “Gmid-Gaux”> “Ga-Gb” / 2.

距離"Gmid-Gaux"が距離"Ga-Gb"の半分よりも長い場合、ステップS120fの処理でYESであると判定され、その結果、3点(3つの連結成分)はほぼ円周状に並んでいると判定され、即ち、ステップS120の判定処理としてYESであると最終判定され、処理は図24のステップS122に進む。   When the distance “Gmid-Gaux” is longer than half of the distance “Ga-Gb”, it is determined as YES in the process of step S120f, and as a result, the three points (three connected components) are arranged approximately in a circle. That is, it is finally determined that the determination process in step S120 is YES, and the process proceeds to step S122 in FIG.

これに対して、距離"Gmid-Gaux"が距離"Ga-Gb"の半分以下の場合、ステップS120fの処理でNOであると判定され、その結果、3点(3つの連結成分)はほぼ円周状に並んでいないと判定され、即ち、ステップS120の判定処理としてNOであると最終判定され、処理は図24のステップS121に進む。   On the other hand, when the distance “Gmid-Gaux” is less than or equal to half of the distance “Ga-Gb”, it is determined as NO in the process of step S120f, and as a result, three points (three connected components) are almost circles. It is determined that they are not arranged in a circle, that is, it is finally determined as NO as the determination process in step S120, and the process proceeds to step S121 in FIG.

以上、図24のステップS120の「3点はほぼ円周状に並んでいるか」否かの判定処理の詳細について説明した。   The details of the determination process of “whether the three points are arranged substantially circumferentially” in step S120 of FIG. 24 have been described above.

以下、図24のステップS122の「各点は移動しているか」否かの判定処理の詳細について説明する。   Hereinafter, the details of the determination process of “whether each point is moving” in step S122 of FIG. 24 will be described.

図3の受光画像生成部114からは、即ち、図2の受光画像生成部15からは、複数の受光画像データ(フィールドデータまたはフレームデータ)が時間的に連続して順次出力される。この場合、図24の例の処理は、受光画像データを単位として、それぞれの受光画像データに対して実行される。そこで、以下、図24の例の処理の対象として注目すべき受光画像データを、注目受光画像データと称するとする。   A plurality of received light image data (field data or frame data) are sequentially and sequentially output from the received light image generation unit 114 in FIG. 3, that is, from the received light image generation unit 15 in FIG. In this case, the process in the example of FIG. 24 is executed for each received light image data in units of received light image data. Therefore, hereinafter, the received light image data to be noticed as an object of the processing in the example of FIG. 24 is referred to as noticed received light image data.

この場合、注目受光画像データの1つ前の受光画像データに対して図24の例の処理(例えばステップS107の処理等)が施されて得られた座標の情報(上述したオブジェクト情報のひとつ)は、上述したように、図2の検出結果保持部21に保持されている。   In this case, coordinate information (one of the above-described object information) obtained by performing the process of the example of FIG. 24 (for example, the process of step S107) on the received light image data immediately before the focused received light image data. Is held in the detection result holding unit 21 of FIG. 2 as described above.

一方、注目受光画像データに対して図24の例の処理(例えばステップS107の処理等)が施されて得られた座標の情報(上述したオブジェクト情報のひとつ)は、図2のオブジェクト検出部16から出力されてコマンド認識/発行部17に提供される。   On the other hand, coordinate information (one of the above-described object information) obtained by performing the process of the example of FIG. 24 (for example, the process of step S107) on the received light image data is the object detection unit 16 of FIG. Is provided to the command recognition / issuer 17.

この場合、図2の時間位置変化型コマンド認識部22または複合型コマンド認識部25は、即ち、図3の指示判定部116は、これらの座標の情報を比較することで、図24のステップS122の「各点は移動しているか」否かを判定する。   In this case, the time position change type command recognition unit 22 or the composite type command recognition unit 25 of FIG. 2, that is, the instruction determination unit 116 of FIG. 3 compares the information of these coordinates, thereby performing step S122 of FIG. Whether each point is moving or not is determined.

なお、以下、説明の簡略上、ステップS122以降の処理の動作主体は、時間位置変化型コマンド認識部22であるとして説明していく。   In the following description, for the sake of brevity, it is assumed that the operation subject of the processing after step S122 is the time position change command recognition unit 22.

また、以下の説明では、上述した図32に示される位置関係の重心G31,G32,G33に関する情報が、注目受光画像データの1つ前の受光画像データのオブジェクト情報(以下、直前オブジェクト情報と称する)として、図2の検出結果保持部21に保持されているとする。そして、図33に示される位置関係の重心G41,G42,G43に関する情報が、注目受光画像データのオブジェクト情報(以下、注目オブジェクト情報と称する)として、図2のオブジェクト検出部16から時間位置変化型コマンド認識部22に提供されてきたとする。   Further, in the following description, the information on the gravity centers G31, G32, and G33 in the positional relationship shown in FIG. 32 described above is the object information (hereinafter referred to as the immediately preceding object information) of the received light image data immediately before the focused received light image data. ) Is held in the detection result holding unit 21 of FIG. Then, information on the center of gravity G41, G42, and G43 in the positional relationship shown in FIG. 33 is obtained from the object detection unit 16 in FIG. It is assumed that the command recognition unit 22 has been provided.

この場合、注目オブジェクト情報と直前オブジェクト情報との位置関係は、図34に示されるようになる。なお、以下、重心G41,G42,G43を注目重心G41,G42,G43と称し、重心G31,G32,G33を直前重心G31,G32,G33と称する。   In this case, the positional relationship between the target object information and the immediately preceding object information is as shown in FIG. Hereinafter, the centroids G41, G42, and G43 are referred to as attention centroids G41, G42, and G43, and the centroids G31, G32, and G33 are referred to as immediately preceding centroids G31, G32, and G33.

即ち、図2の時間位置変化型コマンド認識部22は、図34の情報を参照することで、図24のステップS122の「各点は移動しているか」否かを判定することができる。   That is, the time position change command recognition unit 22 in FIG. 2 can determine whether or not “each point is moving” in step S122 in FIG. 24 by referring to the information in FIG.

具体的には例えば、時間位置変化型コマンド認識部22は、先ず、各注目重心G41,G42,G43のそれぞれは、直前重心G31,G32,G33のうちの何れに対応するのか、即ち、何れの直前重心が移動変化したものであるのかを判別し、その判別結果に基づいて、各注目重心G41,G42,G43のそれぞれについての移動方向と移動距離(移動ベクトル)を求める。   Specifically, for example, the time position change type command recognition unit 22 first determines which of the respective center of gravity G41, G42, and G43 corresponds to one of the immediately preceding centers of gravity G31, G32, and G33. It is determined whether or not the immediately preceding center of gravity is a moving change, and based on the determination result, the moving direction and the moving distance (movement vector) for each of the attention centers of gravity G41, G42, and G43 are obtained.

この判別手法自体は、特に限定されないが、ここでは、次のような座標からの距離で判別する手法が採用されているとする。即ち、注目重心の座標に最も近い座標の直前重心が、対応する重心である、という手法が採用されているとする。   Although the determination method itself is not particularly limited, it is assumed here that a method for determining based on the distance from the coordinates is adopted. That is, it is assumed that a technique is adopted in which the immediately preceding centroid of the coordinate closest to the coordinate of the focused centroid is the corresponding centroid.

この場合、図34の例では、注目重心G43と、それに最も近い直前重心G33とが対応する、即ち、直前重心G33の座標から、注目重心G43の座標に移動変化したと判別される。これにより、注目重心G43についての移動方向と移動距離(移動ベクトル)が求められる。同様に、注目重心G42と、それに最も近い直前重心G32とが対応する、即ち、直前重心G32の座標から、注目重心G42の座標に移動変化したと判別される。これにより、注目重心G42についての移動方向と移動距離(移動ベクトル)が求められる。また、注目重心G41と、それに最も近い直前重心G31とが対応する、即ち、直前重心G31の座標から、注目重心G41の座標に移動変化したと判別される。これにより、注目重心G41についての移動方向と移動距離(移動ベクトル)が求められる。   In this case, in the example of FIG. 34, it is determined that the target gravity center G43 and the nearest previous gravity center G33 correspond to each other, that is, it has been moved and changed from the coordinate of the previous gravity center G33 to the coordinate of the attention gravity center G43. Thereby, the movement direction and movement distance (movement vector) about the center of gravity G43 are obtained. Similarly, it is determined that the center of gravity G42 of interest corresponds to the nearest center of gravity G32 closest thereto, that is, the coordinate of the center of gravity G32 immediately before is moved and changed to the coordinate of the center of gravity G42 of interest. Thereby, the movement direction and movement distance (movement vector) about the center of gravity G42 are obtained. Further, it is determined that the center of gravity G41 and the nearest previous center of gravity G31 correspond to each other, that is, the coordinate of the immediately preceding center of gravity G31 has moved and changed to the coordinate of the center of gravity G41. Thereby, the movement direction and movement distance (movement vector) about the center of gravity G41 are obtained.

そして、時間位置変化型コマンド認識部22は、各注目重心G41,G42,G43のそれぞれについての移動距離が、予め定められた閾値を超えている場合、図24のステップS122の処理で各点は移動していると判定して、処理をステップS123に進め、それ以外の場合、ステップS122の処理で各点は移動していないと判定して、図24の処理を終了させる。なお、その際、各点が移動していることの判定条件としては、各注目重心G41,G42,G43のそれぞれについての移動距離のうちの少なくとも1つが閾値を超えていることを条件としてもよいし、各注目重心G41,G42,G43のそれぞれについての移動距離のうちの2つ以上が閾値を超えていることを条件としてもよいし、或いは、各注目重心G41,G42,G43のそれぞれについての移動距離の全てが閾値を超えていることを条件としてもよい。   Then, when the movement distance for each of the attention centers of gravity G41, G42, and G43 exceeds a predetermined threshold value, the time position change type command recognition unit 22 determines each point in the process of step S122 of FIG. If it is determined that the point has moved, the process proceeds to step S123. Otherwise, it is determined in step S122 that each point has not moved, and the process in FIG. 24 is terminated. In this case, the determination condition that each point is moving may be a condition that at least one of the moving distances for each of the focused gravity centers G41, G42, and G43 exceeds a threshold value. However, two or more of the moving distances for each of the focused centroids G41, G42, and G43 may be set as a condition, or alternatively, for each of the focused centroids G41, G42, and G43, It is good also as a condition that all the movement distances have exceeded the threshold value.

処理がステップS123に進んだ場合には、時間位置変化型コマンド認識部22は、さらに、どのように移動しているのかを判断することになる。   When the process proceeds to step S123, the time position change type command recognition unit 22 further determines how it is moving.

この判断手法自体も、特に限定されず、例えば、上述したように各注目重心G41,G42,G43のそれぞれについての移動ベクトル(移動方向と移動距離)が判るので、これらを用いて判断する手法を採用することもできる。   The determination method itself is not particularly limited. For example, as described above, the movement vector (movement direction and movement distance) for each of the attention gravity centers G41, G42, and G43 is known. It can also be adopted.

また例えば、図35に示されるように、各直前重心G31,G32,G33を頂点とする三角形(以下、直前三角形と称する)の面積と、各注目重心G41,G42,G43を頂点とする三角形(以下、注目三角形と称する)の面積とを比較することで、どのように移動しているのかを判断する、という手法を採用することができる。かかる手法が採用された場合、注目三角形の面積が直前三角形の面積よりも一定以上大きいとき(図35参照)には、図24のステップS123の処理で「拡大」方向に移動していると判定されて、処理はステップS124に進むことになる。これに対して、注目三角形の面積が直前三角形の面積よりも一定以上小さいいときには、図24のステップS123の処理で「縮小」方向に移動していると判定されて、処理はステップS125に進むことになる。   Also, for example, as shown in FIG. 35, the area of a triangle (hereinafter referred to as the immediately preceding triangle) having the respective centroids G31, G32, and G33 as vertices, and the triangle ( In the following, it is possible to adopt a method of determining how the object moves by comparing the area with the triangle of interest. When such a method is employed, when the area of the target triangle is larger than the area of the immediately preceding triangle by a certain amount (see FIG. 35), it is determined that the target triangle is moving in the “enlargement” direction in step S123 of FIG. Then, the process proceeds to step S124. On the other hand, when the area of the target triangle is smaller than the area of the previous triangle by a certain amount or more, it is determined in the process of step S123 in FIG. 24 that the area is moving in the “reduction” direction, and the process proceeds to step S125. It will be.

以上、図25乃至図35を参照して、図24の例の処理のうちの主要な処理の詳細について説明した。   The details of the main processing in the processing of the example of FIG. 24 have been described above with reference to FIGS. 25 to 35.

このような図24の例の処理が実行される場合には、例えば、上述した図23の上部に示したように、操作者が指f1、f2、f3の3本で表示画面に触れ、指と指との間隔を離していくように移動させたときには、図23の下部に示したような受光画像が得られ、検出された3つの接触部が離れる方向に移動しているため、図36に示すような操作後画面例のように、画面を拡大表示する。   24 is executed, for example, as shown in the upper part of FIG. 23 described above, the operator touches the display screen with three fingers f1, f2, and f3, and the finger When the distance between the finger and the finger is moved away from each other, a light reception image as shown in the lower part of FIG. 23 is obtained, and the three detected contact portions are moved away from each other. As shown in the example of the post-operation screen as shown in FIG.

ここまでは、表示画像の表示状態を変化させる例について説明したが、表示装置の表示エリアを指やペン等で触れることによって、様々なアプリケーション処理を行うことも可能である。次に、表示エリアに表示した文章の編集を行う処理の例について、図37、図38、図39を参照して説明する。本例では、図37の上部に示したように、表示エリア121に文字列などの文書データを表示し、その文書データに対する操作を行う場合を示している。ここでは、画面に表示された文章の一部を操作者が指f1、f2の2本で挟むように触れている。このとき、図37の下部に示したような受光画像が得られ、2つの接触部171、172が検出される。   Up to this point, the example of changing the display state of the display image has been described. However, various application processes can be performed by touching the display area of the display device with a finger, a pen, or the like. Next, an example of processing for editing the text displayed in the display area will be described with reference to FIGS. 37, 38, and 39. FIG. In this example, as shown in the upper part of FIG. 37, document data such as a character string is displayed in the display area 121 and an operation is performed on the document data. Here, the operator touches a part of the sentence displayed on the screen so as to be sandwiched between two fingers f1 and f2. At this time, a received light image as shown in the lower part of FIG. 37 is obtained, and the two contact portions 171 and 172 are detected.

図38は、図37に示すような接触部が検出される場合の、受光画像から操作指示を判断する処理の例を示すフローチャートである。本フローチャートを参照して、検出した複数の接触部の大きさを基に操作者からの指示を判断する処理について説明する。ここでは、予め接触部と操作指示との対応を「表示データが文書データの場合、文字列の両端を2本の指で同時に接触した場合に、当該文字列を選択する」と定義しておく。   FIG. 38 is a flowchart illustrating an example of processing for determining an operation instruction from a received light image when a contact portion as illustrated in FIG. 37 is detected. With reference to this flowchart, a process for determining an instruction from the operator based on the detected sizes of the plurality of contact portions will be described. Here, the correspondence between the contact portion and the operation instruction is defined in advance as “if the display data is document data, the character string is selected when both ends of the character string are touched simultaneously with two fingers”. .

換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、位置関係型コマンド認識部23、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図38のフローチャートに示されている。即ち、「表示データが文書データの場合、文字列の両端を2本の指で同時に接触した場合に、当該文字列を選択する」という定義がコマンド定義保持部26に保持されており、位置関係型コマンド認識部23がかかる定義に基づいて、「2本の指で挟まれた範囲の文字列を選択させる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図38のフローチャートに示されている。   In other words, of the command recognition / issuance unit 17 of FIG. 2 configured as the instruction determination unit 116 in the example of FIG. 3, the positional relationship type command recognition unit 23, the command definition holding unit 26, and the command issuance unit 27. An example of the processing when the above functions mainly is shown in the flowchart of FIG. That is, the definition that “when the display data is document data, the character string is selected when both ends of the character string are simultaneously touched with two fingers” is held in the command definition holding unit 26, and the positional relationship An example of processing when the type command recognition unit 23 recognizes a command “select a character string in a range between two fingers” based on such a definition, and the command issue unit 27 issues such a command. This is shown in the flowchart of FIG.

なお、図38でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。   Note that the point in FIG. 38 does not mean one pixel as in the point in FIG. 8, but means one object described above, that is, one connected component in FIG.

まず、接触部が指先の場合を検出するための面積の閾値Aと、接触部が指の腹の場合を検出するための閾値Bを設定する(ステップS131)。次に、受光画像生成部114によって受光信号から変換された画像データを取得し(ステップS132)、第1の画像処理として接触部の面積を計算する(ステップS133)。なお、ステップS133の処理の詳細例については、図9乃至図16を参照して上述した通りである。面積の計算の結果、画像データ中に面積の閾値B以上の点があるかを判断し(ステップS134)、点があれば別処理に進み(ステップS135)、なければ画像データ中に面積の閾値A 以上の点があるかを判断する(ステップS136)。閾値A以上の点もない場合は、次の画像データを取得する。面積A以上の点がある場合、その点が2点か否かを判断し(ステップS137)、2点あれば次の処理に進み、なければ、次の画像データを取得する。次に、第2の画像処理として、2点の接触部の位置関係を計算する(ステップS138)。なお、ステップS138の処理の詳細例については、図17乃至図20を参照して上述した通りである。位置の計算の結果、2点が一定の距離離れていれば、その2点間に表示されている文字列を選択する指示とする(ステップS139 )。   First, an area threshold A for detecting the case where the contact portion is the fingertip and a threshold B for detecting the case where the contact portion is the belly of the finger are set (step S131). Next, the image data converted from the received light signal by the received light image generation unit 114 is acquired (step S132), and the area of the contact portion is calculated as the first image processing (step S133). Note that a detailed example of the processing in step S133 is as described above with reference to FIGS. As a result of the area calculation, it is determined whether there is a point equal to or larger than the area threshold B in the image data (step S134). If there is a point, the process proceeds to another process (step S135). A: It is determined whether or not there are more points (step S136). If there is no point greater than or equal to the threshold A, the next image data is acquired. If there is a point of area A or more, it is determined whether or not there are two points (step S137). If there are two points, the process proceeds to the next process. If not, the next image data is acquired. Next, as the second image processing, the positional relationship between the two contact portions is calculated (step S138). A detailed example of the process in step S138 is as described above with reference to FIGS. As a result of the position calculation, if the two points are separated from each other by a certain distance, an instruction to select a character string displayed between the two points is made (step S139).

本例では、操作者からの指示が文章の編集を行うための指示となるため、上記フローチャートで説明したように指示判定部116による処理が行われた後、判定した指示内容を入出力処理部101から外部のアプリケーションであるドキュメント処理部102へ通知する。そして、ドキュメント処理部102において指示内容に応じた文書データの編集処理を行い、その結果を再度入出力処理部1へ送り、そのデータを表示データとして生成して表示する。   In this example, since an instruction from the operator is an instruction for editing a sentence, after the processing by the instruction determination unit 116 is performed as described in the flowchart, the determined instruction content is input to the input / output processing unit. 101 notifies the document processing unit 102 which is an external application. Then, the document processing unit 102 performs document data editing processing according to the instruction content, sends the result to the input / output processing unit 1 again, and generates and displays the data as display data.

例えば、図37の上部に示したように、表示エリア121に表示された文章の一部を操作者が指f1、f2の2本で挟むように触れた場合、図39に示すような操作後画面例のように、指f1、f2で挟んだ部分の文字列H1が選択状態となって表示される。   For example, as shown in the upper part of FIG. 37, when an operator touches a part of a sentence displayed in the display area 121 with two fingers f1 and f2, the operation is performed as shown in FIG. As in the screen example, the character string H1 between the fingers f1 and f2 is selected and displayed.

次に、図40、図41、図42を参照して、表示エリアに表示した文章の編集を行う他の処理例について説明する。図40は、表示エリア121に文字列などの文書データを表示し、操作者が指f1を画面に表示された文章の文字列の上に置いた場合である。このとき、図40の下部に示したような受光画像が得られ、1つの細長い接触部181が検出される。   Next, another example of processing for editing the text displayed in the display area will be described with reference to FIGS. 40, 41, and 42. FIG. 40 shows a case where document data such as a character string is displayed in the display area 121 and the operator places the finger f1 on the character string of the sentence displayed on the screen. At this time, a light reception image as shown in the lower part of FIG. 40 is obtained, and one elongated contact portion 181 is detected.

図41は、図40に示すような接触部が検出される場合の、受光画像から操作指示を判断する処理の例を示すフローチャートである。ここでは、予め接触部と操作指示との対応を「表示データが文書データの場合、文字列の上に指を置いた場合に、当該文字列を消去する」と定義しておく。   FIG. 41 is a flowchart illustrating an example of processing for determining an operation instruction from a received light image when a contact portion as illustrated in FIG. 40 is detected. Here, the correspondence between the contact portion and the operation instruction is defined in advance as “if the display data is document data, the character string is erased when the finger is placed on the character string”.

換言すると、図3の例では指示判定部116として構成されている図2のコマンド認識/発行部17のうちの、形状型コマンド認識部24、コマンド定義保持部26、および、コマンド発行部27が主に機能する場合の処理の一例が、図41のフローチャートに示されている。即ち、「表示データが文書データの場合、文字列の上に指を置いた場合に、当該文字列を消去する」という定義がコマンド定義保持部26に保持されており、形状型コマンド認識部24がかかる定義に基づいて、「指が置かれた範囲に含まれる文字列を消去させる」というコマンドを認識し、コマンド発行部27がかかるコマンドを発行する場合の処理例が、図41のフローチャートに示されている。   In other words, of the command recognition / issuance unit 17 of FIG. 2 configured as the instruction determination unit 116 in the example of FIG. 3, the shape-type command recognition unit 24, the command definition holding unit 26, and the command issuance unit 27 are An example of processing when mainly functioning is shown in the flowchart of FIG. That is, the definition of “when the display data is document data, the character string is erased when the finger is placed on the character string” is held in the command definition holding unit 26, and the shape type command recognition unit 24. FIG. 41 is a flowchart showing an example of processing when the command issuing unit 27 recognizes a command “deleting a character string included in a range where a finger is placed” based on such a definition and issues the command. It is shown.

なお、図41でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。   Note that the point in FIG. 41 does not mean one pixel as in the point in FIG. 8, but means one object described above, that is, one connected component in FIG.

本処理において、接触部を検出するための面積の閾値Aと閾値Bを設定する処理(ステップS131)から、画像データ中に面積の閾値B以上の点があるかを判断する処理(ステップS134)までは、上記図38のフローチャートで説明したものと同様である。面積B以上の点がない場合の処理は図38のフローチャートで説明したものである。ステップS134にて面積の閾値B以上の点がある場合は、第2の画像処理として、接触部の位置を計算する(ステップS141)。なお、ここでいう位置計算は、上述した図17の計算とは異なり、受光画像における接触部(1つの連結成分全体)の占める位置が計算される。位置の計算の結果、接触部が画面に表示されている文字列の上に重なるように置かれている場合は、接触部が置かれている部分の文字列を消去する指示とする(ステップS142)。   In this process, from the process of setting the area threshold A and threshold B for detecting the contact portion (step S131), it is determined whether or not there is a point equal to or larger than the area threshold B in the image data (step S134). The processes up to this point are the same as those described in the flowchart of FIG. The processing in the case where there is no point equal to or larger than the area B has been described with reference to the flowchart of FIG. If there is a point equal to or larger than the area threshold B in step S134, the position of the contact portion is calculated as the second image processing (step S141). Note that the position calculation here is different from the calculation of FIG. 17 described above, and the position occupied by the contact portion (the entire one connected component) in the received light image is calculated. As a result of the position calculation, when the contact portion is placed so as to overlap the character string displayed on the screen, an instruction to delete the character string of the portion where the contact portion is placed is set (step S142). ).

上記処理を行った場合の操作後画面の例を図42に示す。図40の上部に示したように、表示エリア121に表示された文章の文字列の上に操作者が指f1を置いた場合、図42に示すように、指f1を置いた部分の文字列H2が消去状態となって表示される。   FIG. 42 shows an example of the post-operation screen when the above processing is performed. As shown in the upper part of FIG. 40, when the operator places the finger f1 on the character string of the text displayed in the display area 121, as shown in FIG. 42, the character string of the portion where the finger f1 is placed. H2 is displayed in an erased state.

なお、図38及び図41で示した処理は排他的なものではなく、両方を同時に実現できる。この場合の処理例を図43のフローチャートで示す。ここでは、文章の編集を行う例を「選択」と「削除」の二つの例で示したが、接触部と操作指示の対応を別の組み合わせとすることも可能である。また、他の編集処理を行わせるための指示を実現することも可能である。   Note that the processes shown in FIGS. 38 and 41 are not exclusive, and both can be realized simultaneously. A processing example in this case is shown in the flowchart of FIG. In this example, two examples of “selection” and “deletion” in which text is edited are shown, but the correspondence between the contact portion and the operation instruction may be different. It is also possible to realize an instruction for performing another editing process.

なお、図43でいう点とは、図8でいう点と同様に、1つの画素を意味するのではなく、上述した1つのオブジェクト、即ち、図9等でいう1つの連結成分を意味する。   43 does not mean one pixel as in the case shown in FIG. 8, but means one object described above, that is, one connected component shown in FIG.

本実施の形態では、表示装置の表示エリアに接触または近接した物体を検出し、その接触部の状態を次のように判断する例について述べた。
・複数の接触部(オブジェクト)の位置関係を基に操作指示を判断する。
・ 複数の接触部(オブジェクト)の時間位置変化を基に操作指示を判断する。
・ 複数の接触部(オブジェクト)の形状(大きさ等)を基に操作指示を判断する。
これらの状態を組み合わせたものや、操作する接触部の数、位置関係や移動方法などの他の条件と操作指示との対応を定義することで、他の画面操作や、文書データの他の編集処理を行わせることも可能である。また、画面操作だけでなく、特定のアプリケーションの処理を実行させることもできる。他のアプリケーションを実行させる場合は、そのアプリケーション処理部を入出力処理部101の外部に組み込むように構成することで、処理を実現することができる。
In the present embodiment, an example has been described in which an object in contact with or close to the display area of the display device is detected and the state of the contact portion is determined as follows.
-The operation instruction is determined based on the positional relationship between a plurality of contact parts (objects).
-Judge the operation instruction based on the time position change of multiple contact parts (objects).
-The operation instruction is determined based on the shape (size, etc.) of a plurality of contact parts (objects).
By defining the correspondence between these conditions and other conditions such as the number of contact parts to be operated, positional relationship and movement method, and operation instructions, other screen operations and other editing of document data It is also possible to perform processing. In addition to screen operations, specific application processing can also be executed. In the case of executing another application, the processing can be realized by configuring the application processing unit to be incorporated outside the input / output processing unit 101.

以上の説明では、主に指などの反射物がディスプレイ表面に接触、あるいは近接した場合について述べてきた。しかし、本発明における表示/受光パネル部120はディスプレイ表面に受光素子を二次元的に配置してあるので、これ以外の状況でも操作の指示が可能である。例えば、レーザーポインタなどの光源を複数使用する、あるいはビームの大きさを変える、ビームの形状を変える、更にはこれらを動かす、などによって操作の指示をしても良い。   In the above description, the case where a reflective object such as a finger is in contact with or close to the display surface has been mainly described. However, since the display / light-receiving panel unit 120 in the present invention has the light-receiving elements arranged two-dimensionally on the display surface, it is possible to instruct operation even in other situations. For example, the operation may be instructed by using a plurality of light sources such as a laser pointer, changing the size of the beam, changing the shape of the beam, or moving these.

あるいはディスプレイ上に他の物体の像を結像させる、または影を検出するなど、受光画像が形成でき、かつそれが変化させられるものであれば何を用いても良い。例えば、クリップがディスプレイ上に置かれたら、特定のアプリケーションの処理を実行する、または、ディスプレイ上に鍵を置き、その鍵を右方向に回転させると「ロック」、左方向へ回転させると「ロック解除」などの処理を実行させることも可能である。   Alternatively, any image can be used as long as a received light image can be formed and can be changed, such as forming an image of another object on the display or detecting a shadow. For example, if a clip is placed on the display, execute a specific application process or place a key on the display and rotate the key to the right to “lock”, rotate to the left to “lock” It is also possible to execute processing such as “release”.

ところで、上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることができる。   By the way, the series of processes described above can be executed by hardware, but can also be executed by software.

この場合、図1の画像入出力装置1の少なくとも一部として、例えば、図44に示されるパーソナルコンピュータを採用してもよい。   In this case, for example, a personal computer shown in FIG. 44 may be adopted as at least a part of the image input / output device 1 of FIG.

図44において、CPU(Central Processing Unit)201は、ROM(Read Only Memory)202に記録されているプログラム、または記憶部208からRAM(Random Access Memory)203にロードされたプログラムに従って各種の処理を実行する。RAM203にはまた、CPU201が各種の処理を実行する上において必要なデータなども適宜記憶される。   44, a CPU (Central Processing Unit) 201 executes various processes according to a program recorded in a ROM (Read Only Memory) 202 or a program loaded from a storage unit 208 to a RAM (Random Access Memory) 203. To do. The RAM 203 also appropriately stores data necessary for the CPU 201 to execute various processes.

CPU201、ROM202、およびRAM203は、バス204を介して相互に接続されている。このバス204にはまた、入出力インタフェース205も接続されている。   The CPU 201, the ROM 202, and the RAM 203 are connected to each other via the bus 204. An input / output interface 205 is also connected to the bus 204.

入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイなどよりなる出力部207、ハードディスクなどより構成される記憶部208、および、モデム、ターミナルアダプタなどより構成される通信部209が接続されている。通信部209は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。   The input / output interface 205 includes an input unit 206 such as a keyboard and a mouse, an output unit 207 including a display, a storage unit 208 including a hard disk, and a communication unit 209 including a modem and a terminal adapter. It is connected. The communication unit 209 controls communication performed with other devices (not shown) via a network including the Internet.

入出力インタフェース205にはまた、必要に応じてドライブ210が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア211が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部208にインストールされる。   A drive 210 is also connected to the input / output interface 205 as necessary, and a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately installed, and a computer program read from them is loaded. Installed in the storage unit 208 as necessary.

一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.

このようなプログラムを含む記録媒体は、図44に示されるように、装置本体とは別に、操作者にプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア(パッケージメディア)211により構成されるだけでなく、装置本体に予め組み込まれた状態で操作者に提供される、プログラムが記録されているROM202や、記憶部208に含まれるハードディスクなどで構成される。   As shown in FIG. 44, the recording medium including such a program includes a magnetic disk (including a floppy disk) on which the program is recorded, which is distributed to provide the program to the operator separately from the apparatus main body. ), Optical disk (including compact disk-read only memory (CD-ROM), DVD (digital versatile disk)), magneto-optical disk (including MD (mini-disk)), or semiconductor memory, etc. (package) Medium) 211, and a ROM 202 in which a program is recorded and a hard disk included in the storage unit 208 provided to the operator in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.

また、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。   Further, in the present specification, the system represents the entire apparatus including a plurality of apparatuses and processing units.

1 画像入出力装置, 2 情報処理装置, 11 表示画像生成部, 12 表示制御部, 13 表示部, 14 受光部, 15 受光画像生成部, 16 オブジェクト検出部, 17 コマンド認識/発行部, 21 検出結果保持部, 22 時間位置変化型コマンド認識部, 23 位置関係型コマンド認識部, 24 形状型コマンド認識部, 25 複合型コマンド認識部, 26 コマンド定義保持部, 27 コマンド発行部, 101 入出力処理部, 102 ドキュメント処理部, 110 表示信号生成部, 111 信号制御部, 112 表示信号ドライバ, 113 受光信号レシーバ, 114 受光画像生成部, 115 画像処理演算部, 116 指示判定部, 120 表示/受光パネル部, 121 表示エリア(センサエリア), 122 表示用水平ドライバ, 123 表示用垂直ドライバ, 124 センサ用垂直レシーバ, 125 センサ用水平レシーバ, 127 表示側スキャナ, 128 受光側スキャナ, 130 表示装置, 131 画素, 131a スイッチング素子, 131b 画素電極, 131c センサ素子, 131d リセットスイッチ, 131e コンデンサ, 131f バッファアンプ, 131g 読み出しスイッチ, 131h ゲート電極, 131i ドレイン電極, 131j 信号出力用電極, 131k リセット電極, 131m 読出し制御電極, f1 ,f2 ,f 3 指, 141 ,142 ,143 ,151 ,152 ,153 ,161 ,162 ,163 ,171 ,172 ,181 接触部, 201 CPU, 202 ROM, 203 RAM, 204 バス, 205 入出力インタフェース, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ, 211 リムーバブルメディア   DESCRIPTION OF SYMBOLS 1 Image input / output device, 2 Information processing apparatus, 11 Display image generation part, 12 Display control part, 13 Display part, 14 Light reception part, 15 Light reception image generation part, 16 Object detection part, 17 Command recognition / issue part, 21 Detection Result holding unit, 22 Time position change type command recognizing unit, 23 Position relation type command recognizing unit, 24 Shape type command recognizing unit, 25 Compound type command recognizing unit, 26 Command definition holding unit, 27 Command issuing unit, 101 I / O processing Unit, 102 document processing unit, 110 display signal generation unit, 111 signal control unit, 112 display signal driver, 113 light reception signal receiver, 114 light reception image generation unit, 115 image processing calculation unit, 116 instruction determination unit, 120 display / light reception panel , 121 Display area (sensor area ), 122 display horizontal driver, 123 display vertical driver, 124 sensor vertical receiver, 125 sensor horizontal receiver, 127 display side scanner, 128 light receiving side scanner, 130 display device, 131 pixels, 131a switching element, 131b pixel electrode , 131c sensor element, 131d reset switch, 131e capacitor, 131f buffer amplifier, 131g readout switch, 131h gate electrode, 131i drain electrode, 131j signal output electrode, 131k reset electrode, 131m readout control electrode, f1, f2, f3 finger , 141, 142, 143, 151, 152, 153, 161, 162, 163, 171, 172, 181 contact part, 201 CPU, 2 02 ROM, 203 RAM, 204 bus, 205 input / output interface, 206 input unit, 207 output unit, 208 storage unit, 209 communication unit, 210 drive, 211 removable media

Claims (11)

表示画面に画像を表示するための複数の表示素子と、
前記表示画面内に配置された複数のセンサと、
前記複数のセンサからの出力に基づいて、前記表示画面に接触又は近接する物体の位置および大きさの情報を得るための演算処理を行う演算部と、
前記演算部で、各々が個別に連結された一領域を形成する複数箇所の接触又は近接する物体の接触部を検出した場合に、各接触部が形成する領域の面積および各接触部の互いの位置関係に応じて、操作者の指示を判定する指示判定部とを備え、
判定した指示に応じた所定の処理を実行する表示装置。
A plurality of display elements for displaying an image on a display screen;
A plurality of sensors arranged in the display screen;
An arithmetic unit that performs arithmetic processing to obtain information on the position and size of an object that is in contact with or close to the display screen, based on outputs from the plurality of sensors;
When the calculation unit detects a plurality of contacts that form one region that is individually connected to each other or a contact portion of an adjacent object, the area of the region formed by each contact portion and each other of each contact portion An instruction determination unit that determines an instruction of the operator according to the positional relationship,
A display device that executes predetermined processing according to a determined instruction.
請求項1記載の表示装置において、
前記表示画面に表示される画像を制御する表示制御部をさらに備え、
前記指示判定部は、さらに、各接触部の表示面上の位置に応じて、前記操作者の指示を判定し、
前記表示制御部は、前記指示判定部からの指示に応じて前記画像を制御する
表示装置。
The display device according to claim 1,
A display control unit for controlling an image displayed on the display screen;
The instruction determination unit further determines the instruction of the operator according to the position on the display surface of each contact unit,
The display control unit controls the image according to an instruction from the instruction determination unit.
請求項1記載の表示装置において、
前記指示判定部は、さらに、各近接部の互いの位置関係の変化およびその方向に応じて、前記操作者の指示を判定する
表示装置。
The display device according to claim 1,
The instruction determination unit further determines an instruction of the operator according to a change in the positional relationship between the proximity units and a direction thereof.
請求項1記載の表示装置において、
前記表示画面に表示される画像を制御する表示制御部をさらに備え、
前記表示制御部は、前記指示判定部からの指示に応じて前記画像を制御する
表示装置。
The display device according to claim 1,
A display control unit for controlling an image displayed on the display screen;
The display control unit controls the image according to an instruction from the instruction determination unit.
請求項1記載の表示装置において、
前記演算部は、前記複数のセンサからの出力をそれぞれ所定の閾値と比較して二値化し、二値化された前記複数のセンサからの出力に対して、所定の値の前記出力の集合体からなる連結成分のうち所定の閾値より小さい連結成分を除外する孤立点除去処理、若しくは、前記連結成分の1つ1つに一意のラベルを付すラベリング処理を行う前に、ノイズ除去処理を行う
表示装置。
The display device according to claim 1,
The arithmetic unit binarizes the outputs from the plurality of sensors by comparing each of the outputs with a predetermined threshold, and the set of outputs having a predetermined value with respect to the binarized outputs from the plurality of sensors A noise removal process is performed before performing an isolated point removal process that excludes a connected component that is smaller than a predetermined threshold among connected components consisting of or a labeling process that adds a unique label to each of the connected components. apparatus.
請求項5記載の表示装置において、
前記ノイズ除去処理は、二値化された各センサからの出力を1つずつ注目画素とし、前記注目画素の周囲の幾つかの画素の状態によって前記注目画素の画素値を特定する処理である
表示装置。
The display device according to claim 5, wherein
The noise removal process is a process in which the output from each binarized sensor is set as a target pixel one by one, and the pixel value of the target pixel is specified according to the state of several pixels around the target pixel. apparatus.
請求項5記載の表示装置において、
前記演算部は、前記ラベリング処理を行う前に、前記孤立点除去処理を行う
表示装置。
The display device according to claim 5, wherein
The calculation unit performs the isolated point removal process before performing the labeling process.
請求項1記載の表示装置において、
前記指示判定部は、検出された各接触部に関する情報であるオブジェクト情報に基づいて、前記操作者の指示を判定する
表示装置。
The display device according to claim 1,
The said instruction | indication determination part determines the said operator's instruction | indication based on the object information which is the information regarding each detected contact part. Display apparatus.
請求項8記載の表示装置において、
前記オブジェクト情報には、前記接触部の座標位置の変化に係る情報が含まれる
表示装置。
The display device according to claim 8, wherein
The object information includes information related to a change in the coordinate position of the contact portion.
請求項1乃至請求項9のいずれか記載の表示装置において、
前記所定の処理は、前記表示素子で表示させる表示画像全体を変化させる処理、または、前記表示素子で表示させる表示画像を生成させるアプリケーションの動作を変化させる処理であり、
前記表示素子で表示させる表示画像全体を変化させる処理は、前記表示画像のスクロール、または、前記表示画像の拡大若しくは縮小を含み、
前記表示素子で表示させる表示画像を生成させるアプリケーションの動作を変化させる処理は、前記表示画像に含まれる文字列の選択若しくは消去を含む
表示装置。
The display device according to any one of claims 1 to 9,
The predetermined process is a process of changing the entire display image to be displayed on the display element, or a process of changing an operation of an application for generating a display image to be displayed on the display element.
The process of changing the entire display image displayed on the display element includes scrolling the display image, or enlarging or reducing the display image,
The process of changing the operation of an application that generates a display image to be displayed on the display element includes selection or deletion of a character string included in the display image.
表示画面内に配置された複数のセンサからの出力に基づいて、前記表示画面に接触又は近接する物体の位置および大きさの情報を得るための演算処理を行い、
各々が個別に連結された一領域を形成する複数箇所の接触又は近接する物体の接触部を検出した場合に、各接触部が形成する領域の面積および各接触部の互いの位置関係に応じて、操作者の指示を判定し、
判定した指示に応じた所定の処理を実行する
表示方法。
Based on the output from a plurality of sensors arranged in the display screen, performing an arithmetic process to obtain information on the position and size of an object in contact with or close to the display screen,
Depending on the area of each region formed by each contact part and the mutual positional relationship between the contact parts when detecting a plurality of contacts or contact parts of adjacent objects forming a region where each is individually connected , Determine the operator's instructions,
A display method that performs predetermined processing according to the determined instruction.
JP2009233629A 2005-10-05 2009-10-07 Display apparatus and display method Pending JP2010003325A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009233629A JP2010003325A (en) 2005-10-05 2009-10-07 Display apparatus and display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005292605 2005-10-05
JP2009233629A JP2010003325A (en) 2005-10-05 2009-10-07 Display apparatus and display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006246875A Division JP2007128497A (en) 2005-10-05 2006-09-12 Display apparatus and method thereof

Publications (1)

Publication Number Publication Date
JP2010003325A true JP2010003325A (en) 2010-01-07

Family

ID=38044941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009233629A Pending JP2010003325A (en) 2005-10-05 2009-10-07 Display apparatus and display method

Country Status (2)

Country Link
JP (1) JP2010003325A (en)
CN (1) CN100478862C (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153833A1 (en) * 2011-05-12 2012-11-15 Necカシオモバイルコミュニケーションズ株式会社 Electronic device, method for controlling same and program
JP2015026094A (en) * 2013-07-24 2015-02-05 アルプス電気株式会社 Touch pad
JP2016099871A (en) * 2014-11-25 2016-05-30 アルパイン株式会社 Information apparatus, and operation method and operation program for the same

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4935475B2 (en) * 2007-04-13 2012-05-23 沖電気工業株式会社 Input device
EP2700528A3 (en) * 2008-03-19 2014-12-24 Denso Corporation Vehicular manipulation input apparatus
JP5224973B2 (en) 2008-08-26 2013-07-03 株式会社ジャパンディスプレイウェスト Information input / output device and information input / output method
TWI425400B (en) * 2009-05-26 2014-02-01 Japan Display West Inc Information input device, information input method, information input-output device, storage medium, and electronic unit
CN102999158B (en) * 2009-09-28 2015-12-02 原相科技股份有限公司 The gesture identification of interaction systems and interaction systems
WO2011065555A1 (en) * 2009-11-30 2011-06-03 シャープ株式会社 Display device
JP5790761B2 (en) * 2011-06-08 2015-10-07 オムロン株式会社 Distributed image processing system
EP2645215B1 (en) * 2012-03-28 2019-08-14 Siemens Aktiengesellschaft Display device with read back display

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230352A (en) * 1993-09-16 1995-08-29 Hitachi Ltd Touch position detecting device and touch instruction processor
JPH07261932A (en) * 1994-03-18 1995-10-13 Hitachi Ltd Sensor built-in type liquid crystal display device and information processing system using the display device
JPH0991079A (en) * 1995-09-28 1997-04-04 Toshiba Corp Information input device and image processing method
WO1998042125A1 (en) * 1997-03-19 1998-09-24 Hitachi, Ltd. Image pick-up system
JP2002175532A (en) * 2000-12-08 2002-06-21 Fuji Xerox Co Ltd Image processor, method for image processing and storage medium with image processing program recorded thereon
JP2003234945A (en) * 2002-02-07 2003-08-22 Casio Comput Co Ltd Photosensor system and its driving control method
JP2004013615A (en) * 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd Moving object monitoring device
JP2004228770A (en) * 2003-01-21 2004-08-12 Minolta Co Ltd Image processing system
JP2004318819A (en) * 2003-03-31 2004-11-11 Toshiba Matsushita Display Technology Co Ltd Display device and information terminal device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230352A (en) * 1993-09-16 1995-08-29 Hitachi Ltd Touch position detecting device and touch instruction processor
JPH07261932A (en) * 1994-03-18 1995-10-13 Hitachi Ltd Sensor built-in type liquid crystal display device and information processing system using the display device
JPH0991079A (en) * 1995-09-28 1997-04-04 Toshiba Corp Information input device and image processing method
WO1998042125A1 (en) * 1997-03-19 1998-09-24 Hitachi, Ltd. Image pick-up system
JP2002175532A (en) * 2000-12-08 2002-06-21 Fuji Xerox Co Ltd Image processor, method for image processing and storage medium with image processing program recorded thereon
JP2003234945A (en) * 2002-02-07 2003-08-22 Casio Comput Co Ltd Photosensor system and its driving control method
JP2004013615A (en) * 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd Moving object monitoring device
JP2004228770A (en) * 2003-01-21 2004-08-12 Minolta Co Ltd Image processing system
JP2004318819A (en) * 2003-03-31 2004-11-11 Toshiba Matsushita Display Technology Co Ltd Display device and information terminal device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153833A1 (en) * 2011-05-12 2012-11-15 Necカシオモバイルコミュニケーションズ株式会社 Electronic device, method for controlling same and program
JP2015026094A (en) * 2013-07-24 2015-02-05 アルプス電気株式会社 Touch pad
JP2016099871A (en) * 2014-11-25 2016-05-30 アルパイン株式会社 Information apparatus, and operation method and operation program for the same

Also Published As

Publication number Publication date
CN100478862C (en) 2009-04-15
CN1945515A (en) 2007-04-11

Similar Documents

Publication Publication Date Title
JP2007128497A (en) Display apparatus and method thereof
JP2010003325A (en) Display apparatus and display method
JP2008097172A (en) Display and display method
JP5274507B2 (en) Touch motion recognition method and apparatus
US8446376B2 (en) Visual response to touch inputs
CN102436343B (en) Input based on touching the user interface element that aligns
KR100958643B1 (en) Touch screen display and method for operating the same
JP5240773B2 (en) Information processing apparatus, information processing method, and information processing program
US20100238139A1 (en) Optical touch screen systems using wide light beams
JP2008305087A (en) Display device
US10318152B2 (en) Modifying key size on a touch screen based on fingertip location
KR101672343B1 (en) Optical touch panel and Method of driving the same
US9454260B2 (en) System and method for enabling multi-display input
US20130290901A1 (en) Remote control, display device, television receiver device, and program for remote control
EP2312421A1 (en) Image processing device, image processing method, image input device, and image input/output device
US20120212440A1 (en) Input motion analysis method and information processing device
JP2004361960A (en) Electronic apparatus
JP5322163B2 (en) Display device, display method, and display program
TWI534687B (en) Optical touch detection system and object analyzation method thereof
JP5840302B2 (en) Display device with touch panel and program
JP2008059254A (en) Display imaging apparatus, information input device, object detection program and object detection method
CN104915066A (en) Interactive projection device and touch control position judgment method thereof
CN102129332A (en) Detection method and device of touch points for image recognition
TW201027407A (en) Light compensation method
US20110148821A1 (en) Infrared Screen-Type Space Touch Apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111201