JP2010244409A - Input device, and method of controlling the same - Google Patents

Input device, and method of controlling the same Download PDF

Info

Publication number
JP2010244409A
JP2010244409A JP2009094117A JP2009094117A JP2010244409A JP 2010244409 A JP2010244409 A JP 2010244409A JP 2009094117 A JP2009094117 A JP 2009094117A JP 2009094117 A JP2009094117 A JP 2009094117A JP 2010244409 A JP2010244409 A JP 2010244409A
Authority
JP
Japan
Prior art keywords
input
display
movement
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009094117A
Other languages
Japanese (ja)
Inventor
Mutsuhiro Yamamoto
睦裕 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009094117A priority Critical patent/JP2010244409A/en
Publication of JP2010244409A publication Critical patent/JP2010244409A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device with high convenience and ease of operation for a user. <P>SOLUTION: The data display/sensor device 100 includes: a first display/optical sensor unit 300A and a second display/optical sensor unit 300B disposed on both surfaces thereof; a first input detection unit 810a which specifies a motion of input operation detected by the sensor unit 300A and generates a first input signal corresponding to the specified motion of input operation, which is associated with an operation in a first direction of an application which executes a predetermined operation; and a second input detection unit 810b which specifies a motion of input operation detected by the sensor unit 300B and generates a second input signal corresponding to the motion of input operation specified by the sensor unit 300B, which is associated with an operation in a second direction different from the first direction of the operation. Accordingly, the data display/sensor device 100 can provide an input device with superior convenience and ease of operation to the user. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、二つの入力面から入力する入力装置、及び入力装置の制御方法に関する。   The present invention relates to an input device that inputs from two input surfaces and a method for controlling the input device.

近年、タッチパネル式の入力装置が、携帯電話機、PDAなどに代表されるモバイル機器(携帯端末)において広く普及している。その一例として、入力面に対して、指が接触していない状態から、接触している状態に変化したときに、接触した指の位置に応じた入力が行われる入力装置が知られている(例えば、特許文献1)。   2. Description of the Related Art In recent years, touch panel type input devices are widely used in mobile devices (portable terminals) represented by mobile phones, PDAs and the like. As an example, there is known an input device that performs input according to the position of the touched finger when the input surface changes from a state where the finger is not in contact to a state where the finger is in contact ( For example, Patent Document 1).

また、単にタッチパネル式で入力を受け付けるのみならず、用途に応じて、より便利な入力が可能な入力装置が提案されている。例えば、携帯用端末機器において、ユーザは、表示画面上のアイコンに指を接触させて、次にアイコンを移動させたい方向にその指を動かすことにより、そのアイコンを表示画面中の好みの位置に移動させることができる。さらに、表示画面上のフォルダを指でダブルクリックすることにより、そのフォルダを開けることもできる(例えば、特許文献2)。   In addition, input devices that allow more convenient input depending on applications as well as accepting input simply by a touch panel type have been proposed. For example, in a portable terminal device, a user touches an icon on the display screen and then moves the finger in the direction in which the icon is to be moved, so that the icon is moved to a desired position on the display screen. Can be moved. Further, the folder can be opened by double-clicking the folder on the display screen with a finger (for example, Patent Document 2).

特開2008−141519号公報(平成20年6月19日公開)JP 2008-141519 A (published June 19, 2008) 特開平11−39093号公報(平成11年2月12日公開)JP 11-39093 A (published on February 12, 1999)

しかしながら、上記従来の入力装置は、何れも一つの入力面から入力する方式(以下、一面入力式とする)であって、裏表両面に配設された二つの入力面から入力する方式(以下、両面入力式とする)の入力装置は、そもそも存在しなかった。   However, each of the conventional input devices is a method of inputting from one input surface (hereinafter referred to as a single-sided input method), and a method of inputting from two input surfaces arranged on the front and back surfaces (hereinafter referred to as a single-sided input method). In the first place, there was no input device of a double-sided input type.

従って、ユーザは、両面入力式の入力装置によって実現される多彩で立体的な操作と、その優れた利便性及び操作性を、従来の一面入力式の入力装置では経験することができなかった。   Therefore, the user cannot experience the various three-dimensional operations realized by the double-sided input type input device and the excellent convenience and operability of the conventional single-sided input type input device.

さらに、従来の入力装置には次のような問題があった。つまり、一面入力式の入力装置では、ユーザが気付かないうちに意図しない操作が行われる可能性を排除できない。具体的には、ユーザの指がタッチパネル上のアイコンに無意識のうちに接触し、アイコンを表示画面上のどこか別の場所にドラッグしてしまうことがある。そのドラッグした先がゴミ箱フォルダであった場合には、そのアイコンは、ユーザの知らない間に消去されてしまうという事態に陥る。このように、従来の入力装置には、一つの入力面から入力を行うことによって生じる固有の問題もあった。   Further, the conventional input device has the following problems. That is, in the one-side input type input device, the possibility that an unintended operation is performed without the user's knowledge cannot be excluded. Specifically, the user's finger may unintentionally touch the icon on the touch panel and drag the icon to somewhere else on the display screen. If the dragged destination is a trash folder, the icon is deleted without the user's knowledge. As described above, the conventional input device also has an inherent problem caused by inputting from one input surface.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザにとって利便性及び操作性の高い入力装置、及び入力装置の制御方法を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an input device that is convenient and easy to operate for a user, and a method for controlling the input device.

本発明の入力装置は、前記課題を解決するために、入力操作を検出する面状部材が、表裏両面にそれぞれ配設された板状の入力装置であって、表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出手段と、裏面の面状部材が検出した入力操作の動きを特定して、前記アプリケーションの前記第1方向とは異なる第2方向への動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出手段と、を備えることを特徴としている。   In order to solve the above problems, the input device according to the present invention is a plate-like input device in which the planar member for detecting the input operation is disposed on both the front and back surfaces, and the planar member on the front surface is detected. First input detection that identifies a movement of the input operation and generates a first input signal corresponding to the movement of the identified input operation that is associated with the movement in the first direction of the application that executes the predetermined movement A movement of the input operation detected by the means and the sheet member on the back surface, and the movement of the application in the second direction different from the first direction is associated with the movement of the application in the sheet member on the back surface And second input detection means for generating a second input signal corresponding to the identified movement of the input operation.

また、本発明の入力装置の制御方法は、入力操作を検出する面状部材が、表裏両面にそれぞれ配設された板状の入力装置の制御方法であって、表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出ステップと、裏面の面状部材が検出した入力操作の動きを特定して、前記アプリケーションの前記第1方向とは異なる第2方向への動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出ステップと、を含むことを特徴としている。   The input device control method of the present invention is a plate-like input device control method in which the planar member for detecting an input operation is disposed on both the front and back surfaces, and the surface planar member is detected. First input detection that identifies a movement of the input operation and generates a first input signal corresponding to the movement of the identified input operation that is associated with the movement in the first direction of the application that executes the predetermined movement Identifying the movement of the input operation detected by the step and the sheet member on the back surface, and corresponding to the movement of the application in the second direction different from the first direction, in the sheet member on the back surface And a second input detection step of generating a second input signal corresponding to the identified input operation movement.

これにより、本発明に係る入力装置および入力装置の制御方法では、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた第1入力信号が第1入力検出手段によって、アプリケーションの第1方向とは異なる第2方向への動作に対応付けられた第2入力信号が第2入力検出手段によって、それぞれ生成される。そして、第1及び第2入力信号に従って、アプリケーションは、第1及び第2方向への動作が、別々に、あるいは、融合して実行される。   Accordingly, in the input device and the input device control method according to the present invention, the first input signal associated with the operation in the first direction of the application that executes the predetermined operation is detected by the first input detection unit. Second input signals associated with movements in a second direction different from the first direction are respectively generated by the second input detection means. Then, according to the first and second input signals, the application performs operations in the first and second directions separately or in combination.

従って、表裏両面の面状部材が様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な操作が実現される。つまり、表面からの入力操作によるアプリケーションの第1方向への動作と、裏面からの入力操作によるアプリケーションの第2方向への動作とが融合されることにより、多彩な種々の操作が実現される。しかも、その第1及び第2方向への動作として様々な動作を割り当てておけば、さらに多彩な操作を実現しうる。加えて、入力装置は板状であるため、ユーザは、その裏表両面を指で挟持するようにして上記多彩な操作を容易に体感することができる。   Accordingly, the surface members on both the front and back surfaces detect various input operation movements, thereby realizing various operations that could not be realized with the conventional input device. That is, various operations can be realized by fusing the operation of the application in the first direction by the input operation from the front surface and the operation of the application in the second direction by the input operation from the back surface. Moreover, if various operations are assigned as the operations in the first and second directions, more various operations can be realized. In addition, since the input device is plate-shaped, the user can easily experience the various operations described above by sandwiching the front and back surfaces with fingers.

このように、本発明に係る入力装置および入力装置の制御方法は、優れた操作性及び利便性をユーザに提供することができる。   Thus, the input device and the control method for the input device according to the present invention can provide the user with excellent operability and convenience.

なお、動作実行装置は、1つであっても複数であってもよく、また入力装置と一体に構成されていてもよく、さらに入力装置から物理的に離れた位置に存在していてもよい。   Note that there may be one or a plurality of operation execution devices, the operation execution devices may be integrated with the input device, or may be present at a position physically separated from the input device. .

さらに、本発明に係る入力装置では、前記表面の面状部材にはX軸、Y軸が設定されており、前記第1入力検出手段は、前記表面の面状部材が検出した入力操作の動きをXY座標上の移動量及び移動方向として特定し、その特定したXY座標上の移動量及び移動方向に対応する第1入力信号を生成し、前記第2入力検出手段は、前記裏面の面状部材が検出した入力操作の動きを前記X軸、前記Y軸と共に3次元を規定するZ軸上の移動量及び移動方向として特定し、その特定したZ軸上の移動量及び移動方向に対応する前記第2入力信号を生成する構成としてもよい。   Further, in the input device according to the present invention, an X axis and a Y axis are set for the surface planar member, and the first input detecting means moves the input operation detected by the surface planar member. Is specified as a movement amount and movement direction on the XY coordinates, a first input signal corresponding to the movement amount and movement direction on the specified XY coordinates is generated, and the second input detection means The movement of the input operation detected by the member is specified as the movement amount and movement direction on the Z axis that defines three dimensions together with the X axis and the Y axis, and corresponds to the specified movement amount and movement direction on the Z axis. The second input signal may be generated.

上述したように、本発明に係る入力装置は、表裏両面の面状部材が入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な操作が実現される。加えて、第1入力信号は、前記第1入力検出手段がXY座標上の移動量及び移動方向として特定した、前記表面の面状部材が検出した入力操作の動きに対応する信号である。また、第2入力信号は、前記第2入力検出手段がZ軸上の移動量及び移動方向として特定した、前記裏面の面状部材が検出した入力操作の動きに対応する信号である。   As described above, the input device according to the present invention realizes various operations that cannot be realized by the conventional input device by detecting the movement of the input operation by the planar members on both the front and back surfaces. In addition, the first input signal is a signal corresponding to the movement of the input operation detected by the surface planar member specified by the first input detection unit as the movement amount and movement direction on the XY coordinates. The second input signal is a signal corresponding to the movement of the input operation detected by the planar member on the back surface, which is specified as the movement amount and movement direction on the Z-axis by the second input detection means.

従って、表裏両面の面状部材が様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な3次元操作を実現する第1及び第2入力信号が生成される。そして、第1及び第2入力信号に基づいて、アプリケーションは、第1及び第2方向への動作が、別々に、あるいは、融合して実行される。   Accordingly, the first and second input signals that realize various three-dimensional operations that cannot be realized by the conventional input device are generated by detecting the movements of various input operations by the planar members on both the front and back surfaces. Based on the first and second input signals, the application executes operations in the first and second directions separately or in combination.

このように、表裏両面の面状部材が様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な3次元操作が実現される。それゆえ、優れた利便性及び操作性を有する入力装置がユーザに提供される。また、ユーザは、自身の操作によって実現される3次元動作を想像したうえで、表裏両面の面状部材に当該3次元動作をもたらす所定の入力操作の動きを検出させることができるため、感覚的に優れた操作を体感することができる。   As described above, by detecting the movements of various input operations by the planar members on both the front and back surfaces, various three-dimensional operations that cannot be realized by a conventional input device are realized. Therefore, an input device having excellent convenience and operability is provided to the user. Further, the user can imagine a three-dimensional motion realized by his / her own operation, and can detect the movement of a predetermined input operation that causes the three-dimensional motion to be performed on the planar members on both the front and back surfaces. You can experience excellent operation.

さらに、本発明に係る入力装置では、前記の構成において、前記第1入力検出手段は、前記特定したXY座標上の移動量及び移動方向と、XYZ軸により規定される3次元の動作を実行する前記アプリケーションが動作する前記動作実行装置にXY軸により規定される前記第1方向の動作を実行させる命令とが対応付けられた第1命令対応情報に基づいて、前記特定したXY座標上の移動量及び移動方向が対応付けられた命令を決定し、該命令を示す前記第1入力信号を前記動作実行装置に送信し、前記第2入力検出手段は、前記特定したZ軸上の移動量及び移動方向と、前記動作実行装置にZ軸方向により規定される前記第2方向の動作を実行させる命令とが対応付けられた第2命令対応情報に基づいて、前記特定したZ軸上の移動量及び移動方向が対応付けられた命令を決定し、該命令を示す前記第2入力信号を前記動作実行装置に送信する構成としてもよい。   Furthermore, in the input device according to the present invention, in the configuration described above, the first input detection unit executes a three-dimensional operation defined by the movement amount and movement direction on the specified XY coordinates and the XYZ axes. A movement amount on the specified XY coordinates based on first command correspondence information associated with a command for causing the motion execution device in which the application operates to execute a motion in the first direction defined by the XY axes. And a command associated with the moving direction is determined, the first input signal indicating the command is transmitted to the operation executing device, and the second input detecting means is configured to determine the movement amount and the movement on the identified Z axis. Based on the second command correspondence information in which the direction and the command for causing the motion execution device to execute the motion in the second direction defined by the Z-axis direction are correlated, Determining an instruction kinematic direction associated, may the second input signal indicative of the instruction as a configuration for transmitting to the operation execution unit.

前記構成によれば、本発明に係る入力装置では、前記第1方向は、XYZ軸により規定される3次元の動作を実行する前記アプリケーションにおいてXY軸により規定される方向である。そして、前記第1入力検出手段が特定したXY座標上の移動量及び移動方向と前記第1方向の動作を実行させる命令とが対応付けられた第1命令対応情報に基づいて、前記第1入力検出手段は、前記特定したXY座標上の移動量及び移動方向が対応付けられた命令を決定する。   According to the configuration, in the input device according to the present invention, the first direction is a direction defined by the XY axis in the application that executes a three-dimensional operation defined by the XYZ axes. The first input is based on the first command correspondence information in which the movement amount and movement direction on the XY coordinates specified by the first input detection means are associated with the command for executing the operation in the first direction. The detection means determines a command in which the movement amount and the movement direction on the specified XY coordinates are associated with each other.

従って、内部あるいは外部に設けられた記録手段から第1対応命令情報を読み出すことにより、前記第1入力検出手段は、前記特定したXY座標上の移動量及び移動方向が対応付けられた命令を容易に決定することができる。そして、前記第1入力検出手段は、該命令を示す前記第1入力信号を前記動作実行装置に送信する。   Therefore, by reading the first correspondence command information from the recording means provided inside or outside, the first input detection means can easily issue a command in which the movement amount and the movement direction on the specified XY coordinates are associated with each other. Can be determined. Then, the first input detection means transmits the first input signal indicating the command to the operation execution device.

また、前記第2方向は、前記アプリケーションにおいてZ軸方向により規定される方向である。そして、前記第2入力検出手段が特定したZ軸上の移動量及び移動方向と前記第2方向の動作を実行させる命令とが対応付けられた第2命令対応情報に基づいて、前記第2入力検出手段は、前記特定したZ軸上の移動量及び移動方向が対応付けられた命令を決定する。   The second direction is a direction defined by the Z-axis direction in the application. Then, based on the second command correspondence information in which the movement amount and movement direction on the Z-axis specified by the second input detection means and the command for executing the operation in the second direction are associated with each other, the second input The detection means determines a command associated with the identified movement amount and movement direction on the Z axis.

従って、前記記録手段から第2対応命令情報を読み出すことにより、前記第2入力検出手段は、前記特定したZ軸上の移動量及び移動方向が対応付けられた命令を容易に決定することができる。そして、前記第2入力検出手段は、該命令を示す前記第2入力信号を前記動作実行装置に送信する。   Therefore, by reading the second correspondence command information from the recording means, the second input detection means can easily determine a command associated with the identified movement amount and movement direction on the Z axis. . Then, the second input detection means transmits the second input signal indicating the command to the operation execution device.

このように、前記第1及び第2入力検出手段は、前記第1及び第2命令対応情報に基づいて、XY座標上及びZ軸上の移動量及び移動方向が対応付けられた命令を容易に決定することができる。さらに、アプリケーションごとに前記第1及び第2命令対応情報を対応付けて前記記録手段に記録させておけば、種々のアプリケーションに対して、迅速かつ確実に、多彩な3次元操作をユーザに体感させることができる。   As described above, the first and second input detecting means can easily issue a command in which the movement amount and the movement direction on the XY coordinates and the Z axis are associated with each other based on the first and second command correspondence information. Can be determined. Furthermore, if the first and second instruction correspondence information is associated with each application and recorded in the recording unit, various three-dimensional operations can be experienced quickly and reliably by the user for various applications. be able to.

さらに、本発明に係る入力装置では、前記の構成において、前記表裏両面の面状部材のうち、少なくとも何れか一方の面状部材に画像を表示させる画像表示制御手段を備え、前記第1命令対応情報及び前記第2命令対応情報は、前記画像に対応付けられている構成としてもよい。   Furthermore, the input device according to the present invention further comprises image display control means for displaying an image on at least one of the surface members on both the front and back surfaces in the above-described configuration, and corresponds to the first command. The information and the second command correspondence information may be associated with the image.

前記の構成によれば、本発明に係る入力装置では、画像表示制御手段が少なくとも何れか一方の面状部材に画像を表示させる。そして、その画像は、第1及び第2命令対応情報に対応付けられている。   According to the above configuration, in the input device according to the present invention, the image display control means displays an image on at least one of the planar members. The image is associated with the first and second instruction correspondence information.

つまり、画像表示制御手段が画像を表示することにより、操作対象がユーザに明示される。そして、前記第1及び第2命令対応情報は前記画像に対応付けられているため、ユーザは、その画像を視認したうえで、その画像に対して所望の動作をもたらす入力操作の動きを表裏両面の面状部材に検出させればよい。   That is, when the image display control means displays an image, the operation target is clearly indicated to the user. Then, since the first and second command correspondence information is associated with the image, the user visually recognizes the image and shows the movement of the input operation that brings about a desired operation on the image. The planar member may be detected.

従って、画像を視認したうえで所望の動作を実行させることができるため、ユーザにとって感覚的に操作しやすく、利便性に富んだ入力装置が実現する。   Therefore, since a desired operation can be executed after visually recognizing the image, an input device that is easy for the user to operate intuitively and is highly convenient is realized.

本発明の入力装置は、前記課題を解決するために、入力操作を検出する面状部材が、表裏両面にそれぞれ配設された板状の入力装置であって、表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1の動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出手段と、裏面の面状部材が検出した入力操作の動きを特定して、または、裏面の面状部材に対する検出から非検出への入力操作の動きを特定して、前記アプリケーションの前記第1の動作に付随する第2の動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出手段と、を備えることを特徴としている。   In order to solve the above problems, the input device according to the present invention is a plate-like input device in which the planar member for detecting the input operation is disposed on both the front and back surfaces, and the planar member on the front surface is detected. First input detecting means for identifying a movement of the input operation and generating a first input signal corresponding to the identified movement of the input operation, which is associated with the first movement of the application that executes the predetermined movement; In the first operation of the application, the movement of the input operation detected by the sheet member on the back surface is specified, or the movement of the input operation from detection to non-detection on the sheet member on the back surface is specified. Second input detection means for generating a second input signal corresponding to the movement of the specified input operation in the planar member on the back surface associated with the accompanying second action. .

これにより、本発明に係る入力装置では、所定の動作を実行するアプリケーションの第1の動作に対応付けられた第1入力信号が第1入力検出手段によって、前記第1の動作に付随する第2の動作に対応付けられた第2入力信号が第2入力検出手段によって、それぞれ生成される。そして、その第2入力信号は、裏面の面状部材が検出した入力操作の動き、または、裏面の面状部材に対する検出から非検出への入力操作の動きが第2入力検出手段によって特定されることで生成される。   Thereby, in the input device according to the present invention, the first input signal associated with the first operation of the application that executes the predetermined operation is detected by the first input detection means by the second input associated with the first operation. Second input signals associated with the operations are respectively generated by the second input detection means. In the second input signal, the movement of the input operation detected by the sheet member on the back surface or the movement of the input operation from detection to non-detection on the sheet member on the back surface is specified by the second input detection means. Is generated.

そこで、例えば裏面の面状部材が入力操作の動きを検出することにより、「確定」、「変換」といった動作が実行されるように割り当てられていたとする。あるいは、裏面の面状部材が検出していた入力操作の動きが非検出の状態に変化した場合に、それまで実行されていたアプリケーションの動作が「キャンセル(無効)」されるように割り当てられていたとする。このとき、ユーザは、「確定」、「変換」、「キャンセル(無効)」といった動作を実行したい場合には、裏面の面状部材に入力操作の動きを検出させる、あるいは、裏面の面状部材に検出から非検出への入力操作の動きを与えればよい。これにより、ユーザが所望するアプリケーションの上記各動作を実行することができる。   Thus, for example, it is assumed that the sheet member on the back side is assigned to execute operations such as “confirm” and “conversion” by detecting the movement of the input operation. Alternatively, when the movement of the input operation detected by the sheet member on the back surface changes to a non-detection state, the application operation that has been executed so far is assigned to be “cancelled (invalidated)”. Suppose. At this time, when the user wants to execute operations such as “confirm”, “conversion”, and “cancel (invalid)”, the back surface member detects the movement of the input operation, or the back surface member The movement of the input operation from detection to non-detection may be given to. Thereby, each said operation | movement of the application which a user desires can be performed.

つまり、裏面の面状部材に対する入力操作の動きを上述したように割り当てておけば、ユーザは、所望のアプリケーションの動作を容易に実行することができる。加えて、入力装置は板状であるため、ユーザは、その裏表両面を指で挟持するようにして上記操作を行うことができる。   That is, if the movement of the input operation with respect to the planar member on the back surface is assigned as described above, the user can easily execute a desired application operation. In addition, since the input device has a plate shape, the user can perform the above-described operation so that both sides of the input device are held between fingers.

このように、本発明に係る入力装置は、優れた操作性及び利便性をユーザに提供することができる。   Thus, the input device according to the present invention can provide the user with excellent operability and convenience.

なお、動作実行装置は、1つであっても複数であってもよく、また入力装置と一体に構成されていてもよく、さらに入力装置から物理的に離れた位置に存在していてもよい。   Note that there may be one or a plurality of operation execution devices, the operation execution devices may be integrated with the input device, or may be present at a position physically separated from the input device. .

本発明に係る入力装置は、以上のように、表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出手段と、裏面の面状部材が検出した入力操作の動きを特定して、前記アプリケーションの前記第1方向とは異なる第2方向への動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出手段と、を備える。   As described above, the input device according to the present invention specifies the movement of the input operation detected by the surface planar member, and is associated with the operation in the first direction of the application that executes the predetermined operation. The first input detection means for generating a first input signal corresponding to the identified input operation movement, the input operation movement detected by the sheet member on the back surface, and the first direction of the application Second input detection means for generating a second input signal corresponding to the movement of the specified input operation in the planar member on the back surface, which is associated with a different movement in the second direction.

本発明に係る入力装置は、以上のように、表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1の動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出手段と、裏面の面状部材が検出した入力操作の動きを特定して、または、裏面の面状部材に対する検出から非検出への入力操作の動きを特定して、前記アプリケーションの前記第1の動作に付随する第2の動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出手段と、を備える。   As described above, the input device according to the present invention specifies the movement of the input operation detected by the surface planar member, and is associated with the first operation of the application that executes a predetermined operation. The first input detection means for generating the first input signal corresponding to the input operation movement and the movement of the input operation detected by the back surface member are identified or not detected from the detection of the back surface member. The movement of the input operation for detection is identified, and the movement of the identified input operation in the planar member on the back surface associated with the second movement accompanying the first movement of the application is identified. Second input detection means for generating a second input signal.

また、本発明の入力装置の制御方法は、表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出ステップと、裏面の面状部材が検出した入力操作の動きを特定して、前記アプリケーションの前記第1方向とは異なる第2方向への動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出ステップと、を含む。   In the input device control method of the present invention, the movement of the input operation detected by the surface planar member is identified and associated with the operation in the first direction of the application that executes the predetermined operation. A first input detection step for generating a first input signal corresponding to the identified input operation movement is different from the first direction of the application by identifying the input operation movement detected by the planar member on the back surface. And a second input detecting step of generating a second input signal corresponding to the movement of the specified input operation in the planar member on the back surface associated with the movement in the second direction.

それゆえ、二つの入力面から入力する、操作性及び利便性に優れた入力装置および入力装置の制御方法をユーザに提供することができる。   Therefore, it is possible to provide the user with an input device that is input from two input surfaces and has excellent operability and convenience, and an input device control method.

本実施の形態について図1〜図11に基づいて説明すると以下の通りである。   This embodiment will be described below with reference to FIGS.

本実施の形態に係るデータ表示/センサ装置100(入力装置)は、概略的に言えば、第1表示/光センサ部300A(表面の面状部材)が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出部810a(第1入力検出手段)と、第2表示/光センサ部300B(裏面の面状部材)が検出した入力操作の動きを特定して、前記アプリケーションの第1方向とは異なる第2方向への動作に対応付けられた、第2表示/光センサ部300Bにおける前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出部810b(第2入力検出手段)と、を備える装置である。   Generally speaking, the data display / sensor device 100 (input device) according to the present embodiment specifies the movement of the input operation detected by the first display / light sensor unit 300A (surface planar member). First input detection unit 810a (first input detection means) that generates a first input signal corresponding to the movement of the specified input operation associated with the movement of the application that executes the predetermined movement in the first direction ) And the movement of the input operation detected by the second display / light sensor unit 300B (the sheet member on the back surface) are identified and associated with the movement in the second direction different from the first direction of the application. And a second input detection unit 810b (second input detection means) that generates a second input signal corresponding to the movement of the specified input operation in the second display / light sensor unit 300B.

そこで、まず、データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301の概要について説明する。但し、データ表示/センサ装置100は、必ずしもセンサ内蔵液晶パネル301を使用する必要はなく、他のタッチパネル(例えば抵抗膜方式)を使用する構成であってもよい。   First, an outline of the sensor built-in liquid crystal panel 301 included in the data display / sensor device 100 will be described. However, the data display / sensor device 100 does not necessarily need to use the sensor built-in liquid crystal panel 301, and may be configured to use another touch panel (for example, a resistive film type).

(センサ内蔵液晶パネルの概要)
前記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
(Outline of LCD panel with built-in sensor)
The sensor built-in liquid crystal panel 301 included in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図3(a)および図3(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the photodiode 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、前記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(データ表示/センサ装置の要部構成)
次に、図4を参照しながら、前記データ表示/センサ装置100の要部構成について説明する。図4は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。ここでは、データ表示/センサ装置100は、表示/光センサ部300を2つ(第1表示/光センサ部300Aおよび第2表示/光センサ部300B)備えているものとして説明する。なお、第1表示/光センサ部300Aおよび第2表示/光センサ部300Bを区別しないときは、表示/光センサ部300と表記する。
(Data display / sensor configuration)
Next, the configuration of the main part of the data display / sensor device 100 will be described with reference to FIG. FIG. 4 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in FIG. As illustrated, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909. Here, the data display / sensor device 100 will be described as including two display / light sensor units 300 (first display / light sensor unit 300A and second display / light sensor unit 300B). When the first display / light sensor unit 300A and the second display / light sensor unit 300B are not distinguished, they are referred to as the display / light sensor unit 300.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、前記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、前記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行わせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、前記スイッチの例としては、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hardware switch such as a power switch 905 that switches power on and off and a user switch 906 to which a predetermined function is assigned in advance is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 such as the above may be provided as appropriate.

(コマンドの詳細)
次に、図5および図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram schematically illustrating an example of a command frame structure. FIG. 6 is a diagram for explaining an example of values that can be specified for each field included in the command and an outline thereof.

図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図6に示す値が指定可能である。   As shown in FIG. 5, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 6 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” designates that the latest data is transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、前記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、前記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits the extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、前記代表座標とは、例えば、前記部分画像データの中心の座標、前記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、前記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、前記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” designates that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「スキャン解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “scan resolution” field, for example, values of “0” (high) and “1” (low) can be designated.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “scan panel” field is a field for designating which display / light sensor unit 300 is to scan the object. In the “scan panel” field, for example, values “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、「スキャンパネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aの光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   When the sensor data processing unit 703 receives a command whose “scan panel” field value is “first display / photosensor unit 300A”, the sensor data processing unit 703 and the photosensor drive circuit 305 of the first display / photosensor unit 300A and An instruction is given to the sensor control unit 602 and the backlight control unit 603 so as to control the backlight drive circuit 308.

次に、「表示パネル」フィールドは、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「表示パネル」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field is a field for designating which display / light sensor unit 300 displays the display data. In the “display panel” field, for example, values of “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aに表示データを表示させるために、第1表示/光センサ部300Aの液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   Here, for example, when the display data processing unit 701 receives a command whose value of the “display panel” field is “first display / light sensor unit 300A”, the display data processing unit 701 displays the display data on the first display / light sensor unit 300A. Therefore, an instruction is given to the display control unit 601 and the backlight control unit 603 to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the first display / light sensor unit 300A.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、前記コマンドの「スキャン解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “scan resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「スキャン解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “scan resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301. The image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor built-in liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 7B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than that in the image data shown in FIG. In the image data shown in FIG. 7B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

(センサ内蔵液晶パネルの構成)
次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 8 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称して用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. Note that the pixel circuit 31 is a generic term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)にn個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) m and in the row direction (horizontal direction) n. A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード6のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード6に光が入射されると、入射した光量に応じた電流がフォトダイオード6に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード6のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage according to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 6 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 6, a current corresponding to the amount of incident light flows through the photodiode 6. And according to the said electric current, the voltage of the connection point (henceforth connection node V) of the other electrode of the capacitor | condenser 35 and the cathode terminal of the photodiode 6 falls. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。
〔実施の形態1〕
本発明の主な特徴は、データ表示/センサ装置100では、第1表示/光センサ部300Aが検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出部810aと、第2表示/光センサ部300Bが検出した入力操作の動きを特定して、前記アプリケーションの第1方向とは異なる第2方向への動作に対応付けられた、第2表示/光センサ部300Bにおける前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出部810bと、を備える点にある。
The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).
[Embodiment 1]
The main feature of the present invention is that in the data display / sensor device 100, the movement of the input operation detected by the first display / light sensor unit 300A is specified, and the operation in the first direction of the application for executing a predetermined operation is performed. The first input detection unit 810a that generates the first input signal corresponding to the identified input operation movement, and the input operation movement detected by the second display / light sensor unit 300B are identified. Generating a second input signal corresponding to the movement of the specified input operation in the second display / light sensor unit 300B, which is associated with an operation of the application in a second direction different from the first direction. And an input detection unit 810b.

これにより、データ表示/センサ装置100では、前記アプリケーションの第1方向への動作に対応付けられた第1入力信号が第1入力検出部810aによって、アプリケーションの第1方向とは異なる第2方向への動作に対応付けられた第2入力信号が第2入力検出部810bによって、それぞれ生成される。そして、第1及び第2入力信号に基づいて、アプリケーションは、第1及び第2方向への動作が、別々に、あるいは、融合して実行される。   As a result, in the data display / sensor device 100, the first input signal associated with the operation of the application in the first direction is moved by the first input detection unit 810a in a second direction different from the first direction of the application. Second input signals associated with the operations are respectively generated by the second input detection unit 810b. Based on the first and second input signals, the application executes operations in the first and second directions separately or in combination.

従って、表裏両面の面状部材が様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な操作が実現される。つまり、表面からの入力操作によるアプリケーションの第1方向への動作と、裏面からの入力操作によるアプリケーションの第2方向への動作とが融合されることにより、その多彩な操作が実現される。しかも、その第1及び第2方向への動作として種々の動作を割り当てておけば、さらに多彩な操作を実現しうる。加えて、入力装置は板状であるため、ユーザは、その裏表両面を指で挟持するようにして上記多彩な操作を容易に体感することができる。   Accordingly, the surface members on both the front and back surfaces detect various input operation movements, thereby realizing various operations that could not be realized with the conventional input device. In other words, a variety of operations are realized by combining the operation in the first direction of the application by the input operation from the front surface and the operation in the second direction of the application by the input operation from the back surface. In addition, if various operations are assigned as the operations in the first and second directions, more various operations can be realized. In addition, since the input device is plate-shaped, the user can easily experience the various operations described above by sandwiching the front and back surfaces with fingers.

このように、データ表示/センサ装置100は、優れた操作性及び利便性をユーザに提供することができる。
(データ表示/センサ装置100の動作説明)
実施の形態1に係るデータ表示/センサ装置100について、図1、図9〜図11を参照して説明する。
Thus, the data display / sensor device 100 can provide the user with excellent operability and convenience.
(Description of data display / operation of sensor device 100)
The data display / sensor device 100 according to the first embodiment will be described with reference to FIGS. 1 and 9 to 11.

なお、最初に、データ表示/センサ装置100が実行する動作の具体例を図9を参照して説明する。次に、データ表示/センサ装置100の構成を図1、図10を参照して説明する。そして、その動作を実現する処理の流れを図11を参照して説明する。   First, a specific example of the operation performed by the data display / sensor device 100 will be described with reference to FIG. Next, the configuration of the data display / sensor device 100 will be described with reference to FIGS. Then, the flow of processing for realizing the operation will be described with reference to FIG.

また、データ表示/センサ装置100は、第1表示/光センサ部300A、あるいは第2表示/光センサ部300Bの何れに画像を表示させてもよいが、本実施の形態では、第1表示/光センサ部300Aに画像を表示するものとして説明する。なお、第1表示/光センサ部300Aは、図9において図面手前側に位置する。
(表示画像に対して実行される動作)
以下、図9の概要を説明する。
The data display / sensor device 100 may display an image on either the first display / light sensor unit 300A or the second display / light sensor unit 300B. Description will be made assuming that an image is displayed on the optical sensor unit 300A. Note that the first display / light sensor unit 300A is located on the front side of the drawing in FIG.
(Operations performed on the display image)
The outline of FIG. 9 will be described below.

図9(a)は、ある地域を上空から撮影した写真(以降、このように上空から撮影した写真を鳥瞰写真と称する)が第1表示/光センサ部300Aに表示された状態を示す図である。   FIG. 9A is a diagram showing a state in which a photograph of a certain region taken from above (hereinafter, a photograph taken from above is referred to as a bird's-eye view) is displayed on the first display / light sensor unit 300A. is there.

図9(b)は、図9(a)で示される地域を中心とした周辺地域の鳥瞰写真が表示された状態を示す図であり、その鳥瞰写真は、図9(a)の時よりもさらに上空から当該地域を撮影した時の写真である。なお、図9(a)から図9(b)への変化は、ユーザが、第2表示/光センサ部300Bを人差し指でタッチして、その指が所定の方向(以下、A方向)に一定量移動することによって得られる。   FIG. 9B is a diagram showing a state in which a bird's-eye view of the surrounding area centering on the region shown in FIG. 9A is displayed. The bird's-eye view is more than that in FIG. 9A. Furthermore, it is a picture when the area is photographed from the sky. Note that the change from FIG. 9A to FIG. 9B is that the user touches the second display / light sensor unit 300B with the index finger, and the finger is constant in a predetermined direction (hereinafter referred to as A direction). Obtained by moving the amount.

図9(c)は、図9(b)で示される地域を中心とした周辺地域の鳥瞰写真が表示された状態を示す図であり、その鳥瞰写真は、図9(b)の時よりもさらに上空から当該地域を撮影した時の写真である。なお、図9(b)から図9(c)への変化は、ユーザが、第2表示/光センサ部300Bを人差し指でタッチして、その指がA方向に一定量移動することによって得られる。   FIG. 9C is a diagram showing a state in which a bird's-eye view of the surrounding area centered on the region shown in FIG. 9B is displayed. The bird's-eye view is more than that in FIG. 9B. Furthermore, it is a picture when the area is photographed from the sky. The change from FIG. 9B to FIG. 9C is obtained when the user touches the second display / light sensor unit 300B with the index finger and the finger moves a certain amount in the A direction. .

図9(d)は、図9(c)で示される地域とは異なる地域が中心位置に移った鳥瞰写真が表示された状態を示す図である。図9(c)から図9(d)への変化は、ユーザが、第1表示/光センサ部300Aを親指でタッチして、その指を所定の方向(以下、B方向)に一定量移動させると共に、第2表示/光センサ部300Bを人差し指でタッチして、その指をA方向に一定量移動させることによって得られる。なお、第1表示/光センサ部300Aをタッチした親指がB方向に動くことによって、図9(a)〜図9(c)において表示画面の中心位置にあった地域とは異なる地域が表示画面の中心に移動する。   FIG. 9D is a diagram illustrating a state in which a bird's-eye view in which a region different from the region illustrated in FIG. 9C has moved to the center position is displayed. The change from FIG. 9C to FIG. 9D is that the user touches the first display / light sensor unit 300A with the thumb and moves the finger in a predetermined direction (hereinafter referred to as B direction) by a certain amount. The second display / light sensor unit 300B is touched with an index finger, and the finger is moved by a certain amount in the A direction. In addition, when the thumb touching the first display / light sensor unit 300A moves in the B direction, an area different from the area at the center of the display screen in FIGS. 9A to 9C is displayed. Move to the center of

図9(e)は、図9(d)の中心地域を中心とした周辺地域の鳥瞰写真が表示された状態を示す図であり、その鳥瞰写真は、図9(d)よりも上空から当該地域を撮影した時の写真である。なお、図9(d)から図9(e)への変化は、ユーザが、第2表示/光センサ部300Bを人差し指でタッチして、その指がA方向に一定量移動することによって得られる。   FIG. 9 (e) is a diagram showing a state in which a bird's-eye view of the surrounding area centered on the central area of FIG. 9 (d) is displayed. The bird's-eye view is from the sky above FIG. 9 (d). This is a picture taken when the area was photographed. The change from FIG. 9D to FIG. 9E is obtained when the user touches the second display / light sensor unit 300B with the index finger and the finger moves a certain amount in the A direction. .

図9(f)は、図9(e)で示される地域を中心とした周辺地域の鳥瞰写真が表示された状態を示す図であり、その鳥瞰写真は、図9(e)よりも低空から当該地域を撮影した時の写真である。なお、図9(e)から図9(f)への変化は、ユーザが、第2表示/光センサ部300Bを人差し指でタッチして、その指が所定の方向(以下、A’方向と称する。なお、A’方向は、A方向とは逆の方向である)に一定量移動することによって得られる。   FIG. 9 (f) is a diagram showing a state in which a bird's-eye view of the surrounding area centered on the region shown in FIG. 9 (e) is displayed. The bird's-eye view is from a lower sky than FIG. 9 (e). This is a picture taken when the area is photographed. Note that the change from FIG. 9E to FIG. 9F is that the user touches the second display / light sensor unit 300B with the index finger and the finger is referred to as a predetermined direction (hereinafter referred to as A ′ direction). Note that the A ′ direction is obtained by moving a certain amount in the direction opposite to the A direction).

図9(g)は、図9(f)で示される地域を中心とした周辺地域の鳥瞰写真が表示された状態を示す図であり、その鳥瞰写真は、図9(f)よりも低空から当該地域を撮影した時の写真である。なお、図9(f)から図9(e)への変化は、ユーザが、第2表示/光センサ部300Bを人差し指でタッチして、その指がA’方向に一定量移動することによって得られる。   FIG. 9G is a diagram showing a state in which a bird's-eye view of the surrounding area centered on the region shown in FIG. 9F is displayed. The bird's-eye view is from a lower altitude than FIG. This is a picture taken when the area is photographed. Note that the change from FIG. 9F to FIG. 9E is obtained when the user touches the second display / light sensor unit 300B with the index finger and the finger moves a certain amount in the A ′ direction. It is done.

ここで、第1表示/光センサ部300AにX軸、Y軸が設定されているとすれば、図9(c)から図9(d)への変化は、XY座標によって規定される方向(第1方向)における変化である。また、第2表示/光センサ部300BにX軸、Y軸と共に3次元を規定するZ軸が設定されているとすれば、図9(a)から図9(b)への変化は、Z軸方向(第2方向)における変化である。つまり、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検出した入力操作の動きによって、互いに異なる方向である第1及び第2方向への動作が実現される。
(表示画像に対して実行される動作の具体的説明)
次に、図9(a)〜図9(f)を参照して説明した上記各動作のうち、代表的な動作をより具体的に説明する。
Here, if the X axis and the Y axis are set in the first display / light sensor unit 300A, the change from FIG. 9C to FIG. 9D is the direction defined by the XY coordinates ( It is a change in the first direction). Also, assuming that the second display / light sensor unit 300B is set with a Z axis that defines three dimensions together with the X axis and the Y axis, the change from FIG. 9A to FIG. This is a change in the axial direction (second direction). That is, the movement in the first and second directions, which are different from each other, is realized by the movement of the input operation detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B.
(Specific description of operation performed on display image)
Next, typical operations among the operations described with reference to FIGS. 9A to 9F will be described more specifically.

まず、図9(a)から図9(b)へ表示写真が変化する動作を説明する。図9(a)に示すように、第1表示/光センサ部300Aにはある地域の鳥瞰写真が表示されている。この状態で、第2表示/光センサ部300Bは、人差し指の像を検知すると共に、その指の像がA方向(説明の便宜上、図面上向きとする)に一定量移動したことを検知する。この動作により、第1表示/光センサ部300Aには、さらに上空から当該地域を撮影した時の写真が表示される(図9(b))。   First, the operation of changing the displayed photograph from FIG. 9A to FIG. 9B will be described. As shown in FIG. 9A, a bird's-eye view of a certain area is displayed on the first display / light sensor unit 300A. In this state, second display / light sensor unit 300B detects the image of the index finger and also detects that the image of the finger has moved a certain amount in the A direction (for the sake of convenience, it is upward in the drawing). By this operation, the first display / light sensor unit 300A further displays a photograph when the area is photographed from the sky (FIG. 9B).

つまり、第2表示/光センサ部300Bが、人差し指の像がA方向に移動したことを検知して、それにより、第1表示/光センサ部300Aに表示される写真が図9(a)よりも上空から当該地域を撮影した時の写真として表示される(以降、このことを地図の縮小と称する)。なお、地図が縮小する割合は、A方向に移動した像の移動量により決まり、像の移動量が多いほど縮小率が高くなり、像の移動量が少ないほど縮小率が小さくなる。   That is, the second display / light sensor unit 300B detects that the image of the index finger has moved in the A direction, whereby a photograph displayed on the first display / light sensor unit 300A is shown in FIG. 9A. Is also displayed as a photograph when the area is photographed from above (this is hereinafter referred to as map reduction). The rate at which the map is reduced is determined by the amount of movement of the image moved in the A direction. The larger the amount of movement of the image, the higher the reduction rate, and the smaller the amount of movement of the image, the smaller the reduction rate.

上記動作とは逆に、図9(e)から図9(f)へ表示写真が変化する動作は、第2表示/光センサ部300Bが、人差し指の像を検知すると共に、その指の像がA’方向(図面下向きとする)に一定量移動したことを検知することによって実現される。   Contrary to the above operation, when the display photograph changes from FIG. 9E to FIG. 9F, the second display / light sensor unit 300B detects the image of the index finger and the image of the finger is changed. This is realized by detecting a certain amount of movement in the A ′ direction (downward in the drawing).

つまり、第2表示/光センサ部300Bが、人差し指の像がA’方向に移動したことを検知して、それにより、第1表示/光センサ部300Aに表示される写真が図9(e)よりも低空から当該地域を撮影した時の写真として表示される(以降、このことを地図の拡大と称する)。なお、地図が拡大する割合は、A’方向に移動した像の移動量により決まり、像の移動量が多いほど拡大率が高くなり、像の移動量が少ないほど拡大率が小さくなる。   That is, the second display / light sensor unit 300B detects that the image of the index finger has moved in the A ′ direction, whereby a photograph displayed on the first display / light sensor unit 300A is shown in FIG. It is displayed as a picture when the area is photographed from a lower altitude (hereinafter, this is referred to as enlargement of the map). The rate at which the map is enlarged is determined by the amount of movement of the image moved in the A ′ direction. The larger the amount of movement of the image, the higher the enlargement rate. The smaller the amount of movement of the image, the smaller the enlargement rate.

続いて、図9(c)から図9(d)へ表示写真が変化する動作のうち、第1表示/光センサ部300Aの中心位置に表示される地域が移動する動作について説明する。   Next, of the operations in which the displayed photograph changes from FIG. 9C to FIG. 9D, the operation in which the area displayed at the center position of the first display / light sensor unit 300A moves will be described.

図9(c)に示すように、第1表示/光センサ部300Aにはある地域の鳥瞰写真が表示されている。この状態で、第1表示/光センサ部300Aは、親指の像を検知すると共に、その指の像がB方向(説明の便宜上、図面左方向とする)に一定量移動したことを検知する。   As shown in FIG. 9C, a bird's-eye view of a certain area is displayed on the first display / light sensor unit 300A. In this state, the first display / light sensor unit 300A detects the thumb image and also detects that the finger image has moved a certain amount in the B direction (for the sake of convenience, the left direction in the drawing).

この動作により、第1表示/光センサ部300Aには、図9(c)で示される地域とは異なる地域が中心位置に移った鳥瞰写真が表示される(図9(d))。つまり、第1表示/光センサ部300Aが、親指の像がB方向に移動したことを検知し、これにより、第1表示/光センサ部300Aに表示される写真の中心地域が、図9(c)では画面東側に位置していた地域が中心位置に移動する(以降、このことを地図の移動と称する。)。   By this operation, a bird's-eye view photo in which an area different from the area shown in FIG. 9C is moved to the center position is displayed on the first display / light sensor unit 300A (FIG. 9D). That is, the first display / light sensor unit 300A detects that the image of the thumb has moved in the B direction, whereby the central area of the photograph displayed on the first display / light sensor unit 300A is shown in FIG. In c), the area located on the east side of the screen moves to the center position (hereinafter referred to as map movement).

なお、地図の移動量は、B方向に移動した像の移動量により決まり、像の移動量が多いほど移動量は増え、像の移動量が少ないほど移動量は小さくなる。また、B方向は東西南北何れの方向でもよく、その親指の動きにより、親指を動かした方向とは逆の方向に位置していた、第1表示/光センサ部300Aに表示されていなかった地域が、第1表示/光センサ部300Aに表示されるようになる。   The amount of movement of the map is determined by the amount of movement of the image moved in the B direction. The amount of movement increases as the amount of movement of the image increases, and the amount of movement decreases as the amount of movement of the image decreases. Further, the direction B may be any direction from east to west, north and south, and is located in the direction opposite to the direction in which the thumb is moved due to the movement of the thumb and is not displayed on the first display / light sensor unit 300A. Is displayed on the first display / light sensor unit 300A.

なお、上記説明では親指及び人差し指により上記各動作を実現しているが、どの指を使用してもよい。つまり、何れかの指を使って、表示/光センサ部300に指の像の動きを検知させればよく、そのことが、第1表示/光センサ部300Aに表示された地図に対して所定の動作を実行する前提となる。また、表示/光センサ部300による指の像の検知は、第1表示/光センサ部300A及び/又は第2表示/光センサ部300Bを実際に指が触る(タッチする)必要はなく、表示/光センサ部300がその指の像を検知すればよい。但し、以降の説明では、説明の便宜上、上面(第1表示/光センサ部300A)側から親指で、下面(第2表示/光センサ部300B)側から人差し指で、表示/光センサ部300をタッチするものとして説明する。   In the above description, the above operations are realized by the thumb and the index finger, but any finger may be used. In other words, any finger may be used to cause the display / light sensor unit 300 to detect the movement of the finger image, which is predetermined with respect to the map displayed on the first display / light sensor unit 300A. It is a precondition to execute the operation. The detection of the finger image by the display / light sensor unit 300 does not require the finger to actually touch (touch) the first display / light sensor unit 300A and / or the second display / light sensor unit 300B. / The optical sensor unit 300 may detect the image of the finger. However, in the following description, for convenience of explanation, the display / light sensor unit 300 is moved with the thumb from the upper surface (first display / light sensor unit 300A) side and the index finger from the lower surface (second display / light sensor unit 300B) side. It will be described as touching.

さらに、第1表示/光センサ部300Aに表示される画像は地図であるとして説明しているが、必ずしも地図である必要はなく、XYZ軸により規定される3次元の動作を実行するアプリケーションが機能することによって表示される他の画像でもよい。但し、本実施の形態では、第1表示/光センサ部300Aに表示される画像は地図であるものとして説明する。   Furthermore, although the image displayed on the first display / light sensor unit 300A is described as a map, it is not necessarily a map, and an application that executes a three-dimensional operation defined by the XYZ axes functions. Other images displayed by doing so may be used. However, in the present embodiment, the description will be made assuming that the image displayed on first display / light sensor unit 300A is a map.

また、親指と人差し指の動きの速度については特に言及しないが、その指の像の動きに対応付けられた動作は、指の動きの速度に応じて実行される。   Although the speed of movement of the thumb and index finger is not particularly mentioned, the movement associated with the movement of the image of the finger is executed according to the speed of movement of the finger.

以上、図9(a)〜図9(g)を参照して、指の像の動きに対応して実行される種々の動作の具体例を説明した。なお、前記説明では、親指と人差し指の移動方向、及び移動量と実行される動作とを対応付けて説明したが、実行される動作は、前記の各動作(移動、拡大・縮小)に限定されない。つまり、指の像の動きと実行される動作とを対応付けて後述する指−命令対応情報テーブルに予め登録しておけば、種々の動作を実現することができる。   The specific examples of the various operations executed in response to the movement of the finger image have been described above with reference to FIGS. 9 (a) to 9 (g). In the above description, the movement direction of the thumb and forefinger, the movement amount, and the action to be executed are associated with each other. However, the action to be executed is not limited to the above-described actions (movement, enlargement / reduction). . That is, if the movement of the finger image and the action to be executed are associated with each other and registered in a finger-command correspondence information table described later, various actions can be realized.

ここで、第2表示/光センサ部300Bが検知する指の像の移動方向であるが、例えば次のような方法で特定することができる。つまり、第2表示/光センサ部300Bに基準軸(X・Y軸)を定めておき、その第2表示/光センサ部300Bが検知する像が、Y軸の正の方向に移動すれば表示画像が拡大し、Y軸の負の方向に移動すれば表示画像が縮小、というように決めておけばよい。このようにして、第2表示/光センサ部300Bが検知する指の像の移動方向が特定される。   Here, the moving direction of the finger image detected by the second display / light sensor unit 300B can be specified by the following method, for example. That is, a reference axis (X / Y axis) is set for the second display / light sensor unit 300B, and the image detected by the second display / light sensor unit 300B is displayed if it moves in the positive direction of the Y axis. It may be determined that the image is enlarged and the display image is reduced if the image moves in the negative direction of the Y axis. In this manner, the moving direction of the finger image detected by the second display / light sensor unit 300B is specified.

また、第2表示/光センサ部300Bが検知する指の像の移動量は、指の像を上基準座標(X・Y)により特定することにより、その座標の変化から、指の像の移動量を特定することができる。そして、その移動量に応じて、表示画像の拡大・縮小を動作させればよい。   Further, the movement amount of the finger image detected by the second display / light sensor unit 300B is determined by specifying the finger image by the upper reference coordinates (X · Y), and the movement of the finger image is determined based on the change in the coordinates. The amount can be specified. Then, the display image may be enlarged or reduced according to the amount of movement.

また、前述したように、実行される動作は、前記の各動作(移動、拡大・縮小)に限定されない。そして、その種々の実行される動作は、アプリケーション、モード等の動作する状態(場面)に応じて異なるようにすることも可能である。   Further, as described above, the operation to be executed is not limited to the above-described operations (movement, enlargement / reduction). The various operations to be executed can be made different depending on the operating state (scene) of the application, the mode, and the like.

(データ表示/センサ装置の要部説明)
次に、図1を参照しながら、データ表示/センサ装置100の詳細な構成を説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、画像の表示および画像の検知を行うにあたり、主制御部800の入力インターフェース制御部805が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
(Explanation of main parts of data display / sensor device)
Next, a detailed configuration of the data display / sensor device 100 will be described with reference to FIG. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted. However, to be precise, when performing image display and image detection, the input interface control unit 805 of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 performs circuit control based on the command. The circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図1は、データ表示/センサ装置100の要部構成を表すブロック図である。図示のように、主制御部800は、入力インターフェース制御部805と、アプリケーション実行部850(動作実行装置)と、を備える。また、入力インターフェース制御部805は、入力検出部810と、画像表示制御部860(画像表示制御手段)と、を備える。   FIG. 1 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in the figure, the main control unit 800 includes an input interface control unit 805 and an application execution unit 850 (operation execution device). The input interface control unit 805 includes an input detection unit 810 and an image display control unit 860 (image display control means).

入力検出部810は、第1入力検出部810aと第2入力検出部810bとを備える。第1入力検出部810aは、第1表示/光センサ部300Aが指の像を検知したとき、座標データ、全体画像データ、部分画像データをデータ処理部700から取得する。そして、第1表示/光センサ部300AにはX軸、Y軸が設定されており(図7等参照)、第1入力検出部810aは、第1表示/光センサ部300Aが検知した指の像の動きをXY座標により特定し、そのXY座標に対応する第1入力信号を生成する。そして、第1入力検出部810aは、その第1入力信号をアプリケーション実行部850に出力する。   The input detection unit 810 includes a first input detection unit 810a and a second input detection unit 810b. The first input detection unit 810 a acquires coordinate data, whole image data, and partial image data from the data processing unit 700 when the first display / light sensor unit 300 </ b> A detects a finger image. The first display / light sensor unit 300A has an X axis and a Y axis (see FIG. 7 and the like), and the first input detection unit 810a detects the finger detected by the first display / light sensor unit 300A. The movement of the image is specified by XY coordinates, and a first input signal corresponding to the XY coordinates is generated. Then, the first input detection unit 810a outputs the first input signal to the application execution unit 850.

なお、第1入力検出部810aは、そのXY座標を示す情報をそのまま第1入力信号としてアプリケーション実行部850に出力してもよい。あるいは、第1入力検出部810aは、後述する第1指−命令対応情報(第1命令対応情報)に基づいて、特定したXY座標が対応付けられた命令を示す第1入力信号をアプリケーション実行部850に出力してもよい。   The first input detection unit 810a may output the information indicating the XY coordinates as it is to the application execution unit 850 as the first input signal. Alternatively, the first input detection unit 810a generates a first input signal indicating a command associated with the specified XY coordinates based on first finger-command correspondence information (first command correspondence information) to be described later. You may output to 850.

第2入力検出部810bは、第2表示/光センサ部300Bが指の像を検知したとき、座標データ、全体画像データ、部分画像データをデータ処理部700から取得する。そして、第2入力検出部810bは、第2表示/光センサ部300Bが検知した指の像の動きを前記X軸・Y軸と共に3次元を規定するZ軸上の移動量及び移動方向として特定し、その特定したZ軸上の移動量及び移動方向に対応する第2入力信号を生成する。そして、第2入力検出部810bは、その第2入力信号をアプリケーション実行部850に出力する。   The second input detection unit 810b acquires coordinate data, whole image data, and partial image data from the data processing unit 700 when the second display / light sensor unit 300B detects a finger image. Then, the second input detection unit 810b specifies the movement of the finger image detected by the second display / light sensor unit 300B as the movement amount and movement direction on the Z axis that defines three dimensions together with the X axis and the Y axis. Then, a second input signal corresponding to the identified movement amount and movement direction on the Z axis is generated. Then, the second input detection unit 810b outputs the second input signal to the application execution unit 850.

なお、第2入力検出部810bは、第2表示/光センサ部300Bが検知した指の像の移動量及び移動方向をそのまま第2入力信号としてアプリケーション実行部850に出力してもよい。あるいは、第2入力検出部810bは、後述する第2指−命令対応情報(第2命令対応情報)に基づいて、特定したZ軸上の移動量及び移動方向が対応付けられた命令を示す第2入力信号をアプリケーション実行部850に出力してもよい。   Note that the second input detection unit 810b may output the movement amount and movement direction of the finger image detected by the second display / light sensor unit 300B to the application execution unit 850 as they are as the second input signal. Alternatively, the second input detection unit 810b is a first command that indicates a command in which the identified movement amount and movement direction on the Z axis are associated with each other based on second finger-command correspondence information (second command correspondence information) described later. Two input signals may be output to the application execution unit 850.

ここで、入力検出部810(第1入力検出部810aと第2入力検出部810bとを区別する必要がない場合には、以降の説明では、入力検出部810と総称する)は、座標データ、全体画像データ、部分画像データをすべて取得する必要はなく、上記各データを適宜選択して取得する構成であってもよい。   Here, the input detection unit 810 (when there is no need to distinguish between the first input detection unit 810a and the second input detection unit 810b, in the following description, the input detection unit 810 is collectively referred to as coordinate data, It is not necessary to acquire all of the entire image data and partial image data, and a configuration in which each of the above data is appropriately selected and acquired may be employed.

また、図1では、データ処理部700から入力検出部810へ送信される座標データ、全体画像データ、部分画像データが実線及び破線で記載されている。これは、第1入力検出部810aが第1表示/光センサ部300Aから、及び第2入力検出部810bが第2表示/光センサ部300Bから、それぞれ座標データ、全体画像データ、部分画像データを取得する構成を示すものであり、前者を実線で、後者を破線で示している。   Further, in FIG. 1, coordinate data, whole image data, and partial image data transmitted from the data processing unit 700 to the input detection unit 810 are indicated by solid lines and broken lines. The first input detection unit 810a receives coordinate data, whole image data, and partial image data from the first display / light sensor unit 300A, and the second input detection unit 810b receives the second display / light sensor unit 300B, respectively. The configuration to be acquired is shown. The former is indicated by a solid line and the latter is indicated by a broken line.

次に、入力検出部810が記憶部901から読み出す第1指−命令対応情報、及び第2指−命令対応情報について、図10を参照して説明する。なお、図1では、記憶部901はデータ表示/センサ装置100の外部に設けられている。しかしながら、記憶部901はデータ表示/センサ装置100の内部に設けられる構成であってもよい。   Next, the first finger-command correspondence information and the second finger-command correspondence information that the input detection unit 810 reads from the storage unit 901 will be described with reference to FIG. In FIG. 1, the storage unit 901 is provided outside the data display / sensor device 100. However, the storage unit 901 may be configured to be provided inside the data display / sensor device 100.

図10は、アプリケーションが地図である場合における指−命令対応情報の一例を示す図であり、図10(a)は第1指−命令対応情報を、図10(b)は第2指−命令対応情報を示すテーブルである。   FIG. 10 is a diagram illustrating an example of finger-command correspondence information when the application is a map. FIG. 10A illustrates first finger-command correspondence information, and FIG. 10B illustrates second finger-command correspondence information. It is a table which shows correspondence information.

まず、図10(a)について説明する。図10(a)は、第1指−命令対応情報を示すテーブルであり、2つの項目(XY座標、命令)からなる。つまり、第1表示/光センサ部300AにはX軸、Y軸が設定されており、第1入力検出部810aは、第1表示/光センサ部300Aが検知した指の像の動きをXY座標により特定する。そして、第1入力検出部810aは、その特定したXY座標から、指の像の動きを移動ベクトルとして算出する。具体的には、図7を参照して説明したように、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)で表され、部分画像データ(領域PP)における座標データは(Xp,Yp)として表される。従って、第1入力検出部810aは、親指の像の移動前後における上記座標データを取得して、その座標データの差分を計算することにより、親指の像の移動ベクトルを算出することができる。   First, FIG. 10A will be described. FIG. 10A is a table showing first finger-command correspondence information, and is composed of two items (XY coordinates, command). That is, the X axis and the Y axis are set in the first display / light sensor unit 300A, and the first input detection unit 810a detects the movement of the finger image detected by the first display / light sensor unit 300A in the XY coordinates. Specified. Then, the first input detection unit 810a calculates the motion of the finger image as a movement vector from the specified XY coordinates. Specifically, as described with reference to FIG. 7, the coordinate data in the entire image data (region AP) of the representative coordinate Z of the partial image data (region PP) is represented by (Xa, Ya), The coordinate data in the image data (region PP) is represented as (Xp, Yp). Accordingly, the first input detection unit 810a can calculate the movement vector of the thumb image by acquiring the coordinate data before and after the movement of the thumb image and calculating the difference of the coordinate data.

そして、第1入力検出部810aは、第1指−命令対応情報において、XY座標に対応する “命令”項目を読み出す。すると、対応する命令は、「移動ベクトルに従って地図を移動させる」であるため、第1入力検出部810aは、XY座標が対応付けられた当該命令を決定し、その命令を示す第1入力信号をアプリケーション実行部850に送信する。   Then, the first input detection unit 810a reads the “command” item corresponding to the XY coordinates in the first finger-command correspondence information. Then, since the corresponding command is “move the map according to the movement vector”, the first input detection unit 810a determines the command associated with the XY coordinates, and receives the first input signal indicating the command. The data is transmitted to the application execution unit 850.

一例として、表示画面の中心位置にあった地域とは異なる地域が表示画面の中心に移動する図9(c)から図9(d)への変化の場合について説明する。このとき、ユーザは、第1表示/光センサ部300Aを親指でタッチして、その指を所定の方向(以下、B方向)に一定量移動させている。第1入力検出部810aは、その指の像の動きから当該像の動きに係るXY座標を取得し、その移動ベクトルを算出する。そして、第1入力検出部810aは、その移動ベクトルに従って地図を移動させる命令を示す第1入力信号を生成し、その第1入力信号をアプリケーション実行部850に送信する。   As an example, the case of a change from FIG. 9C to FIG. 9D in which an area different from the area at the center position of the display screen moves to the center of the display screen will be described. At this time, the user touches the first display / light sensor unit 300A with the thumb and moves the finger in a predetermined direction (hereinafter referred to as B direction) by a certain amount. The first input detection unit 810a obtains XY coordinates related to the movement of the image from the movement of the image of the finger, and calculates the movement vector. Then, the first input detection unit 810a generates a first input signal indicating an instruction to move the map according to the movement vector, and transmits the first input signal to the application execution unit 850.

このようにして、第1入力検出部810aは、第1指−命令対応情報に基づいて、特定したXY座標が対応付けられた命令を決定し、該命令を示す第1入力信号をアプリケーション実行部850に送信する。   In this way, the first input detection unit 810a determines a command associated with the identified XY coordinates based on the first finger-command correspondence information, and sends the first input signal indicating the command to the application execution unit. To 850.

次に、図10(b)について説明する。図10(b)は、第2指−命令対応情報を示すテーブルであり、2つの項目(Z軸上の移動量及び移動方向、命令)からなる。つまり、第2表示/光センサ部300Bが検知した指の像の動きは前記X軸、Y軸と共に3次元を規定するZ軸上の移動量及び移動方向として特定されるため、第2入力検出部810bは、その特定したZ軸上の移動量及び移動方向から、Z軸上の移動量、及びZ軸上の移動方向(+/−)を算出する。   Next, FIG. 10B will be described. FIG. 10B is a table showing the second finger-command correspondence information, and includes two items (a movement amount and a movement direction on the Z axis, and a command). That is, since the movement of the finger image detected by the second display / light sensor unit 300B is specified as the movement amount and movement direction on the Z axis that defines three dimensions together with the X axis and the Y axis, the second input detection is performed. The unit 810b calculates the movement amount on the Z axis and the movement direction (+/−) on the Z axis from the identified movement amount and movement direction on the Z axis.

具体的には、図7を参照して説明したように、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)で表され、部分画像データ(領域PP)における座標データは(Xp,Yp)として表される。従って、第2入力検出部810bは、人差し指の像の移動前後における上記座標データを取得して、その座標データに基づいて、人差し指の像の移動量を算出することができる。   Specifically, as described with reference to FIG. 7, the coordinate data in the entire image data (region AP) of the representative coordinate Z of the partial image data (region PP) is represented by (Xa, Ya), The coordinate data in the image data (region PP) is represented as (Xp, Yp). Therefore, the second input detection unit 810b can acquire the coordinate data before and after the movement of the index finger image, and calculate the movement amount of the index finger image based on the coordinate data.

また、移動方向については、第2表示/光センサ部300Bに基準軸(X・Y軸)を定めておき、第2表示/光センサ部300Bが検知する指の像が、Y軸の正の方向に移動すれば“+”とし、Y軸の負の方向に移動すれば“−”とする。これにより、第2表示/光センサ部300Bが検知する指の像の移動方向を“+”、“−”により特定することができる。   As for the moving direction, the second display / light sensor unit 300B has a reference axis (X / Y axis), and the finger image detected by the second display / light sensor unit 300B is positive on the Y axis. “+” If moving in the direction, “−” if moving in the negative direction of the Y-axis. Thereby, the moving direction of the finger image detected by the second display / light sensor unit 300B can be specified by “+” and “−”.

そして、第2入力検出部810bは、上記方法により取得した移動量及び移動方向を、第1表示/光センサ部300Aに設定されたX軸、Y軸と共に3次元を規定するZ軸上の移動量及び移動方向として特定する。   Then, the second input detection unit 810b moves the movement amount and movement direction acquired by the above method on the Z axis that defines three dimensions together with the X axis and the Y axis set in the first display / light sensor unit 300A. Identified as quantity and direction of movement.

続いて、第2入力検出部810bは、第2指−命令対応情報において、Z軸上の移動方向に対応する “命令”項目を読み出す。すると、対応する命令は、「“+”であれば地図を拡大させる/“−”であれば地図を縮小させる」であるため、第2入力検出部810bは、Z軸上の移動方向に対応付けられた当該命令を決定する。同時に、第2入力検出部810bは、第2指−命令対応情報において、Z軸上の移動量に対応する “命令”項目を読み出す。すると、対応する命令は、「移動量に比例した割合で拡大・縮小を行う」であるため、第2入力検出部810bは、Z軸上の移動量に対応付けられた当該命令を決定する。そして、第2入力検出部810bは、上記2つの命令を示す第2入力信号をアプリケーション実行部850に送信する。   Subsequently, the second input detection unit 810b reads the “command” item corresponding to the movement direction on the Z axis in the second finger-command correspondence information. Then, since the corresponding command is “magnify the map if“ + ”/ shrink the map if“ − ””, the second input detection unit 810b corresponds to the movement direction on the Z axis. Determine the attached instruction. At the same time, the second input detection unit 810b reads the “command” item corresponding to the movement amount on the Z axis in the second finger-command correspondence information. Then, since the corresponding command is “enlarge / reduce at a rate proportional to the movement amount”, the second input detection unit 810b determines the command associated with the movement amount on the Z axis. Then, the second input detection unit 810b transmits a second input signal indicating the two instructions to the application execution unit 850.

ここで、「移動量に比例した割合で」とは、例えば画面のサイズに応じて移動量を10段階に区分し、段階1の移動量では5%の拡大・縮小を、段階2の移動量では10%の拡大・縮小をさせるようにすれば、算出した移動量に比例した割合で地図を拡大・縮小させることができる。なお、ここで説明した10段階は、あくまで一例であって、より多くの段階に分けてよい。段階が多いほど、より正確に移動量に比例した割合で地図の拡大・縮小が実行されるためである。あるいは、移動量を段階分けすることなく、移動量に比例した割合だけ、地図を拡大・縮小する構成でもよい。   Here, “in proportion to the amount of movement” means, for example, that the amount of movement is divided into 10 stages according to the size of the screen. Then, if the map is enlarged or reduced by 10%, the map can be enlarged or reduced at a rate proportional to the calculated movement amount. Note that the 10 steps described here are merely examples, and may be divided into more steps. This is because the larger the number of steps, the more accurately the map is scaled at a rate proportional to the amount of movement. Alternatively, the map may be enlarged or reduced by a proportion proportional to the movement amount without dividing the movement amount into stages.

このように、記憶部901に記憶された第1指−命令対応情報及び第2指−命令対応情報を読み出すようにすれば、入力検出部810は、特定したZ軸上の移動量及び移動方向が対応付けられた命令を決定し、該命令を示す第1入力信号及び第2入力信号をアプリケーション実行部850に送信することができる。   As described above, when the first finger-command correspondence information and the second finger-command correspondence information stored in the storage unit 901 are read, the input detection unit 810 moves the identified movement amount and movement direction on the Z axis. Can be determined, and a first input signal and a second input signal indicating the instruction can be transmitted to the application execution unit 850.

なお、上記説明では、アプリケーションが地図である場合を扱った。しかしながら、アプリケーションは地図に限定されない。また、実行されるアプリケーション、モード等の動作する状態(場面)ごとに、第1指−命令対応情報及び第2指−命令対応情報を予め準備し、記憶部901に登録しておいてよい。   In the above description, the application is a map. However, the application is not limited to a map. Further, the first finger-command correspondence information and the second finger-command correspondence information may be prepared in advance and registered in the storage unit 901 for each operating state (scene) such as an application to be executed and a mode.

アプリケーション実行部850は、入力検出部810から第1入力信号及び第2入力信号を受信して、その命令によって示される動作を実行する。そして、アプリケーション実行部850は、その動作の結果を示す情報である動作結果情報を画像表示制御部860に送信する。   The application execution unit 850 receives the first input signal and the second input signal from the input detection unit 810 and executes an operation indicated by the command. Then, the application execution unit 850 transmits operation result information that is information indicating a result of the operation to the image display control unit 860.

例えば、第1表示/光センサ部300Aが検知した指の像がA点からB点に移動し、その指の像の動きに対応付けられた命令が、「指の像がA点からB点へ移動した時の移動ベクトルに従って地図を移動させる」である場合、アプリケーション実行部850は、地図を移動ベクトルに従って移動させる処理を行う。そして、アプリケーション実行部850は、その動作の結果を示す動作結果情報を画像表示制御部860に送信する。   For example, the finger image detected by the first display / light sensor unit 300A moves from point A to point B, and the command associated with the movement of the finger image is “the finger image is point A to point B. In the case of “move the map according to the movement vector when moving to”, the application execution unit 850 performs a process of moving the map according to the movement vector. Then, the application execution unit 850 transmits operation result information indicating the result of the operation to the image display control unit 860.

次に、アプリケーション実行部850は、入力検出部810から第1入力信号および第2入力信号を受信して、各入力信号によって示される動作を実行し、さらに、その動作の結果を示す動作結果情報を画像表示制御部860に送信する。   Next, the application execution unit 850 receives the first input signal and the second input signal from the input detection unit 810, executes the operation indicated by each input signal, and further, operation result information indicating the result of the operation Is transmitted to the image display control unit 860.

なお、図1において、アプリケーション実行部850は主制御部800に含まれる構成である。しかしながら、主制御部800の外部にアプリケーション実行部850を設けて、外部通信部907を介して、所定の動作を実行する構成としてもよい。また、アプリケーション実行部850は、1または複数のアプリケーションを有してよい。   In FIG. 1, the application execution unit 850 is included in the main control unit 800. However, the application execution unit 850 may be provided outside the main control unit 800, and a predetermined operation may be executed via the external communication unit 907. Further, the application execution unit 850 may have one or a plurality of applications.

画像表示制御部860は、アプリケーション実行部850から動作結果情報を受信すると、データ処理部700に表示データを送信する。その表示データは、アプリケーション実行部850によって実行された動作結果を第1表示/光センサ部300Aに表示するようデータ処理部700に促すものである。   Upon receiving the operation result information from the application execution unit 850, the image display control unit 860 transmits display data to the data processing unit 700. The display data prompts the data processing unit 700 to display the operation result executed by the application execution unit 850 on the first display / light sensor unit 300A.

従って、「第1表示/光センサ部300Aに表示された地図を20%拡大させる」という動作がアプリケーション実行部850によって実行された場合、画像表示制御部860は、データ処理部700にそのことを示す表示データを送信する。そして、その結果、第1表示/光センサ部300Aに動作結果が表示される。つまり、地図が20%拡大した様子が第1表示/光センサ部300Aに表示される。   Therefore, when the application execution unit 850 performs an operation of “enlarging the map displayed on the first display / light sensor unit 300A by 20%”, the image display control unit 860 informs the data processing unit 700 of that. The display data shown is transmitted. As a result, the operation result is displayed on the first display / light sensor unit 300A. That is, a state where the map is enlarged by 20% is displayed on the first display / light sensor unit 300A.

最後に、入力検出部810は、第1表示/光センサ部300A及び第2表示/光センサ部300Bごとに、指の像の全体画像データ、部分画像データ、及び座標データを送信するようデータ処理部700に要求している。これは、主制御部800で実行されるアプリケーションプログラムが、指の像の全体画像データ、部分画像データ、及び座標データを第1表示/光センサ部300A及び第2表示/光センサ部300Bごとに送信するようデータ処理部700を制御することによる。   Finally, the input detection unit 810 performs data processing to transmit the entire image data, partial image data, and coordinate data of the finger image for each of the first display / light sensor unit 300A and the second display / light sensor unit 300B. Request to the part 700. This is because the application program executed by the main control unit 800 displays the entire image data, partial image data, and coordinate data of the finger image for each of the first display / light sensor unit 300A and the second display / light sensor unit 300B. By controlling the data processing unit 700 to transmit.

(フローチャート説明)
次に、図11を参照して、データ表示/センサ装置100の処理の流れ、及び、入力インターフェース制御部805からデータ処理部700に送信されるコマンドの詳細について説明する。
(Flowchart explanation)
Next, the processing flow of the data display / sensor device 100 and the details of the command transmitted from the input interface control unit 805 to the data processing unit 700 will be described with reference to FIG.

図11は、データ表示/センサ装置100の処理の流れを表すフローチャートである。   FIG. 11 is a flowchart showing a process flow of the data display / sensor device 100.

まず、データ表示/センサ装置100の電源がオフの状態にあるとき、ユーザが電源スイッチ905を押下することにより、データ表示/センサ装置100は電源オンとなる(S11)。   First, when the data display / sensor device 100 is powered off, the data display / sensor device 100 is turned on when the user presses the power switch 905 (S11).

そして、ステップS13では、ユーザが電源スイッチ905を押下することにより、表示/光センサ部300に画像が表示される。なお、当該画像は、第1表示/光センサ部300Aに表示されるものとする。そして、この状態で、第1表示/光センサ部300A及び第2表示/光センサ部300Bは指の像を検知するまで待機する。   In step S <b> 13, when the user presses the power switch 905, an image is displayed on the display / light sensor unit 300. Note that the image is displayed on the first display / light sensor unit 300A. In this state, the first display / light sensor unit 300A and the second display / light sensor unit 300B stand by until a finger image is detected.

ここで、第1表示/光センサ部300Aに画像を表示させる場合は、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。なお、第1表示/光センサ部300Aと併せて第2表示/光センサ部300Bにも画像を表示させる場合には、「表示パネル」フィールドの値として両画面(“011”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。ここでは、第1表示/光センサ部300Aのみに画像を表示させるため、「表示パネル」フィールドの値として上画面("001")を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   Here, when displaying an image on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. When an image is displayed on the second display / light sensor unit 300B together with the first display / light sensor unit 300A, a command specifying both screens (“011”) as the value of the “display panel” field. Is output from the input interface control unit 805 to the data processing unit 700. Here, in order to display an image only on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is input from the input interface control unit 805 to the data processing unit 700. Is output.

また、この段階では、表示/光センサ部300は近傍の像を検知可能な状態にあるものとする。前記検知を行うために、「データ取得タイミング」フィールドに、“イベント”を指定(“01”)し、「データ種別」フィールドに“座標”および“全体画像”の両方を指定(“101”を指定)したコマンドが入力インターフェース制御部805からデータ処理部700に出力される。なお、“座標”または“全体画像”のみを指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力されてもよい。   Further, at this stage, it is assumed that the display / light sensor unit 300 is in a state in which a nearby image can be detected. In order to perform the detection, “event” is specified in the “data acquisition timing” field (“01”), and both “coordinate” and “whole image” are specified in the “data type” field (“101” is specified). The designated command is output from the input interface control unit 805 to the data processing unit 700. Note that a command specifying only “coordinates” or “entire image” may be output from the input interface control unit 805 to the data processing unit 700.

さらに、第1表示/光センサ部300A及び第2表示/光センサ部300Bにおいて前記検知を行うために、「スキャンパネル」フィールドに両方の表示/光センサ部300を指定(“011”)したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   Further, in order to perform the detection in the first display / light sensor unit 300A and the second display / light sensor unit 300B, a command in which both the display / light sensor units 300 are specified (“011”) in the “scan panel” field. Is output from the input interface control unit 805 to the data processing unit 700.

これにより、センサ内蔵液晶パネル301が近傍の像を検知した場合に、入力検出部810は、データ処理部700から座標データ、全体画像データ、部分画像データを取得することができる。   Accordingly, when the sensor built-in liquid crystal panel 301 detects a nearby image, the input detection unit 810 can acquire coordinate data, whole image data, and partial image data from the data processing unit 700.

つまり、第1表示/光センサ部300A及び第2表示/光センサ部300Bにユーザの指がタッチしたとき、光センサ回路32が、タッチした指の影像および反射像の少なくとも何れかを検知する。その結果、データ処理部700がセンサ制御部602から取得する画像データに変化が生じる。   That is, when the user's finger touches the first display / light sensor unit 300A and the second display / light sensor unit 300B, the light sensor circuit 32 detects at least one of a shadow image and a reflection image of the touched finger. As a result, the image data acquired by the data processing unit 700 from the sensor control unit 602 changes.

このようにして、入力検出部810は、前記画像データに変化が生じた際にデータ処理部700から出力されてくる、座標データ、全体画像データ、部分画像データを取得することにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bが、それぞれ指の像を検知したことを認識できる。   In this way, the input detection unit 810 obtains the coordinate data, the entire image data, and the partial image data that are output from the data processing unit 700 when a change occurs in the image data, thereby performing the first display. / The optical sensor unit 300A and the second display / optical sensor unit 300B can recognize that the finger image has been detected.

そして、ステップS15では、第1表示/光センサ部300Aが親指の像を検知し、座標データ、全体画像データ、部分画像データがデータ処理部700から第1入力検出部810aに出力される。なお、図11では、便宜のため、第1表示/光センサ部300Aを「A」と称し、第2表示/光センサ部300Bを「B」と称している。   In step S15, the first display / light sensor unit 300A detects the thumb image, and the coordinate data, the entire image data, and the partial image data are output from the data processing unit 700 to the first input detection unit 810a. In FIG. 11, for convenience, the first display / light sensor unit 300 </ b> A is referred to as “A”, and the second display / light sensor unit 300 </ b> B is referred to as “B”.

続いて、ステップS17では、第1入力検出部810aが第1入力信号を生成する。なお、第1表示/光センサ部300AにはX軸、Y軸が設定されており、第1入力検出部810aは、第1表示/光センサ部300Aが検知した指の像の動きをXY座標により特定し、そのXY座標に対応するように第1入力信号を生成する。そして、第1入力検出部810aは、生成した第1入力信号をアプリケーション実行部850に出力する。   Subsequently, in step S17, the first input detection unit 810a generates a first input signal. Note that the X axis and the Y axis are set in the first display / light sensor unit 300A, and the first input detection unit 810a indicates the movement of the finger image detected by the first display / light sensor unit 300A in the XY coordinates. The first input signal is generated so as to correspond to the XY coordinates. Then, the first input detection unit 810a outputs the generated first input signal to the application execution unit 850.

同様に、ステップS19では、第2表示/光センサ部300Bが人差し指の像を検知し、座標データ、全体画像データ、部分画像データがデータ処理部700から第2入力検出部810bに出力される。   Similarly, in step S19, the second display / light sensor unit 300B detects the index finger image, and the coordinate data, the entire image data, and the partial image data are output from the data processing unit 700 to the second input detection unit 810b.

続いて、ステップS21では、第2入力検出部810bが第2入力信号を生成する。なお、第2入力検出部810bは、第2表示/光センサ部300Bが検知した指の像の動きを前記X軸、前記Y軸と共に3次元を規定するZ軸上の移動量及び移動方向として特定し、その特定したZ軸上の移動量及び移動方向に対応するように第2入力信号を生成する。そして、第2入力検出部810bは、生成した第2入力信号をアプリケーション実行部850に出力する。   Subsequently, in step S21, the second input detection unit 810b generates a second input signal. The second input detection unit 810b uses the movement of the finger image detected by the second display / light sensor unit 300B as the movement amount and movement direction on the Z axis that defines three dimensions together with the X axis and the Y axis. The second input signal is generated so as to correspond to the identified movement amount and movement direction on the Z-axis. Then, the second input detection unit 810b outputs the generated second input signal to the application execution unit 850.

続いて、ステップS25では、アプリケーション実行部850が、入力検出部810から第1入力信号及び/又は第2入力信号を受信して、各入力信号によって示される動作を実行する。そして、アプリケーション実行部850は、その動作の結果を示す情報である動作結果情報を画像表示制御部860に出力する。   Subsequently, in step S25, the application execution unit 850 receives the first input signal and / or the second input signal from the input detection unit 810, and executes an operation indicated by each input signal. Then, the application execution unit 850 outputs operation result information that is information indicating the result of the operation to the image display control unit 860.

そして、ステップS27では、画像表示制御部860が、アプリケーション実行部850から動作結果情報を受信して、データ処理部700に表示データを送信する。その表示データは、アプリケーション実行部850によって実行された動作結果を第1表示/光センサ部300Aに表示するようデータ処理部700に促すものである。その結果、第1表示/光センサ部300Aには、アプリケーション実行部850が実行した動作結果が表示される。   In step S <b> 27, the image display control unit 860 receives operation result information from the application execution unit 850 and transmits display data to the data processing unit 700. The display data prompts the data processing unit 700 to display the operation result executed by the application execution unit 850 on the first display / light sensor unit 300A. As a result, the operation result executed by the application execution unit 850 is displayed on the first display / light sensor unit 300A.

このとき、第1表示/光センサ部300Aに画像を表示させる場合は、「表示パネル」フィールドの値として上画面("001")を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。なお、第1表示/光センサ部300Aと併せて第2表示/光センサ部300Bにも画像を表示させる場合には、「表示パネル」フィールドの値として両画面("011")を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。ここでは、第1表示/光センサ部300Aのみに画像を表示させるため、「表示パネル」フィールドの値として上画面("001")を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   At this time, when displaying an image on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. When an image is displayed on the second display / light sensor unit 300B together with the first display / light sensor unit 300A, a command specifying both screens ("011") as the value of the "display panel" field Is output from the input interface control unit 805 to the data processing unit 700. Here, in order to display an image only on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is input from the input interface control unit 805 to the data processing unit 700. Is output.

ここで、前記各ステップ(ステップS13〜ステップS27)の処理の流れを図9(c)から図9(d)への動作に当てはめて説明する。   Here, the processing flow of each step (step S13 to step S27) will be described by applying the operation from FIG. 9C to FIG. 9D.

図9(c)では、図9(b)で示される地域を中心とした周辺地域の鳥瞰写真が第1表示/光センサ部300Aに表示されている。これは、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力された結果、第1表示/光センサ部300Aに当該鳥瞰写真が表示されたものである(ステップS13)。   In FIG. 9C, a bird's-eye view of the surrounding area centered on the area shown in FIG. 9B is displayed on the first display / light sensor unit 300A. This is because, as a result of the command specifying the upper screen (“001”) as the value of the “display panel” field being output from the input interface control unit 805 to the data processing unit 700, the bird's-eye view is displayed on the first display / light sensor unit 300A. A photograph is displayed (step S13).

なお、既にこの段階で、「データ取得タイミング」フィールドに、“イベント”を指定(“01”)し、「データ種別」フィールドに“座標”および“全体画像”の両方を指定(“101”を指定)したコマンドが入力インターフェース制御部805からデータ処理部700に出力され、表示/光センサ部300は近傍の像を検知可能な状態にあるものとする。なお、“座標”または“全体画像”のみを指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力されてもよい。   At this stage, “Event” is specified in the “Data acquisition timing” field (“01”), and both “Coordinate” and “Entire image” are specified in the “Data type” field (“101” is set). The designated command is output from the input interface control unit 805 to the data processing unit 700, and the display / light sensor unit 300 is in a state in which a nearby image can be detected. Note that a command specifying only “coordinates” or “entire image” may be output from the input interface control unit 805 to the data processing unit 700.

また、第1表示/光センサ部300A及び第2表示/光センサ部300Bにおいて前記検知を行うために、「スキャンパネル」フィールドに両方の表示/光センサ部300を指定(“011”)したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   In addition, in order to perform the detection in the first display / light sensor unit 300A and the second display / light sensor unit 300B, a command in which both display / light sensor units 300 are specified (“011”) in the “scan panel” field. Is output from the input interface control unit 805 to the data processing unit 700.

このような状態において、ユーザが、上面(第1表示/光センサ部300Aが配設された側)から親指で、下面(第2表示/光センサ部300Bが配設された側)から人差し指でデータ表示/センサ装置100を把持する。そして、第1表示/光センサ部300Aが検知する親指がB方向に、第2表示/光センサ部300Bが検知する人差し指がA方向に、それぞれ一定量移動する。これにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bは共に指の像を検知し、第1入力検出部810aは、両指の像の移動の前後、及び移動の途中における座標データ、全体画像データ、部分画像データをデータ処理部700から取得する(ステップS15、ステップS19)。   In such a state, the user can use the thumb from the upper surface (the side on which the first display / light sensor unit 300A is disposed) and the index finger from the lower surface (the side on which the second display / light sensor unit 300B is disposed). The data display / sensor device 100 is held. The thumb detected by the first display / light sensor unit 300A moves in the B direction, and the index finger detected by the second display / light sensor unit 300B moves in the A direction by a certain amount. Thereby, both the first display / light sensor unit 300A and the second display / light sensor unit 300B detect the image of the finger, and the first input detection unit 810a performs before and after the movement of the images of both fingers and during the movement. The coordinate data, the whole image data, and the partial image data are acquired from the data processing unit 700 (steps S15 and S19).

続いて、データ処理部700から座標データ、全体画像データ、部分画像データを取得した第1入力検出部810a及び第2入力検出部810bが、第1入力信号および第2入力信号をそれぞれ生成する。なお、第1入力信号は、第1表示/光センサ部300Aが検知した親指の像がB方向に一定量移動したことに対応付けられたものである。つまり、第1入力検出部810aは、第1表示/光センサ部300Aが検知した指の像の動き(B方向へ一定量移動した動き)をXY座標により特定し、そのXY座標に対応するように第1入力信号を生成する(ステップS17)。   Subsequently, the first input detection unit 810a and the second input detection unit 810b that have acquired the coordinate data, the whole image data, and the partial image data from the data processing unit 700 generate the first input signal and the second input signal, respectively. The first input signal is associated with a certain amount of movement of the thumb image detected by the first display / light sensor unit 300A in the B direction. That is, the first input detection unit 810a specifies the movement of the finger image detected by the first display / light sensor unit 300A (movement moved by a certain amount in the B direction) using the XY coordinates, and corresponds to the XY coordinates. A first input signal is generated (step S17).

同様に、第2入力信号は、第2表示/光センサ部300Bが検知した人差し指の像がA方向に一定量移動したことに対応付けられたものである。つまり、第2入力検出部810bは、第2表示/光センサ部300Bが検知した指の像の動き(A方向へ一定量移動した動き)を前記X軸、前記Y軸と共に3次元を規定するZ軸上の移動量及び移動方向として特定し、その特定したZ軸上の移動量及び移動方向に対応するように第2入力信号を生成する(ステップS21)。   Similarly, the second input signal corresponds to the fact that the index finger image detected by the second display / light sensor unit 300B has moved a certain amount in the A direction. That is, the second input detection unit 810b defines the movement of the finger image detected by the second display / light sensor unit 300B (movement moved by a certain amount in the direction A) in three dimensions along with the X axis and the Y axis. The movement amount and the movement direction on the Z axis are specified, and a second input signal is generated so as to correspond to the specified movement amount and movement direction on the Z axis (step S21).

このようにして生成された第1入力信号及び第2入力信号が、入力検出部810からアプリケーション実行部850に出力され、アプリケーション実行部850は、各入力信号によって示される動作を実行する。そして、アプリケーション実行部850は、その動作の結果を示す情報である動作結果情報を画像表示制御部860に出力する(ステップS25)。   The first input signal and the second input signal generated in this way are output from the input detection unit 810 to the application execution unit 850, and the application execution unit 850 executes an operation indicated by each input signal. Then, the application execution unit 850 outputs operation result information, which is information indicating the operation result, to the image display control unit 860 (step S25).

そして、画像表示制御部860が、アプリケーション実行部850から動作結果情報を受信して、データ処理部700に表示データを送信する。その表示データは、アプリケーション実行部850によって実行された動作結果を第1表示/光センサ部300Aに表示するようデータ処理部700に促すものである。その結果、第1表示/光センサ部300Aには、アプリケーション実行部850が実行した動作結果が表示される(ステップS27)。そして、その実行結果が、図9(d)で示される鳥瞰写真として表示される。   Then, the image display control unit 860 receives operation result information from the application execution unit 850 and transmits display data to the data processing unit 700. The display data prompts the data processing unit 700 to display the operation result executed by the application execution unit 850 on the first display / light sensor unit 300A. As a result, the operation result executed by the application execution unit 850 is displayed on the first display / light sensor unit 300A (step S27). Then, the execution result is displayed as a bird's-eye view photograph shown in FIG.

このとき、第1表示/光センサ部300Aに地図が表示されるため、「表示パネル」フィールドの値として上画面("001")を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。なお、第1表示/光センサ部300Aと併せて第2表示/光センサ部300Bにも地図を表示させたい場合には、「表示パネル」フィールドの値として両画面("011")を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。但し、ここでは第1表示/光センサ部300Aに画像を表示させるため、「表示パネル」フィールドの値として上画面("001")を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   At this time, since the map is displayed on the first display / light sensor unit 300A, the command specifying the upper screen (“001”) as the value of the “display panel” field is input from the input interface control unit 805 to the data processing unit 700. Is output. When the map is to be displayed on the second display / light sensor unit 300B together with the first display / light sensor unit 300A, both screens ("011") are designated as the value of the "display panel" field. A command is output from the input interface control unit 805 to the data processing unit 700. However, here, in order to display an image on the first display / light sensor unit 300A, a command specifying the upper screen ("001") as the value of the "display panel" field is sent from the input interface control unit 805 to the data processing unit 700. Is output.

このようにして、図9(c)、図9(d)を参照して説明した動作が実行され、その実行結果が第1表示/光センサ部300Aに表示される。   In this way, the operation described with reference to FIGS. 9C and 9D is executed, and the execution result is displayed on the first display / light sensor unit 300A.

なお、第1表示/光センサ部300A及び第2表示/光センサ部300Bによる検知の対象として親指及び人差し指を用いることとして説明したが、検知の対象とする指の種類は、これらの指に限定されず、中指、薬指、小指であってもよい。指の種類ではなく、検知した指の像の動きに基づいて、第1表示/光センサ部300Aに表示された画像に対して所定の動作を実行させるためである。   The first display / light sensor unit 300A and the second display / light sensor unit 300B have been described as using the thumb and index finger as detection targets. However, the types of fingers to be detected are limited to these fingers. The middle finger, ring finger, and little finger may be used. This is because a predetermined operation is performed on the image displayed on the first display / light sensor unit 300A based on the detected movement of the finger image instead of the type of the finger.

さらに、上記説明では、第1表示/光センサ部300A上で地図が表示され、表示/光センサ部300が指の像の動きを検知することにより、当該地図が移動等する構成を説明した。しかしながら、指の動きによって移動させる対象は、必ずしも地図である必要は無く、地図上のポインタであってもよい。   Furthermore, in the above description, a configuration has been described in which a map is displayed on the first display / light sensor unit 300A, and the map / movement is detected when the display / light sensor unit 300 detects the movement of a finger image. However, the object to be moved by the movement of the finger is not necessarily a map, and may be a pointer on the map.

データ表示/センサ装置100の前記処理によって得られる効果を説明すると以下の通りである。   The effects obtained by the processing of the data display / sensor device 100 will be described as follows.

前記構成を備えることにより、データ表示/センサ装置100では、アプリケーション実行部850が実行するアプリケーションの第1方向への動作に対応付けられた第1入力信号が第1入力検出部810aによって、アプリケーションの第1方向とは異なる第2方向への動作に対応付けられた第2入力信号が第2入力検出部810bによって、それぞれ生成される。そして、第1及び第2入力信号はアプリケーション実行部850に送信され、アプリケーション実行部850は、その第1及び第2入力信号に従ったアプリケーションの動作を実行する。   With the above-described configuration, in the data display / sensor device 100, the first input signal associated with the operation in the first direction of the application executed by the application execution unit 850 is detected by the first input detection unit 810a. A second input signal associated with an operation in a second direction different from the first direction is generated by the second input detection unit 810b. Then, the first and second input signals are transmitted to the application execution unit 850, and the application execution unit 850 executes the operation of the application according to the first and second input signals.

従って、第1表示/光センサ部300A及び第2表示/光センサ部300Bが様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な操作が実現される。つまり、表面からの入力操作によるアプリケーションの第1方向への動作と、裏面からの入力操作によるアプリケーションの第2方向への動作とが融合されることにより、その多彩な操作が実現される。しかも、その第1及び第2方向への動作として種々の動作を割り当てておけば、さらに多彩な操作を実現しうる。加えて、データ表示/センサ装置100は板状であるため、ユーザは、その裏表両面を指で挟持するようにして上記多彩な操作を容易に体感することができる。   Therefore, when the first display / light sensor unit 300A and the second display / light sensor unit 300B detect the movements of various input operations, various operations that cannot be realized by the conventional input device are realized. In other words, a variety of operations are realized by combining the operation in the first direction of the application by the input operation from the front surface and the operation in the second direction of the application by the input operation from the back surface. In addition, if various operations are assigned as the operations in the first and second directions, more various operations can be realized. In addition, since the data display / sensor device 100 has a plate shape, the user can easily experience the above-described various operations by holding both sides of the data display / sensor device 100 with fingers.

さらに、第1入力信号は、第1入力検出部810aがXY座標上の移動量及び移動方向として特定した、第1表示/光センサ部300Aが検出した入力操作の動きに対応する信号である。また、第2入力信号は、第2入力検出部810bがZ軸上の移動量及び移動方向として特定した、第2表示/光センサ部300Bが検出した入力操作の動きに対応する信号である。   Furthermore, the first input signal is a signal corresponding to the movement of the input operation detected by the first display / light sensor unit 300A, which is specified as the movement amount and movement direction on the XY coordinates by the first input detection unit 810a. The second input signal is a signal corresponding to the movement of the input operation detected by the second display / light sensor unit 300B specified by the second input detection unit 810b as the movement amount and movement direction on the Z axis.

従って、第1表示/光センサ部300A及び第2表示/光センサ部300Bが様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な3次元操作を実現する第1及び第2入力信号が生成される。そして、第1及び第2入力信号はアプリケーション実行部850に送信され、アプリケーション実行部850は、その第1及び第2入力信号に基づいてアプリケーションを動作させる。   Therefore, the first display / light sensor unit 300A and the second display / light sensor unit 300B detect various movements of the input operation, thereby realizing a variety of three-dimensional operations that could not be realized by the conventional input device. First and second input signals are generated. Then, the first and second input signals are transmitted to the application execution unit 850, and the application execution unit 850 operates the application based on the first and second input signals.

それゆえ、第1表示/光センサ部300A及び第2表示/光センサ部300Bが様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な3次元操作が実現されるため、優れた利便性及び操作性を有するデータ表示/センサ装置100がユーザに提供される。また、ユーザは、自身の操作によって実現される3次元動作を想像したうえで、第1表示/光センサ部300A及び第2表示/光センサ部300Bに当該3次元動作をもたらす所定の入力操作の動きを検出させることができ、感覚的に優れた操作を体感することができる。   Therefore, the first display / light sensor unit 300A and the second display / light sensor unit 300B detect various input operation movements, thereby realizing a variety of three-dimensional operations that could not be realized by conventional input devices. Therefore, the data display / sensor device 100 having excellent convenience and operability is provided to the user. In addition, the user imagines a three-dimensional motion realized by his / her own operation, and then performs a predetermined input operation that brings the three-dimensional motion to the first display / light sensor unit 300A and the second display / light sensor unit 300B. It is possible to detect movement and to experience a sensory superior operation.

さらに、データ表示/センサ装置100では、第1方向は、XYZ軸により規定される3次元の動作を実行するアプリケーションにおいてXY軸により規定される方向である。そして、第1入力検出部810aが特定したXY座標上の移動量及び移動方向と第1方向の動作を実行させる命令とが対応付けられた第1指−命令対応情報に基づいて、第1入力検出部810aは、特定したXY座標上の移動量及び移動方向が対応付けられた命令を決定する。   Further, in the data display / sensor device 100, the first direction is a direction defined by the XY axes in an application that executes a three-dimensional operation defined by the XYZ axes. Then, based on the first finger-command correspondence information in which the movement amount and movement direction on the XY coordinates specified by the first input detection unit 810a and the command for executing the operation in the first direction are associated with each other, the first input The detection unit 810a determines a command associated with the movement amount and movement direction on the specified XY coordinates.

従って、内部あるいは外部に設けられた記憶部901に記録された第1対応命令情報を参照することにより、第1入力検出部810aは、特定したXY座標上の移動量及び移動方向が対応付けられた命令を容易に決定することができる。   Accordingly, by referring to the first correspondence command information recorded in the storage unit 901 provided inside or outside, the first input detection unit 810a associates the movement amount and movement direction on the specified XY coordinates. Can be easily determined.

また、第2方向は、アプリケーションにおいてZ軸方向により規定される方向である。そして、第2入力検出部810bが特定したZ軸上の移動量及び移動方向と第2方向の動作を実行させる命令とが対応付けられた第2指−命令対応情報に基づいて、第2入力検出部810bは、特定したZ軸上の移動量及び移動方向が対応付けられた命令を決定する。   The second direction is a direction defined by the Z-axis direction in the application. Then, based on the second finger-command correspondence information in which the movement amount and movement direction on the Z axis specified by the second input detection unit 810b and the command for executing the operation in the second direction are associated with each other, the second input The detection unit 810b determines a command in which the identified movement amount and movement direction on the Z axis are associated with each other.

従って、記憶部901に記録された第2対応命令情報を参照することにより、第2入力検出部810bは、特定したZ軸上の移動量及び移動方向が対応付けられた命令を容易に決定することができる。   Accordingly, by referring to the second correspondence command information recorded in the storage unit 901, the second input detection unit 810b easily determines a command associated with the identified movement amount and movement direction on the Z axis. be able to.

このように、第1入力検出部810a及び第2入力検出部810bは、第1及び第2指−命令対応情報に基づいて、XY座標上及びZ軸上の移動量及び移動方向が対応付けられた命令を容易に決定することができる。そして、アプリケーションごとに第1及び第2指−命令対応情報を対応付けて記憶部901に記録させておけば、種々のアプリケーションに対して、迅速かつ確実に、多彩な3次元操作をユーザに体感させることができる。   As described above, the first input detection unit 810a and the second input detection unit 810b are associated with the movement amount and the movement direction on the XY coordinates and the Z axis based on the first and second finger-command correspondence information. Can be easily determined. If the first and second finger-command correspondence information is associated with each application and recorded in the storage unit 901, various three-dimensional operations can be experienced to the user quickly and surely for various applications. Can be made.

さらに、データ表示/センサ装置100では、前記の構成において、アプリケーション実行部850では地図を表示するアプリケーションが動作している場合、第1入力検出部810aは、当該地図または該地図上のポインタを移動させるための命令を示す第1入力信号を、第2入力検出部810bは、当該地図を拡大・縮小させるための命令を示す第2入力信号を、それぞれアプリケーション実行部850に送信する構成としてもよい。   Further, in the data display / sensor device 100, in the above configuration, when an application for displaying a map is operating in the application execution unit 850, the first input detection unit 810a moves the map or a pointer on the map. The second input detection unit 810b may transmit a second input signal indicating a command for enlarging / reducing the map to the application execution unit 850, respectively. .

前記の構成を備えることにより、第1表示/光センサ部300Aが検知する指の動きに応じて、地図または地図上のポインタが移動し、第2表示/光センサ部300Bが検知する指の動きに応じて、地図が拡大・縮小する。   With the above configuration, the map or the pointer on the map moves according to the finger movement detected by the first display / light sensor unit 300A, and the finger movement detected by the second display / light sensor unit 300B. The map is enlarged or reduced accordingly.

従って、表面(第1表示/光センサ部300A)側の指の動きが地図を上下左右に移動させ、裏面(第2表示/光センサ部300B)側の指の動きが地図を拡大・縮小させるため、ユーザにとって感覚的に操作しやすく、利便性に富んだ入力装置が実現する。   Accordingly, the movement of the finger on the front surface (first display / light sensor unit 300A) side moves the map up, down, left and right, and the movement of the finger on the back surface (second display / light sensor unit 300B) side enlarges / reduces the map. Therefore, an input device that is easy for the user to operate intuitively and is highly convenient is realized.

さらに、データ表示/センサ装置100では、表示/光センサ部300のうち、少なくとも何れか一方の表示/光センサ部300に画像を表示させる画像表示制御部860を備え、前記第1指−命令対応情報及び前記第2指−命令対応情報は、前記画像に対応付けられている構成としてもよい。   Further, the data display / sensor device 100 includes an image display control unit 860 that displays an image on at least one of the display / light sensor units 300 among the display / light sensor units 300, and supports the first finger-command. The information and the second finger-command correspondence information may be associated with the image.

前記の構成によれば、データ表示/センサ装置100では、画像表示制御部860が少なくとも何れか一方の表示/光センサ部300に画像を表示させる。そして、その画像は、第1指−命令対応情報及び第2指−命令対応情報に対応付けられている。   According to the above configuration, in the data display / sensor device 100, the image display control unit 860 displays an image on at least one of the display / light sensor units 300. The image is associated with the first finger-command correspondence information and the second finger-command correspondence information.

つまり、画像表示制御部860が画像を表示することにより、操作対象がユーザに明示される。そして、第1指−命令対応情報及び第2指−命令対応情報は前記画像に対応付けられているため、ユーザは、その画像を視認したうえで、その画像に対して所望の動作を実行するための指の動きを表示/光センサ部300に検知させればよい。   That is, when the image display control unit 860 displays an image, the operation target is clearly indicated to the user. Since the first finger-command correspondence information and the second finger-command correspondence information are associated with the image, the user visually recognizes the image and executes a desired operation on the image. Therefore, the display / light sensor unit 300 may detect the movement of the finger for this purpose.

従って、ユーザは、画像を視認したうえで所望の動作を実行させることができ、ユーザにとって感覚的に操作しやすく、利便性に富んだ入力装置が実現する。   Therefore, the user can execute a desired operation after visually recognizing the image, and an input device that is easy to operate intuitively and is convenient for the user is realized.

さらに、データ表示/センサ装置100では、前記の構成において、画像表示制御部860は、アプリケーション実行部850が実行した動作の結果に基づく画像を、表示/光センサ部300に表示させる構成としてもよい。   Further, in the data display / sensor device 100, in the above configuration, the image display control unit 860 may display an image based on the result of the operation executed by the application execution unit 850 on the display / light sensor unit 300. .

前記の構成によれば、データ表示/センサ装置100では、画像表示制御部860は、アプリケーション実行部850が実行した動作の結果に基づく画像を表示/光センサ部300に表示させる。   According to the above configuration, in the data display / sensor device 100, the image display control unit 860 causes the display / light sensor unit 300 to display an image based on the result of the operation executed by the application execution unit 850.

従って、画像表示制御部860は、ユーザの指の動きに対応付けられて実行された動作の結果を表示/光センサ部300に表示して、その結果をユーザに確認させることができる。   Therefore, the image display control unit 860 can display the result of the operation executed in association with the movement of the user's finger on the display / light sensor unit 300 and allow the user to confirm the result.

なお、その動作後の画像に対してさらに何らかの動作を与えたいときは、表示/光センサ部300に対して所望の指の像の動きを検出させればよい。つまり、ユーザは、動作の結果を画面上で確認することにより、次の動作を連続的に行うことができる。   In addition, when it is desired to give some operation to the image after the operation, the display / light sensor unit 300 may detect the desired movement of the finger image. That is, the user can continuously perform the next operation by checking the operation result on the screen.

また、アプリケーション実行部850は、1つであっても複数であってもよく、また入力装置と一体に構成されていてもよく、さらに入力装置から物理的に離れた位置に存在していてもよい。   Further, the application execution unit 850 may be one or plural, may be configured integrally with the input device, and may be present at a position physically separated from the input device. Good.

このように、データ表示/センサ装置100は、より優れた操作性および利便性をユーザにも提供することができる。
〔実施の形態2〕
次に、図12〜図16を参照して他の実施形態に係るデータ表示/センサ装置110を説明する。なお、図1、図9〜図11を参照して説明した内容と同様の内容は説明を省略する。
Thus, the data display / sensor device 100 can provide the user with more excellent operability and convenience.
[Embodiment 2]
Next, a data display / sensor device 110 according to another embodiment will be described with reference to FIGS. In addition, the description similar to the content demonstrated with reference to FIG. 1, FIG.

データ表示/センサ装置110の主な特徴は、入力操作を検出する表示/光センサ部300が、表裏両面にそれぞれ配設されており、第1表示/光センサ部300Aが検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1の動作に対応付けられた、特定した入力操作の動きに対応する第1入力信号を生成する第1入力生成部880a(第1入力生成手段)と、第2表示/光センサ部300Bが検出した入力操作の動きを特定して、または、第2表示/光センサ部300Bに対する検出から非検出への入力操作の動きを特定して、前記アプリケーションの第1の動作に付随する第2の動作に対応付けられた、第2表示/光センサ部300Bにおける特定した入力操作の動きに対応する第2入力信号を生成する第2入力生成部880b(第2入力生成手段)と、を備える点にある。   The main feature of the data display / sensor device 110 is that the display / light sensor unit 300 for detecting the input operation is provided on both the front and back surfaces, and the movement of the input operation detected by the first display / light sensor unit 300A. And a first input generation unit 880a (first input generation) that generates a first input signal corresponding to the movement of the specified input operation associated with the first movement of the application that executes the predetermined movement. And the movement of the input operation detected by the second display / light sensor unit 300B, or the movement of the input operation from detection to non-detection with respect to the second display / light sensor unit 300B, A second that generates a second input signal corresponding to the movement of the specified input operation in the second display / light sensor unit 300B, which is associated with a second action associated with the first action of the application; In that it comprises force generating unit 880b (second input generating means), a.

これにより、データ表示/センサ装置110では、アプリケーションの第1の動作に対応付けられた第1入力信号が第1入力生成部880aによって、第1の動作に付随する第2の動作に対応付けられた第2入力信号が第2入力生成部880bによって、それぞれ生成される。そして、その第2入力信号は、第2表示/光センサ部300Bが検出した入力操作の動き、または、第2表示/光センサ部300Bに対する検出から非検出への入力操作の動きが第2入力検出手段によって特定されることで生成される。   Thereby, in the data display / sensor device 110, the first input signal associated with the first operation of the application is associated with the second operation associated with the first operation by the first input generation unit 880a. The second input signal is generated by the second input generation unit 880b. Then, the second input signal is the second input of the movement of the input operation detected by the second display / light sensor unit 300B or the movement of the input operation from detection to non-detection with respect to the second display / light sensor unit 300B. It is generated by being specified by the detection means.

より具体的に、第2表示/光センサ部300Bが検出していた入力操作の動きが検出から非検出の状態に変化した場合に、それまで実行されていたアプリケーションの動作が「キャンセル(無効)」になるように割り当てられていたとする。このとき、ユーザは、それまで実行されていたアプリケーションの動作を「キャンセル(無効)」したい場合には、第2表示/光センサ部300Bに対して、検出から非検出への入力操作の動きを与えればよい。これにより、それまで実行されていたアプリケーションの動作がキャンセルされる。
(データ表示/センサ装置110の動作説明)
実施の形態2に係るデータ表示/センサ装置110について、図12〜図16を参照して説明する。
More specifically, when the movement of the input operation detected by the second display / light sensor unit 300B changes from the detection state to the non-detection state, the operation of the application executed so far is “cancel (invalid)”. ”Is assigned to be. At this time, when the user wants to “cancel (invalidate)” the operation of the application that has been executed, the input operation from detection to non-detection is made to the second display / light sensor unit 300B. Give it. As a result, the operation of the application that has been executed is canceled.
(Description of Data Display / Operation of Sensor Device 110)
A data display / sensor device 110 according to Embodiment 2 will be described with reference to FIGS.

なお、最初に、データ表示/センサ装置110が実行する動作の具体例を図12を参照して説明する。次に、データ表示/センサ装置110の構成を図13〜図15を参照して説明する。そして、その動作を実現する処理の流れを図16を参照して説明する。   First, a specific example of the operation performed by the data display / sensor device 110 will be described with reference to FIG. Next, the configuration of the data display / sensor device 110 will be described with reference to FIGS. Then, the flow of processing for realizing the operation will be described with reference to FIG.

また、データ表示/センサ装置110は、第1表示/光センサ部300A、あるいは第2表示/光センサ部300Bの何れに画像を表示させてもよいが、本実施の形態では、第1表示/光センサ部300Aに画像を表示するものとして説明する。また、第1表示/光センサ部300Aは、図12において図面手前側に位置する。
(表示画像に対して実行される動作)
以下、図12の概要を説明する。図12(a)では、第1表示/光センサ部300Aに正方形の画像20が表示され、その画像20が、上面から親指で、下面から人差し指で、それぞれタッチされている。そして、図12(b)に示すように、ユーザは、親指と人差し指を同一方向(図面横方向において、右方向)へ移動させて、画面の外部へ画像20を移動させようとしている。つまり、ユーザは、この指の動きにより、その指の動く距離に応じて画像20を移動させている。次に、図12(c)では、ユーザは、人差し指を第2表示/光センサ部300Bから離している。そして、画像20は、ユーザのこの動作により図12(a)で示す最初の位置に自動的に戻る。このように、第2表示/光センサ部300Bが指の像の検知状態から非検知状態に移ることにより、それまでに実行した動作(画像20の移動)がキャンセルされる。
The data display / sensor device 110 may display an image on either the first display / light sensor unit 300A or the second display / light sensor unit 300B. Description will be made assuming that an image is displayed on the optical sensor unit 300A. The first display / light sensor unit 300A is located on the front side of the drawing in FIG.
(Operations performed on the display image)
The outline of FIG. 12 will be described below. In FIG. 12A, a square image 20 is displayed on the first display / light sensor unit 300A, and the image 20 is touched with the thumb from the top and the index finger from the bottom. Then, as shown in FIG. 12B, the user is moving the image 20 to the outside of the screen by moving the thumb and index finger in the same direction (rightward in the horizontal direction of the drawing). That is, the user moves the image 20 by the movement of the finger according to the distance that the finger moves. Next, in FIG.12 (c), the user has separated the index finger from the 2nd display / light sensor part 300B. Then, the image 20 is automatically returned to the initial position shown in FIG. As described above, the second display / light sensor unit 300B shifts from the detection state of the finger image to the non-detection state, thereby canceling the operation executed so far (movement of the image 20).

なお、図12(a)・(b)では、図面横方向において、親指及び人差し指を共に右側に移動させるものとして説明した。しかしながら、親指及び人差し指を移動させる方向はこれに限らず、いかなる方向であってもよい。従って、ユーザは、任意の場所に画像を移動させることができる。   In FIGS. 12A and 12B, it has been described that both the thumb and the index finger are moved to the right in the horizontal direction of the drawing. However, the direction in which the thumb and index finger are moved is not limited to this, and may be any direction. Therefore, the user can move the image to an arbitrary place.

また、図12(a)・(b)では、親指及び人差し指を共に右側に移動させるものとして説明した。しかしながら、親指のみ移動した場合であっても画像は移動する。   In FIGS. 12A and 12B, the thumb and the index finger are both moved to the right. However, the image moves even when only the thumb moves.

さらに、上記説明したとおり、第1表示/光センサ部300Aに表示された画像20は、上面から親指でタッチされることはあっても、下面から人差し指で実際にタッチされることはない。しかしながら、本実施の形態に係る以降の説明では、説明の便宜上、このような状態のことを、「上面から親指で、下面から人差し指で、それぞれタッチする」と表現している。   Furthermore, as described above, the image 20 displayed on the first display / light sensor unit 300A is touched with the thumb from the top surface but is not actually touched with the index finger from the bottom surface. However, in the following description according to the present embodiment, for convenience of description, such a state is expressed as “touching with the thumb from the top surface and the index finger from the bottom surface, respectively”.

加えて、親指及び人差し指が表裏両面から画像20をタッチするものとして説明しているが、どの指を使用してもよい。つまり、何れかの指を使って、表裏両面から画像20を挟持すればよく、そのことが、画像20に対して所定の動作を実行する前提となる。それゆえ、上面あるいは下面の何れか一方のみから画像20をタッチしても、それだけでは画像20に対して所定の動作を実行することはできない。また、画像(あるいは画面)を指でタッチするものとして説明しているが、実際に画像をタッチしている必要はなく、表示/光センサ部300がその指の像を検知すればよい。但し、以降の説明では、説明の便宜のため、上面側から親指で、下面側から人差し指で、画像20をタッチするものとして説明する。   In addition, although it has been described that the thumb and index finger touch the image 20 from both the front and back sides, any finger may be used. That is, the image 20 may be sandwiched from both the front and back surfaces using any finger, and this is a premise for performing a predetermined operation on the image 20. Therefore, even if the image 20 is touched only from either the upper surface or the lower surface, a predetermined operation cannot be performed on the image 20 by itself. Further, although it is described that the image (or screen) is touched with a finger, it is not necessary to actually touch the image, and the display / light sensor unit 300 may detect the image of the finger. However, in the following description, for convenience of explanation, it is assumed that the image 20 is touched with the thumb from the upper surface side and the index finger from the lower surface side.

加えて、画像20は正方形であるとして説明しているが、画像20は任意の形状でよい。また、親指と人差し指の動きの速度については特に言及しないが、その指の像の動きに対応付けられた動作は、指の動きの速度に応じて実行される。   In addition, although the image 20 has been described as being square, the image 20 may have any shape. Although the speed of movement of the thumb and index finger is not particularly mentioned, the movement associated with the movement of the image of the finger is executed according to the speed of movement of the finger.

(データ表示/センサ装置の要部説明)
次に、図13を参照しながらデータ表示/センサ装置110の詳細な構成を説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、画像の表示および画像の検知を行うにあたり、主制御部800の入力インターフェース制御部805が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
(Explanation of main parts of data display / sensor device)
Next, a detailed configuration of the data display / sensor device 110 will be described with reference to FIG. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted. However, to be precise, when performing image display and image detection, the input interface control unit 805 of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 performs circuit control based on the command. The circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図13は、データ表示/センサ装置110の要部構成を表すブロック図である。図示のように、主制御部800は、入力インターフェース制御部805と、アプリケーション実行部850と、を備える。また、入力インターフェース制御部805は、画像表示制御部860と、検知判定部870と、第1入力生成部880aと、第2入力生成部880bと、重畳判定部890と、を備える。   FIG. 13 is a block diagram illustrating a main configuration of the data display / sensor device 110. As shown in the figure, the main control unit 800 includes an input interface control unit 805 and an application execution unit 850. The input interface control unit 805 includes an image display control unit 860, a detection determination unit 870, a first input generation unit 880a, a second input generation unit 880b, and a superimposition determination unit 890.

検知判定部870は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが、共に指の像を検知したかどうかを判定する。具体的には、第1表示/光センサ部300A及び第2表示/光センサ部300Bが指の像を検知したとき、座標データ、全体画像データ、部分画像データがデータ処理部700から検知判定部870に送信される。従って、検知判定部870は、第1表示/光センサ部300A及び第2表示/光センサ部300Bの両方から座標データ、全体画像データ、部分画像データを受信した場合に、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定することができる。なお、検知判定部870は、座標データ、全体画像データ、部分画像データのうち少なくとも何れか1つを受信することで、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定することもできる。   The detection determination unit 870 determines whether the first display / light sensor unit 300A and the second display / light sensor unit 300B have both detected a finger image. Specifically, when the first display / light sensor unit 300A and the second display / light sensor unit 300B detect a finger image, coordinate data, whole image data, and partial image data are detected from the data processing unit 700. 870 is transmitted. Therefore, when the detection determination unit 870 receives coordinate data, whole image data, and partial image data from both the first display / light sensor unit 300A and the second display / light sensor unit 300B, the first display / light sensor It can be determined that both the unit 300A and the second display / light sensor unit 300B have detected a finger image. Note that the detection determination unit 870 receives at least one of the coordinate data, the entire image data, and the partial image data, so that the first display / light sensor unit 300A and the second display / light sensor unit 300B together. It can also be determined that a finger image has been detected.

ここで、図13では、データ処理部700から検知判定部870(及び、第1入力生成部880a、重畳判定部890)へ送信される座標データ、全体画像データ、部分画像データが実線及び破線で記載されている。これは、検知判定部870が、第1表示/光センサ部300A及び第2表示/光センサ部300Bの両方から座標データ、全体画像データ、部分画像データを取得するためであり、第1表示/光センサ部300Aから検知判定部870(及び、第1入力生成部880a、重畳判定部890)へ送信される座標データ、全体画像データ、部分画像データが実線で、第2表示/光センサ部300Bから検知判定部870(及び、第1入力生成部880a、重畳判定部890)へ送信される座標データ、全体画像データ、部分画像データが破線で、それぞれ記載されている。   Here, in FIG. 13, the coordinate data, the entire image data, and the partial image data transmitted from the data processing unit 700 to the detection determination unit 870 (and the first input generation unit 880a and the superimposition determination unit 890) are indicated by solid lines and broken lines. Are listed. This is because the detection determination unit 870 acquires coordinate data, whole image data, and partial image data from both the first display / light sensor unit 300A and the second display / light sensor unit 300B. The coordinate data, the entire image data, and the partial image data transmitted from the optical sensor unit 300A to the detection determination unit 870 (and the first input generation unit 880a and the superimposition determination unit 890) are solid lines, and the second display / optical sensor unit 300B. The coordinate data, the whole image data, and the partial image data transmitted to the detection determination unit 870 (and the first input generation unit 880a and the superimposition determination unit 890) are indicated by broken lines, respectively.

次に、検知判定部870は、「第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知した」ことを示す判定結果を第1入力生成部880aに出力する。従って、第1表示/光センサ部300Aのみ、あるいは第2表示/光センサ部300Bのみが指の像を検知した場合、若しくは第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知しなかった場合には、検知判定部870は、「第1表示/光センサ部300A及び第2表示/光センサ部300Bは、共に指の像を検知しなかった」ことを示す判定結果を第1入力生成部880aに出力する。若しくは、検知判定部870は、第1入力生成部880aに対して何も出力しない。   Next, the detection determination unit 870 outputs a determination result indicating that “the first display / light sensor unit 300A and the second display / light sensor unit 300B have both detected a finger image” to the first input generation unit 880a. To do. Accordingly, when only the first display / light sensor unit 300A or only the second display / light sensor unit 300B detects an image of a finger, or the first display / light sensor unit 300A and the second display / light sensor unit 300B When neither finger image is detected, the detection determination unit 870 indicates that “the first display / light sensor unit 300A and the second display / light sensor unit 300B have not detected the finger image”. Is output to the first input generation unit 880a. Alternatively, the detection determination unit 870 outputs nothing to the first input generation unit 880a.

重畳判定部890は、第1表示/光センサ部300Aに表示された画像の領域である表示画像領域と、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の領域である像領域とが重畳するか否かを判定する。なお、表示/光センサ部300のうち、第1表示/光センサ部300Aに画像が表示され、第2表示/光センサ部300Bには画像が表示されていないものとして説明する。   The superimposition determination unit 890 includes a display image region that is a region of an image displayed on the first display / light sensor unit 300A, and a finger detected by the first display / light sensor unit 300A and the second display / light sensor unit 300B. It is determined whether or not an image region that is an image region overlaps. In the display / light sensor unit 300, an image is displayed on the first display / light sensor unit 300A and no image is displayed on the second display / light sensor unit 300B.

より具体的に説明すると、重畳判定部890は、データ処理部700から座標データ、全体画像データ、部分画像データを取得し、それら座標データ、全体画像データ、部分画像データから像領域を特定する。また、重畳判定部890は、第1表示/光センサ部300Aに表示された画像に係る画像情報を記憶部901から読み出す。その画像情報には、当該画像に係る表示画像領域が座標により特定されているため、重畳判定部890は、記憶部901から画像情報を読み出すことにより表示画像領域を特定することができる。   More specifically, the superimposition determination unit 890 acquires coordinate data, whole image data, and partial image data from the data processing unit 700, and specifies an image region from these coordinate data, whole image data, and partial image data. In addition, the superimposition determination unit 890 reads image information related to the image displayed on the first display / light sensor unit 300 </ b> A from the storage unit 901. In the image information, since the display image area related to the image is specified by coordinates, the superimposition determination unit 890 can specify the display image area by reading the image information from the storage unit 901.

一例として、図14、及び図15を参照して画像情報について説明する。図14は、円形の画像26についての画像情報を説明するための図である。また、図15は、正方形の画像20についての画像情報を説明するための図である。   As an example, image information will be described with reference to FIGS. 14 and 15. FIG. 14 is a diagram for explaining the image information about the circular image 26. FIG. 15 is a diagram for explaining image information about the square image 20.

図14に示すように、円形の画像26は、座標(A、B)を中心点として、直径φT1で示される円である。なお、ここでは円形の画像26に係る表示画像領域は、座標(A、B)、及び直径φT1によって特定されているが、円形の画像26の各円周の座標によって特定する態様であっても構わない。何れの態様であれ、円形の画像26に係る表示画像領域が特定されるためである。   As shown in FIG. 14, the circular image 26 is a circle having a diameter φT1 with the coordinates (A, B) as the center point. Here, the display image area related to the circular image 26 is specified by the coordinates (A, B) and the diameter φT1, but may be specified by the coordinates of each circumference of the circular image 26. I do not care. This is because the display image area related to the circular image 26 is specified in any manner.

また、図15に示すように、正方形の画像20は、(A、B1)という位置を画像の中心として、一辺が長さCで表される正方形の画像である。なお、ここでは画像20は、座標(A、B1)、及び長さCで特定されるが、画像20の4辺を示す座標によって特定する態様であっても構わない。何れの態様であれ、画像20に係る表示画像領域が特定されるためである。   As shown in FIG. 15, the square image 20 is a square image whose one side is represented by a length C with the position (A, B1) as the center of the image. Here, the image 20 is specified by coordinates (A, B1) and a length C, but may be specified by coordinates indicating four sides of the image 20. This is because the display image area related to the image 20 is specified in any manner.

このように、図14で言えば座標(A、B)及びφT1という情報を、また図15で言えば座標(A、B1)及び一辺の長さCという情報を、それぞれ画像情報として扱うことにより、重畳判定部890は、記憶部901からその画像情報を読み出すことで表示画像領域を特定することができる。   In this way, the information of coordinates (A, B) and φT1 in FIG. 14 and the information of coordinates (A, B1) and side length C in FIG. 15 are handled as image information. The superimposition determination unit 890 can specify the display image region by reading out the image information from the storage unit 901.

上記の方法により、重畳判定部890は、像領域および表示画像領域を特定することができ、従って、像領域と表示画像領域との間に重畳する重畳領域が存在するか否かを判定することができる。そして、重畳判定部890は、その判定結果を第1入力生成部880aに出力する。なお、前記の重畳領域が存在しないと判定した場合に、重畳判定部890がその判定結果を第1入力生成部880aに出力せず、そのことにより重畳領域が存在しないことの判定結果とすることもできる。   By the above method, the superimposition determination unit 890 can specify the image region and the display image region, and therefore determines whether or not there is a superimposition region that overlaps between the image region and the display image region. Can do. Then, the superimposition determination unit 890 outputs the determination result to the first input generation unit 880a. In addition, when it determines with the said superimposition area | region not existing, the superimposition determination part 890 does not output the determination result to the 1st input production | generation part 880a, and it is set as the determination result that a superimposition area | region does not exist by it. You can also.

また、前記の説明では、重畳判定部890はデータ処理部700から座標データ、全体画像データ、部分画像データを取得するものとして説明した。しかしながら、重畳判定部890は、検知判定部870を介して、データ処理部700から座標データ、全体画像データ、部分画像データを取得してもよい。   In the above description, the superimposition determination unit 890 has been described as acquiring coordinate data, whole image data, and partial image data from the data processing unit 700. However, the superimposition determination unit 890 may acquire coordinate data, whole image data, and partial image data from the data processing unit 700 via the detection determination unit 870.

なお、重畳領域が存在するか否かの判定では、重畳判定部890は、第1表示/光センサ部300Aに表示された画像の領域である表示画像領域と、第1表示/光センサ部300Aあるいは第2表示/光センサ部300Bのうち、何れか一方が検知した指の像の領域である像領域とが重畳するか否かを判定してもよい。これにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bの両方の像領域と表示画像領域とが重畳するか否かを判定する場合よりも、「重畳領域が存在する」と判定される条件を緩和することができる。   In determining whether or not there is a superimposition region, the superimposition determination unit 890 includes a display image region that is a region of an image displayed on the first display / light sensor unit 300A and the first display / light sensor unit 300A. Or you may determine whether the image area | region which is the area | region of the image of the finger | toe which any one detected among the 2nd display / light sensor part 300B overlaps. Thus, “there is a superimposed region”, compared to the case where it is determined whether or not the image region of both the first display / light sensor unit 300A and the second display / light sensor unit 300B overlap the display image region. Can be relaxed.

ここで、具体例を用いて、重畳判定の条件を緩和することが好ましい理由を説明する。図12(a)では、ユーザは、第1表示/光センサ部300Aに表示された画像20に対応する第2表示/光センサ部300B上の領域を人差し指でタッチしている。つまり、第2表示/光センサ部300Bに画像20が表示されているとしたならば、その画像20が表示されているであろう領域を、人差し指がタッチする。   Here, the reason why it is preferable to relax the condition for superimposition determination will be described using a specific example. In FIG. 12A, the user touches the area on the second display / light sensor unit 300B corresponding to the image 20 displayed on the first display / light sensor unit 300A with the index finger. That is, if the image 20 is displayed on the second display / light sensor unit 300B, the index finger touches the area where the image 20 will be displayed.

このとき、第2表示/光センサ部300Bは画像20を画面上に表示していないため、ユーザは、第1表示/光センサ部300Aに表示された画像20に対応する第2表示/光センサ部300B上の領域を感覚的に認識して、その上で、その領域をタッチしている。つまり、人差し指による当該領域へのタッチは、感覚的に行われるものであって、常に正確に行われるものではない。   At this time, since the second display / light sensor unit 300B does not display the image 20 on the screen, the user can use the second display / light sensor corresponding to the image 20 displayed on the first display / light sensor unit 300A. The area on the part 300B is sensibly recognized, and then the area is touched. That is, touching the area with the index finger is performed sensibly and not always accurately.

従って、少なくとも第1表示/光センサ部300Aあるいは第2表示/光センサ部300Bのうち、何れか一方が検知した指の像の領域である像領域が表示画像領域と重畳することにより「重畳領域が存在する」と判定されるのであれば、データ表示/センサ装置110は、より優れた操作性及び利便性をユーザに提供することができる。   Accordingly, an image region, which is a region of a finger image detected by at least one of the first display / light sensor unit 300A or the second display / light sensor unit 300B, is superimposed on the display image region. If it is determined that “exists”, the data display / sensor device 110 can provide the user with better operability and convenience.

第1入力生成部880aは、検知判定部870が、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定し、かつ、重畳判定部890が重畳領域が存在すると判定した場合には、第1表示/光センサ部300Aが検知した指の像の動きを検出して、その指の像の動きに対応付けられた第1入力信号を生成し、その第1入力信号をアプリケーション実行部850に出力する。なお、第1入力信号は、実施の形態1で説明した第1指−命令対応情報に基づいて、特定したXY座標が対応付けられた命令を示すものとして、アプリケーション実行部850に出力されてもよい。   The first input generation unit 880a determines that the detection determination unit 870 has detected a finger image by both the first display / light sensor unit 300A and the second display / light sensor unit 300B, and the superimposition determination unit 890 When it is determined that the overlapping region exists, the movement of the finger image detected by the first display / light sensor unit 300A is detected, and a first input signal associated with the movement of the finger image is generated. The first input signal is output to the application execution unit 850. Note that the first input signal may be output to the application execution unit 850 as indicating the instruction associated with the identified XY coordinates based on the first finger-command correspondence information described in the first embodiment. Good.

また、第1入力生成部880aは、さらにアプリケーション、モード等の動作する状態(場面)、あるいは画像の属性にも対応付けて第1入力信号を生成してもよい。これにより、アプリケーション実行部850は、第1表示/光センサ部300Aに表示された画像に対して所定の動作を実行することができる。なお、第1入力生成部880aは、記憶部901から直接、もしくは重畳判定部890を介して当該画像等に係る画像情報を取得することができる。これにより、第1入力生成部880aは、第1表示/光センサ部300Aに表示された画像に対応付けされた第1入力信号を生成することができる。   Further, the first input generation unit 880a may generate the first input signal in association with an operating state (scene) such as an application and a mode, or an image attribute. Thereby, the application execution unit 850 can execute a predetermined operation on the image displayed on the first display / light sensor unit 300A. Note that the first input generation unit 880a can acquire image information related to the image or the like directly from the storage unit 901 or via the superimposition determination unit 890. Accordingly, the first input generation unit 880a can generate a first input signal associated with the image displayed on the first display / light sensor unit 300A.

なお、第1入力信号についての詳細説明は、すでに実施の形態1で説明しているため省略する。また、上記説明では、データ表示/センサ装置110が、像領域と表示画像領域との間に重畳する重畳領域が存在するか否かを判定する重畳判定部890を備え、第1入力生成部880aは、重畳領域が存在する場合に第1入力信号を生成するものとして説明した。しかしながら、データ表示/センサ装置110は、必ずしも重畳判定部890を備える必要はない。この場合、ユーザは、第1表示/光センサ部300Aに表示された画像を表裏両面からタッチする必要はなく、単に第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知すればよい。   Note that the detailed description of the first input signal has already been described in the first embodiment, and will not be repeated. In the above description, the data display / sensor device 110 includes the superimposition determination unit 890 that determines whether or not there is a superimposition region that overlaps between the image region and the display image region, and the first input generation unit 880a. Has been described as generating the first input signal when the overlapping region exists. However, the data display / sensor device 110 does not necessarily need to include the superimposition determination unit 890. In this case, it is not necessary for the user to touch the image displayed on the first display / light sensor unit 300A from both the front and back surfaces, and the first display / light sensor unit 300A and the second display / light sensor unit 300B both indicate the finger. It is only necessary to detect the image.

第2入力生成部880bは、第1表示/光センサ部300Aが指の像を検知した状態で、第2表示/光センサ部300Bが指の像を検知しなくなったと判定した場合に、そのことを示す入力信号を第1入力生成部880a又は検知判定部870から受信する。そして、その信号を受信することにより、第2入力生成部880bは、第1入力信号を生成する前の状態を再現するための第2入力信号を生成する。そして、第2入力生成部880bは、その第2入力信号をアプリケーション実行部850に送信する。   When the second display / light sensor unit 300B determines that the second display / light sensor unit 300B no longer detects the finger image while the first display / light sensor unit 300A detects the finger image, the second input generation unit 880b Is received from the first input generation unit 880a or the detection determination unit 870. Then, by receiving the signal, the second input generation unit 880b generates a second input signal for reproducing the state before generating the first input signal. Then, the second input generation unit 880b transmits the second input signal to the application execution unit 850.

アプリケーション実行部850は、第1入力生成部880aから第1入力信号を、第2入力生成部880bから第2入力信号を、それぞれ受信する。そして、第1入力信号及び第2入力信号によって示される動作を実行する。続いて、アプリケーション実行部850は、その動作の結果を示す情報である動作結果情報を画像表示制御部860に送信する。   The application execution unit 850 receives the first input signal from the first input generation unit 880a and the second input signal from the second input generation unit 880b. Then, the operation indicated by the first input signal and the second input signal is executed. Subsequently, the application execution unit 850 transmits operation result information, which is information indicating the result of the operation, to the image display control unit 860.

具体的に図12(a)〜図12(c)を参照して説明すると、アプリケーション実行部850は、第1入力生成部880aから第1入力信号を受信することにより、画像20を移動させる動作を実行する。そして、検知判定部870が、第1表示/光センサ部300Aが指の像を検知した状態で、第2表示/光センサ部300Bが指の像を検知しなくなったと判定した場合に、第2入力生成部880bは、第1入力信号が生成される前の状態を再現するための第2入力信号をアプリケーション実行部850に送信する。アプリケーション実行部850は、第2入力信号を受信することにより、図12(b)で示される画像20を、図12(c)で示される位置、すなわち、移動動作が実行される前の位置に戻す動作を実行する。   Specifically, with reference to FIGS. 12A to 12C, the application execution unit 850 moves the image 20 by receiving the first input signal from the first input generation unit 880a. Execute. When the detection determination unit 870 determines that the second display / light sensor unit 300B no longer detects the finger image while the first display / light sensor unit 300A detects the finger image, The input generation unit 880b transmits a second input signal for reproducing a state before the first input signal is generated to the application execution unit 850. By receiving the second input signal, the application execution unit 850 moves the image 20 shown in FIG. 12B to the position shown in FIG. 12C, that is, the position before the moving operation is executed. Perform the revert action.

このように、第1入力生成部880aは第1入力信号を、第2入力生成部880bは第2入力信号を、それぞれアプリケーション実行部850に出力する。そして、アプリケーション実行部850は、第1入力信号及び/又は第2入力信号が示す命令に基づく動作を実行し、さらに、その動作の結果を示す情報である動作結果情報を画像表示制御部860に送信する。その結果、第1表示/光センサ部300Aには、図12(c)で示される位置に画像20が表示される。   As described above, the first input generation unit 880a outputs the first input signal and the second input generation unit 880b outputs the second input signal to the application execution unit 850, respectively. Then, the application execution unit 850 executes an operation based on the command indicated by the first input signal and / or the second input signal, and further, operation result information that is information indicating the result of the operation is sent to the image display control unit 860. Send. As a result, the image 20 is displayed at the position shown in FIG. 12C on the first display / light sensor unit 300A.

なお、図13において、アプリケーション実行部850は主制御部800に含まれる構成である。しかしながら、主制御部800の外部にアプリケーション実行部850を設けて、外部通信部907を介して、所定の動作を実行する構成としてもよい。また、アプリケーション実行部850は、1または複数のアプリケーションを有してよい。   In FIG. 13, the application execution unit 850 is included in the main control unit 800. However, the application execution unit 850 may be provided outside the main control unit 800, and a predetermined operation may be executed via the external communication unit 907. Further, the application execution unit 850 may have one or a plurality of applications.

画像表示制御部860は、アプリケーション実行部850から動作結果情報を受信すると、データ処理部700に表示データを送信する。その表示データは、アプリケーション実行部850によって実行された動作結果を第1表示/光センサ部300Aに表示するようデータ処理部700に促すものである。   Upon receiving the operation result information from the application execution unit 850, the image display control unit 860 transmits display data to the data processing unit 700. The display data prompts the data processing unit 700 to display the operation result executed by the application execution unit 850 on the first display / light sensor unit 300A.

従って、例えば「画像をA点からB点へ移動させる」という動作がアプリケーション実行部850によって実行された場合、画像表示制御部860は、データ処理部700にそのことを示す表示データを送信して、その結果、第1表示/光センサ部300Aに動作結果が表示される。そして、「画像をA点からB点へ移動させる」という動作がアプリケーション実行部850によって実行された場合、画像表示制御部860は、データ処理部700にそのことを示す表示データを送信して、その結果、第1表示/光センサ部300Aに動作結果が表示される。   Therefore, for example, when the operation of “moving the image from point A to point B” is executed by the application execution unit 850, the image display control unit 860 transmits display data indicating that to the data processing unit 700. As a result, the operation result is displayed on the first display / light sensor unit 300A. When the operation of “moving the image from point A to point B” is executed by the application execution unit 850, the image display control unit 860 transmits display data indicating that to the data processing unit 700, As a result, the operation result is displayed on the first display / light sensor unit 300A.

なお、検知判定部870、第1入力生成部880a、及び重畳判定部890は、第1表示/光センサ部300A及び第2表示/光センサ部300Bごとに、指の像の全体画像データ、部分画像データ、及び座標データを送信するようデータ処理部700に要求している。これは、主制御部800で実行されるアプリケーションプログラムが、指の像の全体画像データ、部分画像データ、及び座標データを第1表示/光センサ部300A及び第2表示/光センサ部300Bごとに送信するようデータ処理部700を制御することにより行われる。   Note that the detection determination unit 870, the first input generation unit 880a, and the superimposition determination unit 890 are, for each of the first display / light sensor unit 300A and the second display / light sensor unit 300B, the entire image data of the finger image, The data processing unit 700 is requested to transmit image data and coordinate data. This is because the application program executed by the main control unit 800 displays the entire image data, partial image data, and coordinate data of the finger image for each of the first display / light sensor unit 300A and the second display / light sensor unit 300B. This is done by controlling the data processing unit 700 to transmit.

さらに、図13では、記憶部901は、主制御部800の外部に設けられているが、主制御部800の内部に設けられる構成であってもよい。   Further, in FIG. 13, the storage unit 901 is provided outside the main control unit 800, but may be configured inside the main control unit 800.

(フローチャート説明)
次に、図16を参照しながら、データ表示/センサ装置110の処理の流れ、及び、入力インターフェース制御部805からデータ処理部700に送信されるコマンドの詳細について説明する。
(Flowchart explanation)
Next, the processing flow of the data display / sensor device 110 and the details of the command transmitted from the input interface control unit 805 to the data processing unit 700 will be described with reference to FIG.

図16は、データ表示/センサ装置110の処理の流れを表すフローチャートである。   FIG. 16 is a flowchart showing a process flow of the data display / sensor device 110.

まず、データ表示/センサ装置110の電源がオフの状態にあるとき、ユーザが電源スイッチ905を押下することにより、データ表示/センサ装置110は電源オンとなる(ステップS31)。   First, when the data display / sensor device 110 is turned off, the user presses the power switch 905 to turn on the data display / sensor device 110 (step S31).

そして、ステップS33では、ユーザが電源スイッチ905を押下することにより、表示/光センサ部300に画像が表示される。なお、ここでは、第1表示/光センサ部300Aに画像が表示されるものとする。この状態で、データ表示/センサ装置110は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが指の像を検出するまで待機する。   In step S <b> 33, when the user presses the power switch 905, an image is displayed on the display / light sensor unit 300. Here, it is assumed that an image is displayed on the first display / light sensor unit 300A. In this state, the data display / sensor device 110 stands by until the first display / light sensor unit 300A and the second display / light sensor unit 300B detect the image of the finger.

ここで、第1表示/光センサ部300Aに画像を表示させる場合は、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。なお、第2表示/光センサ部300Bに画像を表示させる場合は、「表示パネル」フィールドの値として下画面(“010”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。ここでは、第1表示/光センサ部300Aに画像を表示させるため、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   Here, when displaying an image on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. When displaying an image on the second display / light sensor unit 300B, a command specifying the lower screen (“010”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. Here, in order to display an image on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output.

また、この段階では、表示/光センサ部300は近傍の像を検知可能な状態にあるものとする。前記検知を行うために、「データ取得タイミング」フィールドに、“イベント”を指定(“01”)し、「データ種別」フィールドに“座標”および“全体画像”の両方を指定(“101”を指定)したコマンドが入力インターフェース制御部805からデータ処理部700に出力される。なお、“座標”または“全体画像”のみを指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力されてもよい。   Further, at this stage, it is assumed that the display / light sensor unit 300 is in a state in which a nearby image can be detected. In order to perform the detection, “event” is specified in the “data acquisition timing” field (“01”), and both “coordinate” and “whole image” are specified in the “data type” field (“101” is specified). The designated command is output from the input interface control unit 805 to the data processing unit 700. Note that a command specifying only “coordinates” or “entire image” may be output from the input interface control unit 805 to the data processing unit 700.

さらに、第1表示/光センサ部300A及び第2表示/光センサ部300Bにおいて前記検知を行うために、「スキャンパネル」フィールドに両方の表示/光センサ部300を指定(“011”)したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   Further, in order to perform the detection in the first display / light sensor unit 300A and the second display / light sensor unit 300B, a command in which both the display / light sensor units 300 are specified (“011”) in the “scan panel” field. Is output from the input interface control unit 805 to the data processing unit 700.

これにより、センサ内蔵液晶パネル301が近傍の像を検知した場合に、検知判定部870、第1入力生成部880a、及び重畳判定部890は、データ処理部700から座標データ、全体画像データ、部分画像データを取得することができる。   As a result, when the sensor built-in liquid crystal panel 301 detects a nearby image, the detection determination unit 870, the first input generation unit 880a, and the superimposition determination unit 890 receive the coordinate data, the entire image data, and the partial data from the data processing unit 700. Image data can be acquired.

つまり、第1表示/光センサ部300A及び第2表示/光センサ部300Bにユーザの指がタッチしたとき、光センサ回路32が、タッチした指の影像および反射像の少なくとも何れかを検知する。その結果、データ処理部700がセンサ制御部602から取得する画像データに変化が生じる。   That is, when the user's finger touches the first display / light sensor unit 300A and the second display / light sensor unit 300B, the light sensor circuit 32 detects at least one of a shadow image and a reflection image of the touched finger. As a result, the image data acquired by the data processing unit 700 from the sensor control unit 602 changes.

このようにして、検知判定部870は、前記画像データに変化が生じた際にデータ処理部700から出力されてくる、座標データ、全体画像データ、部分画像データを取得することにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したことを認識できる。   In this manner, the detection determination unit 870 obtains the coordinate data, the entire image data, and the partial image data that are output from the data processing unit 700 when the image data is changed, thereby performing the first display. It is possible to recognize that both the optical sensor unit 300A and the second display / optical sensor unit 300B have detected the finger image.

そして、ステップS35では、検知判定部870が、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したかどうかを判定する。つまり、表示/光センサ部300ごとの座標データ、全体画像データ、部分画像データがデータ処理部700から検知判定部870に入力されることにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定される。なお、図16では、便宜のため、第1表示/光センサ部300Aを「A」と称し、第2表示/光センサ部300Bを「B」と称している。   In step S35, the detection determination unit 870 determines whether the first display / light sensor unit 300A and the second display / light sensor unit 300B have both detected a finger image. That is, the coordinate data, the entire image data, and the partial image data for each display / light sensor unit 300 are input from the data processing unit 700 to the detection determination unit 870, whereby the first display / light sensor unit 300A and the second display / light sensor unit 300A. It is determined that both of the optical sensor units 300B detect the finger image. In FIG. 16, for the sake of convenience, the first display / light sensor unit 300A is referred to as “A”, and the second display / light sensor unit 300B is referred to as “B”.

第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知した場合(ステップS35でYes)、ステップS37に進む。ステップS37では、重畳判定部890が、第1表示/光センサ部300Aに表示された画像の領域である表示画像領域と、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した指の像の領域である像領域とが重畳するか否かを判定する。つまり、データ処理部700から表示/光センサ部300ごとの座標データ、全体画像データ、部分画像データを取得することにより、重畳判定部890は、座標データ、全体画像データ、及び部分画像データと、第1表示/光センサ部300Aに表示された画像の領域である表示画像領域とを比較して、重畳する領域(重畳領域)が存在するかどうかを判定する。なお、重畳判定部890は、第1表示/光センサ部300Aに表示された画像に係る画像情報を記憶部901から読み出している。   When both the first display / light sensor unit 300A and the second display / light sensor unit 300B detect a finger image (Yes in step S35), the process proceeds to step S37. In step S37, the superimposition determining unit 890 includes a display image region that is a region of an image displayed on the first display / light sensor unit 300A, and the first display / light sensor unit 300A and the second display / light sensor unit 300B. It is determined whether or not the detected image area that is the image area of the finger is superimposed. That is, by acquiring the coordinate data, the entire image data, and the partial image data for each display / light sensor unit 300 from the data processing unit 700, the superimposition determination unit 890 can obtain the coordinate data, the entire image data, and the partial image data, A display image area which is an area of an image displayed on the first display / light sensor unit 300A is compared, and it is determined whether or not an overlapping area (superimposition area) exists. Note that the superimposition determination unit 890 reads image information related to the image displayed on the first display / light sensor unit 300 </ b> A from the storage unit 901.

重畳領域が存在すると判定された場合(ステップS37でYes)、ステップS39に進む。ステップS39では、第1入力生成部880aが、第1表示/光センサ部300Aが検知した指の像の動きを特定して、その指の像の動きに対応付けられた第1入力信号を生成し、その入力信号をアプリケーション実行部850に出力する。   If it is determined that the overlapping area exists (Yes in step S37), the process proceeds to step S39. In step S39, the first input generation unit 880a identifies the movement of the finger image detected by the first display / light sensor unit 300A and generates a first input signal associated with the movement of the finger image. The input signal is output to the application execution unit 850.

続いて、ステップS41では、アプリケーション実行部850が、第1入力生成部880aから第1入力信号を受信して、その命令によって示される動作を実行する。そして、アプリケーション実行部850は、その動作の結果を示す情報である動作結果情報を画像表示制御部860に送信する。   Subsequently, in step S41, the application execution unit 850 receives the first input signal from the first input generation unit 880a, and executes the operation indicated by the command. Then, the application execution unit 850 transmits operation result information that is information indicating a result of the operation to the image display control unit 860.

続いて、ステップS43では、検知判定部870が、第1表示/光センサ部300Aが指の像を検知した状態で、第2表示/光センサ部300Bが指の像を検知しなくなったと判定した場合に、第2入力生成部880bが、第1入力信号が生成される前の状態を再現するための第2入力信号を生成する。そして、第2入力生成部880bは、その第2入力信号をアプリケーション実行部850に出力する。   Subsequently, in step S43, the detection determination unit 870 determines that the second display / light sensor unit 300B no longer detects the finger image while the first display / light sensor unit 300A detects the finger image. In this case, the second input generation unit 880b generates a second input signal for reproducing the state before the first input signal is generated. Then, the second input generation unit 880b outputs the second input signal to the application execution unit 850.

そして、ステップS45では、第1入力信号が生成された結果として何らかの動作が実行された場合であっても、第2表示/光センサ部300Bが指の像を検知しなくなることにより、それまでに実行された動作がキャンセルされる。そして、アプリケーション実行部850は、その動作の結果を示す情報である動作結果情報を画像表示制御部860に送信する。   In step S45, even if any operation is performed as a result of the generation of the first input signal, the second display / light sensor unit 300B stops detecting the image of the finger so far. The executed action is canceled. Then, the application execution unit 850 transmits operation result information that is information indicating a result of the operation to the image display control unit 860.

ここで、画像表示制御部860は、アプリケーション実行部850から動作結果情報を受信して、データ処理部700に表示データを送信する。その表示データは、アプリケーション実行部850によって実行された動作結果を第1表示/光センサ部300Aに表示するようデータ処理部700に促すものである。その結果、第1表示/光センサ部300Aには、アプリケーション実行部850が第1入力生成部880aおよび第2入力生成部880bから受信した命令に基づいて実行した動作結果が表示される。   Here, the image display control unit 860 receives operation result information from the application execution unit 850 and transmits display data to the data processing unit 700. The display data prompts the data processing unit 700 to display the operation result executed by the application execution unit 850 on the first display / light sensor unit 300A. As a result, the first display / light sensor unit 300A displays the operation result executed by the application execution unit 850 based on the commands received from the first input generation unit 880a and the second input generation unit 880b.

なお、第1表示/光センサ部300Aに画像を表示させる場合は、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。また、第2表示/光センサ部300Bに画像を表示させる場合は、「表示パネル」フィールドの値として下画面(“010”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。ここでは、第1表示/光センサ部300Aに画像を表示させるため、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   When an image is displayed on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. When displaying an image on the second display / light sensor unit 300B, a command specifying the lower screen (“010”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output. Here, in order to display an image on the first display / light sensor unit 300A, a command specifying the upper screen (“001”) as the value of the “display panel” field is sent from the input interface control unit 805 to the data processing unit 700. Is output.

一方、ステップS35、及びステップS37で「No」に進む場合は、再びステップS35に戻る。なお、上記説明ではステップS37を含めて説明したが、そのステップは必須ではなく、適宜省略してよい。   On the other hand, when it progresses to "No" by step S35 and step S37, it returns to step S35 again. Although the above description includes step S37, the step is not essential and may be omitted as appropriate.

ここで、図12のケースにおける前記各ステップ(ステップS33〜ステップS45)の処理の流れを説明する。   Here, the process flow of each step (step S33 to step S45) in the case of FIG. 12 will be described.

図12(a)では、第1表示/光センサ部300Aに画像20が表示されている。これは、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力された結果、第1表示/光センサ部300Aに画像20が表示されたものである(ステップS33)。   In FIG. 12A, the image 20 is displayed on the first display / light sensor unit 300A. This is because the command specifying the upper screen (“001”) as the value of the “display panel” field is output from the input interface control unit 805 to the data processing unit 700, and as a result, the image 20 is displayed on the first display / light sensor unit 300A. Is displayed (step S33).

なお、既にこの段階で、「データ取得タイミング」フィールドに、“イベント”を指定(“01”)し、「データ種別」フィールドに“座標”および“全体画像”の両方を指定(“101”を指定)したコマンドが入力インターフェース制御部805からデータ処理部700に出力され、表示/光センサ部300は近傍の像を検知可能な状態にあるものとする。なお、“座標”または“全体画像”のみを指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力されてもよい。   At this stage, “Event” is specified in the “Data acquisition timing” field (“01”), and both “Coordinate” and “Entire image” are specified in the “Data type” field (“101” is set). The designated command is output from the input interface control unit 805 to the data processing unit 700, and the display / light sensor unit 300 is in a state in which a nearby image can be detected. Note that a command specifying only “coordinates” or “entire image” may be output from the input interface control unit 805 to the data processing unit 700.

また、第1表示/光センサ部300A及び第2表示/光センサ部300Bにおいて前記検知を行うために、「スキャンパネル」フィールドに両方の表示/光センサ部300を指定(“011”)したコマンドが、入力インターフェース制御部805からデータ処理部700に出力される。   In addition, in order to perform the detection in the first display / light sensor unit 300A and the second display / light sensor unit 300B, a command in which both display / light sensor units 300 are specified (“011”) in the “scan panel” field. Is output from the input interface control unit 805 to the data processing unit 700.

このような状態において、ユーザが、上面(第1表示/光センサ部300Aが配設された側)から親指で、下面(第2表示/光センサ部300Bが配設された側)から人差し指で、それぞれその画像20をタッチする。そして、第1表示/光センサ部300A及び第2表示/光センサ部300Bは共に指の像を検知することができる状態にあるため、検知判定部870は、第1表示/光センサ部300A及び第2表示/光センサ部300Bが、共に指の像を検知していると判定し、その判定結果を第1入力生成部880aに出力する(ステップS35)。   In such a state, the user can use the thumb from the upper surface (the side on which the first display / light sensor unit 300A is disposed) and the index finger from the lower surface (the side on which the second display / light sensor unit 300B is disposed). , Touch the image 20 respectively. Since both the first display / light sensor unit 300A and the second display / light sensor unit 300B can detect the image of the finger, the detection determination unit 870 includes the first display / light sensor unit 300A and the first display / light sensor unit 300A. The second display / light sensor unit 300B determines that both are detecting a finger image, and outputs the determination result to the first input generation unit 880a (step S35).

また、図12(a)に示すように、第1表示/光センサ部300Aに表示された画像20の領域を示す表示画像領域と、第1表示/光センサ部300A及び第2表示/光センサ部300Bが検知した親指、人差し指の像の領域である像領域とは重畳している。従って、重畳判定部890は、表示画像領域と像領域とが重畳する重畳領域が存在すると判定し、その判定結果を第1入力生成部880aに出力する(ステップS37)。   Also, as shown in FIG. 12 (a), a display image area indicating the area of the image 20 displayed on the first display / light sensor unit 300A, the first display / light sensor unit 300A, and the second display / light sensor. The image area which is the image area of the thumb and index finger detected by the unit 300B is superimposed. Therefore, the superimposition determination unit 890 determines that there is a superimposition region where the display image region and the image region overlap, and outputs the determination result to the first input generation unit 880a (step S37).

なお、重畳判定部890は、データ処理部700から指の像の座標データ、全体画像データ、部分画像データを取得し、それらのデータから前記の像領域を特定する。また、重畳判定部890は、第1表示/光センサ部300Aに表示された画像に係る画像情報を記憶部901から読み出すことにより、画像20の表示画像領域を特定している。このようにして、重畳判定部890は、像領域および表示画像領域を特定することができるため、像領域と表示画像領域との間に重畳する重畳領域が存在するか否かを判定することができる。   Note that the superimposition determination unit 890 acquires coordinate data, whole image data, and partial image data of a finger image from the data processing unit 700, and specifies the image region from these data. In addition, the superimposition determination unit 890 identifies the display image area of the image 20 by reading out the image information related to the image displayed on the first display / light sensor unit 300A from the storage unit 901. In this way, since the superimposition determination unit 890 can specify the image area and the display image area, it can determine whether or not there is a superimposition area that overlaps between the image area and the display image area. it can.

第1入力生成部880aは、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと検知判定部870が判定し、かつ、重畳判定部890が重畳領域が存在すると判定したことを受けて、第1表示/光センサ部300Aが検知した指の像の動きを特定する。   In the first input generation unit 880a, the detection determination unit 870 determines that both the first display / light sensor unit 300A and the second display / light sensor unit 300B detect the image of the finger, and the superimposition determination unit 890 superimposes. In response to the determination that the region exists, the movement of the finger image detected by the first display / light sensor unit 300A is specified.

ここで、図12(b)では、親指(及び人差し指)が図面右方向へ移動しているため、第1入力生成部880aは、その指の像の動きに対応付けられた第1入力信号を生成する。また、第1入力生成部880aは、記憶部901から直接、もしくは重畳判定部890を介して画像20に係る画像情報を取得しており、第1入力信号は、画像20に対応付けて生成されている。そして、第1入力生成部880aはその入力信号をアプリケーション実行部850に出力する(ステップS39)。   Here, in FIG. 12B, since the thumb (and the index finger) is moving in the right direction in the drawing, the first input generation unit 880a outputs the first input signal associated with the movement of the image of the finger. Generate. In addition, the first input generation unit 880a acquires image information related to the image 20 directly from the storage unit 901 or via the superimposition determination unit 890, and the first input signal is generated in association with the image 20. ing. Then, the first input generation unit 880a outputs the input signal to the application execution unit 850 (step S39).

なお、第1入力信号が画像20に対応付けて生成されるとは、アプリケーションが地図である場合は、親指が動く方向に地図も移動する、といったことを表す。従って、地図以外のアプリケーションにおいて、親指を動かす動作によって異なる動作結果を出力するようにしてもよい。このように、第1入力信号は、アプリケーションによって表示される画像に対応付けて生成されてもよい。   The generation of the first input signal in association with the image 20 means that when the application is a map, the map also moves in the direction in which the thumb moves. Therefore, in an application other than a map, different operation results may be output depending on the operation of moving the thumb. Thus, the first input signal may be generated in association with an image displayed by the application.

アプリケーション実行部850は、第1入力生成部880aから第1入力信号を受信して、その命令によって示される動作を実行する。つまり、アプリケーション実行部850は、画像20を図面右方向に移動させる動作を実行する。そのうえで、アプリケーション実行部850は、その動作の結果を示す情報である動作結果情報を画像表示制御部860に送信する。   The application execution unit 850 receives the first input signal from the first input generation unit 880a and executes the operation indicated by the command. That is, the application execution unit 850 executes an operation for moving the image 20 in the right direction of the drawing. In addition, the application execution unit 850 transmits operation result information that is information indicating a result of the operation to the image display control unit 860.

画像表示制御部860は、アプリケーション実行部850から前記の動作結果情報を受信すると、データ処理部700に表示データを送信する。その表示データとは、画像20を図12(a)の位置から図12(b)の位置へ移動して表示することを指示するデータである。そして、データ処理部700は、画像表示制御部860から送信された表示データに基づいて、第1表示/光センサ部300Aに表示された画像20を図12(b)の位置に移動した画像を表示させる。   Upon receiving the operation result information from the application execution unit 850, the image display control unit 860 transmits display data to the data processing unit 700. The display data is data instructing to move and display the image 20 from the position of FIG. 12A to the position of FIG. Then, based on the display data transmitted from the image display control unit 860, the data processing unit 700 moves the image 20 displayed on the first display / light sensor unit 300A to the position shown in FIG. Display.

なお、移動後の画像20の表示は、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドが入力インターフェース制御部805からデータ処理部700に出力された結果、第1表示/光センサ部300Aに移動後の画像20が表示されたものである。   It should be noted that the image 20 after moving is displayed as a result of a command specifying the upper screen (“001”) as the value of the “display panel” field being output from the input interface control unit 805 to the data processing unit 700. / The image 20 after movement is displayed on the optical sensor unit 300A.

続いて、図12(c)では、検知判定部870が、第1表示/光センサ部300Aが指の像を検知した状態で、第2表示/光センサ部300Bが指の像を検知しなくなったと判定し、第2入力生成部880bが、第1入力信号が生成される前の状態を再現するための第2入力信号を生成する。そして、第2入力生成部880bは、その第2入力信号をアプリケーション実行部850に出力する。   Subsequently, in FIG. 12C, the detection / determination unit 870 stops detecting the finger image in the second display / light sensor unit 300 </ b> B in a state where the first display / light sensor unit 300 </ b> A detects the finger image. The second input generation unit 880b generates a second input signal for reproducing the state before the first input signal is generated. Then, the second input generation unit 880b outputs the second input signal to the application execution unit 850.

そして、ステップS45では、第2表示/光センサ部300Bが指の像を検知しなくなることにより、図12(b)で示される位置に画像20が移動した動作がキャンセルされる。そして、アプリケーション実行部850は、図12(c)に示される位置に画像20を戻すという動作の動作結果情報を画像表示制御部860に送信する。   In step S45, the second display / light sensor unit 300B no longer detects the finger image, so that the operation of moving the image 20 to the position shown in FIG. 12B is cancelled. Then, the application execution unit 850 transmits operation result information of the operation of returning the image 20 to the position illustrated in FIG. 12C to the image display control unit 860.

その後の画像表示制御部860の動作は上記説明した通りであるため、ここでの説明は省略する。   Since the subsequent operation of the image display control unit 860 is as described above, description thereof is omitted here.

このようにして、図12(a)〜図12(c)を参照して説明した動作が実行され、その実行結果が第1表示/光センサ部300Aに表示される。   In this way, the operation described with reference to FIGS. 12A to 12C is executed, and the execution result is displayed on the first display / light sensor unit 300A.

また、ここでは第1表示/光センサ部300Aに表示画像を表示するものとして説明したが、第2表示/光センサ部300Bに画像を表示させてもよい。   Further, here, the display image is displayed on the first display / light sensor unit 300A, but the image may be displayed on the second display / light sensor unit 300B.

さらに、第1表示/光センサ部300A及び第2表示/光センサ部300Bによる検知の対象として親指及び人差し指を用いることとして説明したが、検知の対象とする指の種類は、これらの指に限定されず、中指、薬指、小指であってもよい。指の種類ではなく、検知した指の像の動きに基づいて、第1表示/光センサ部300Aに表示された画像に対して所定の動作を実行させるためである。   Furthermore, although it has been described that the thumb and index finger are used as detection targets by the first display / light sensor unit 300A and the second display / light sensor unit 300B, the types of fingers to be detected are limited to these fingers. The middle finger, ring finger, and little finger may be used. This is because a predetermined operation is performed on the image displayed on the first display / light sensor unit 300A based on the detected movement of the finger image instead of the type of the finger.

データ表示/センサ装置110の前記処理によって得られる効果を説明すると以下の通りである。   The effects obtained by the processing of the data display / sensor device 110 will be described as follows.

データ表示/センサ装置110は、前記構成を備えることにより、第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知した場合に、第1入力生成部880aが、指の像の動きに対応付けられた第1入力信号を生成する。そして、第1表示/光センサ部300Aが指の像を検知した状態で、第2表示/光センサ部300Bが指の像を検知しなくなった場合には、第2入力生成部880bが、第1入力信号が生成される前の状態を再現するための第2入力信号を生成する。   The data display / sensor device 110 has the above-described configuration, so that when the first display / light sensor unit 300A and the second display / light sensor unit 300B both detect a finger image, the first input generation unit 880a The first input signal associated with the movement of the finger image is generated. When the second display / light sensor unit 300B stops detecting the finger image while the first display / light sensor unit 300A detects the finger image, the second input generation unit 880b A second input signal for reproducing the state before the one input signal is generated is generated.

従って、第1入力信号が生成された結果として何らかの動作が実行された場合であっても、第2表示/光センサ部300Bが指の像を検知しない状態になることで、それまでに実行された動作がキャンセルされる。つまり、従来であれば、ある機能(モード)に入ってキャンセル動作を実行する、実行した動作を編集モードに入ってキャンセルする、といった操作が必要であったが、データ表示/センサ装置110では、第2表示/光センサ部300Bが指の像を検知しなくなることによって、それまでに実行した動作を容易にキャンセルされる。   Therefore, even if some operation is performed as a result of the generation of the first input signal, the second display / light sensor unit 300B is in a state where it does not detect the image of the finger, and thus has been performed so far. Canceled operation is canceled. In other words, conventionally, operations such as entering a certain function (mode) to execute a cancel operation and entering the edit mode to cancel the executed operation are necessary. However, in the data display / sensor device 110, When the second display / light sensor unit 300B does not detect the image of the finger, the operation executed so far is easily canceled.

なお、データ表示/センサ装置110で実行可能な動作は、「キャンセル(無効)」に限られず、例えば、第2表示/光センサ部300Bが入力操作の動きを検出することにより、「確定」、「変換」といった他の動作が実行されるようにしてもよい。以下、その変形例を説明する。   The operation that can be executed by the data display / sensor device 110 is not limited to “cancel (invalid)”. For example, when the second display / light sensor unit 300B detects the movement of the input operation, Other operations such as “conversion” may be executed. Hereinafter, the modification is demonstrated.

既出の説明では、第1入力生成部880aは、検知判定部870が第1表示/光センサ部300A及び第2表示/光センサ部300Bが共に指の像を検知したと判定し、かつ、重畳判定部890が重畳領域が存在すると判定した場合に、第1表示/光センサ部300Aが検知した指の像の動きを検出して、その指の像の動きに対応付けられた第1入力信号を生成し、その第1入力信号をアプリケーション実行部850に出力している。   In the above description, the first input generation unit 880a determines that the detection determination unit 870 has detected the image of the finger by both the first display / light sensor unit 300A and the second display / light sensor unit 300B, and superimposes. When the determination unit 890 determines that there is an overlapping area, the first display / light sensor unit 300A detects the movement of the finger image detected by the first display / light sensor unit 300A, and the first input signal associated with the movement of the finger image And the first input signal is output to the application execution unit 850.

しかしながら、第1入力生成部880aは、検知判定部870による検知結果および重畳判定部890による判定結果に左右されず、第1表示/光センサ部300Aが検知した指の像の動きを検出して、その指の像の動きに対応付けられた第1入力信号を生成し、その第1入力信号をアプリケーション実行部850に出力する構成としてもよい。   However, the first input generation unit 880a detects the movement of the finger image detected by the first display / light sensor unit 300A, regardless of the detection result by the detection determination unit 870 and the determination result by the superimposition determination unit 890. The first input signal associated with the movement of the finger image may be generated, and the first input signal may be output to the application execution unit 850.

この場合、第1入力生成部880aは、当該指の動きに対応付けられた第1入力信号を生成して、その第1入力信号をアプリケーション実行部850に出力する。そして、アプリケーション実行部850は、第1入力信号に対応付けられた所定の動作を実行する。   In this case, the first input generation unit 880a generates a first input signal associated with the movement of the finger and outputs the first input signal to the application execution unit 850. Then, the application execution unit 850 executes a predetermined operation associated with the first input signal.

その状態において、第2表示/光センサ部300Bが指の像の動きを検知する。これにより、第2入力生成部880bは、アプリケーション実行部850が実行した所定の動作を「確定」することを指示する第2入力信号を生成する。あるいは、例えばアプリケーション実行部850が実行した所定の動作が「文字の入力」であった場合、第2入力生成部880bは、その入力された文字を他の漢字に「変換」することを指示する第2入力信号を生成する。   In this state, the second display / light sensor unit 300B detects the movement of the finger image. Thus, the second input generation unit 880b generates a second input signal that instructs to “confirm” the predetermined operation executed by the application execution unit 850. Alternatively, for example, when the predetermined operation executed by the application execution unit 850 is “character input”, the second input generation unit 880b instructs to “convert” the input character into another kanji. A second input signal is generated.

このように、第2表示/光センサ部300Bが入力操作の動きを検出することで「確定」、「変換」といった動作が実行されるように割り当てておけば、ユーザは、上記各動作を実行したい場合には、第2表示/光センサ部300Bに入力操作の動きを検出させればよい。これにより、ユーザが所望するアプリケーションの上記各動作が実行される。なお、動作例は、「確定」、「変換」に限られず、種々の動作が可能である。   In this way, if the second display / light sensor unit 300B is assigned to execute operations such as “confirm” and “conversion” by detecting the movement of the input operation, the user executes the above-described operations. If desired, the second display / light sensor unit 300B may detect the movement of the input operation. Thereby, each operation of the application desired by the user is executed. Note that the operation examples are not limited to “determined” and “conversion”, and various operations are possible.

また、第2表示/光センサ部300Bが検知すべき入力操作の動きは特に限定されない。例えば、非検知から検知へ変化する入力操作の動きであっても、あるいは、指の像の動きが特定の方向に向かう場合に、「確定」、「変換」といった動作を実行するようにしてもよい。   Further, the movement of the input operation that should be detected by the second display / light sensor unit 300B is not particularly limited. For example, even if the movement of the input operation changes from non-detection to detection, or when the movement of the finger image goes in a specific direction, an operation such as “confirm” or “conversion” may be executed. Good.

このように、第2表示/光センサ部300Bに対する入力操作の動きを予め割り当てておくことにより、ユーザは、所望のアプリケーションの動作を容易に実行することができる。加えて、データ表示/センサ装置110は板状であるため、ユーザは、その裏表両面を指で挟持するようにして上記操作を行うことができる。   As described above, by allocating the movement of the input operation to the second display / light sensor unit 300B in advance, the user can easily execute the operation of the desired application. In addition, since the data display / sensor device 110 has a plate shape, the user can perform the above-described operation so that both the front and back surfaces are sandwiched between fingers.

なお、データ表示/センサ装置110が「キャンセル(無効)」動作を実行する装置とするか、あるいは「確定」、「変換」等の他の動作を実行する装置とするかは、ユーザが選択可能にすればよい。例えば、実行動作選択ボタン等を設けておき、ユーザが何れかを選択可能にすることで、1基のデータ表示/センサ装置110を種々の用途に使用することができる。   Note that the user can select whether the data display / sensor device 110 is a device that performs a “cancel (invalid)” operation or a device that performs other operations such as “confirm” and “conversion”. You can do it. For example, by providing an execution operation selection button or the like and allowing the user to select one, the single data display / sensor device 110 can be used for various purposes.

このように、データ表示/センサ装置110は、優れた操作性及び利便性をユーザに提供することができる。   Thus, the data display / sensor device 110 can provide the user with excellent operability and convenience.

なお、発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims, and the embodiments can be obtained by appropriately combining technical means disclosed in different embodiments. The form is also included in the technical scope of the present invention.

また、本発明に係る入力装置を備えた携帯電話等の情報端末装置も、本発明の技術的範囲に含まれる。
(その他)
なお、本発明に係る入力装置は、次のような構成を備えていても良い。
An information terminal device such as a mobile phone provided with the input device according to the present invention is also included in the technical scope of the present invention.
(Other)
The input device according to the present invention may have the following configuration.

具体的には、本発明に係る入力装置は、入力操作を検出する面状部材が、表裏両面にそれぞれ配設された板状の入力装置であって、表面の面状部材にはX軸、Y軸が設定されており、前記表面の面状部材が検出した入力操作の動きをXY座標により特定し、そのXY座標に対応する第1入力信号を生成する第1入力検出手段と、裏面の面状部材が検出した入力操作の動きに対応する第2入力信号を生成する第2入力検出手段と、を備える構成であってもよい。   Specifically, the input device according to the present invention is a plate-like input device in which the planar members for detecting an input operation are respectively disposed on both the front and back surfaces, and the surface planar member has an X axis, A Y-axis is set, a first input detection means for specifying a movement of an input operation detected by the planar member on the front surface by XY coordinates and generating a first input signal corresponding to the XY coordinates; And a second input detection unit that generates a second input signal corresponding to the movement of the input operation detected by the planar member.

これにより、本発明に係る入力装置および入力装置の制御方法では、表面の面状部材が入力操作を検出した場合には、XY座標により特定された当該入力操作の動きに対応する第1入力信号が第1入力検出手段によって、裏面の面状部材が入力操作を検出した場合には、当該入力操作の動きに対応する第2入力信号が第2入力検出手段によって、それぞれ生成される。   Thus, in the input device and the input device control method according to the present invention, when the surface planar member detects the input operation, the first input signal corresponding to the movement of the input operation specified by the XY coordinates. Are detected by the first input detecting means, the second input signal corresponding to the movement of the input operation is respectively generated by the second input detecting means.

従って、表裏両面の面状部材が様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な操作、つまり、XY軸方向の動きを実現する操作と、第2入力信号に基づいて実現される他の操作とが融合した多彩な操作を可能とする第1入力信号および第2入力信号が生成される。そして、その第1入力信号および第2入力信号に基づいて実現される動作によって、優れた利便性及び操作性を有する入力装置がユーザに提供される。しかも板状の入力装置の裏表両面から画面を指で挟持するように操作するため、ユーザは、極めて容易に当該装置を使用することができる。   Accordingly, by detecting the movements of various input operations by the surface members on both the front and back surfaces, various operations that could not be realized by the conventional input device, that is, operations for realizing movements in the XY axes, and the second input A first input signal and a second input signal are generated that enable various operations fused with other operations realized based on the signals. Then, the operation realized based on the first input signal and the second input signal provides the user with an input device having excellent convenience and operability. In addition, since the operation is performed so that the screen is sandwiched between the front and back surfaces of the plate-like input device with a finger, the user can use the device very easily.

また、本発明に係る入力装置では、前記の構成において、前記第2入力検出手段は、前記裏面の面状部材が検出した入力操作の動きを前記X軸、前記Y軸と共に3次元を規定するZ軸上の移動量及び移動方向として特定し、その特定したZ軸上の移動量及び移動方向に対応する前記第2入力信号を生成する構成としてもよい。   In the input device according to the present invention, in the configuration described above, the second input detection unit defines a three-dimensional motion of the input operation detected by the planar member on the back surface together with the X axis and the Y axis. The second input signal corresponding to the movement amount and the movement direction on the specified Z axis may be generated by specifying the movement amount and the movement direction on the Z axis.

これにより、本発明に係る入力装置では、裏面の面状部材が入力操作を検出した場合には、Z軸上の移動量及び移動方向として特定された当該入力操作の動きに対応する第2入力信号が第2入力検出手段によって生成される。   Thereby, in the input device according to the present invention, when the planar member on the back surface detects the input operation, the second input corresponding to the movement of the input operation specified as the movement amount and the movement direction on the Z axis. A signal is generated by the second input detection means.

従って、表裏両面の面状部材が様々な入力操作を検出することによって、従来の入力装置では実現できなかった多彩な3次元操作を実現する第1入力信号および第2入力信号が生成される。その第1入力信号および第2入力信号に基づいて実現される動作によって、優れた利便性及び操作性を有する入力装置がユーザに提供される。   Therefore, when the planar members on both the front and back surfaces detect various input operations, the first input signal and the second input signal that realize various three-dimensional operations that cannot be realized by the conventional input device are generated. The operation realized based on the first input signal and the second input signal provides the user with an input device having excellent convenience and operability.

加えて、表面の面状部材がXY座標という2次元で特定される第1入力信号に対応し、裏面の面状部材がX軸、Y軸と共に3次元を規定するZ軸上での移動量及び移動方向により特定される第2入力信号に対応する。従って、XYZ軸により規定される3次元の動作を実行するアプリケーションが上記各入力信号によって動作する場合には、ユーザは、自身の操作によって実現される3次元動作を想像したうえで、表裏両面の面状部材に当該3次元動作をもたらす所定の入力操作を検出させることができ、感覚的に優れた操作を体感することができる。   In addition, the surface planar member corresponds to a first input signal that is specified in two dimensions, XY coordinates, and the amount of movement on the Z axis that defines the three-dimensional together with the X and Y axes. And the second input signal specified by the moving direction. Therefore, when an application that executes a three-dimensional operation defined by the XYZ axes is operated by the above input signals, the user imagines a three-dimensional operation realized by the user's own operation, and then performs both front and back surfaces. It is possible to detect a predetermined input operation that causes the planar member to cause the three-dimensional motion, and to experience a sensuously excellent operation.

さらに、本発明に係る入力装置では、前記の構成において、前記第1入力検出手段は、前記特定したXY座標と、XYZ軸により規定される3次元の動作を実行するアプリケーションが動作する動作実行装置にXY軸により規定される2次元の動作を実行させる命令とが対応付けられた第1指−命令対応情報に基づいて、前記特定したXY座標が対応付けられた命令を決定し、該命令を示す前記第1入力信号を前記動作実行装置に送信し、前記第2入力検出手段は、前記特定したZ軸上の移動量及び移動方向と、前記動作実行装置にZ軸方向の動作を実行させる命令とが対応付けられた第2指−命令対応情報に基づいて、前記特定したZ軸上の移動量及び移動方向が対応付けられた命令を決定し、該命令を示す前記第2入力信号を前記動作実行装置に送信する構成としてもよい。   Furthermore, in the input device according to the present invention, in the configuration described above, the first input detection unit is an operation execution device in which an application for executing a three-dimensional operation defined by the specified XY coordinates and XYZ axes operates. Based on the first finger-command correspondence information associated with the command for executing the two-dimensional motion defined by the XY axes, and determining the command associated with the specified XY coordinates, The first input signal is transmitted to the operation execution device, and the second input detection unit causes the operation execution device to execute an operation in the Z-axis direction and the movement amount and movement direction on the specified Z-axis. Based on the second finger-command correspondence information associated with the command, a command associated with the identified movement amount and movement direction on the Z-axis is determined, and the second input signal indicating the command is determined. Said operation It may be transmitted device.

前記の構成によれば、本発明に係る入力装置では、第1入力検出手段は、動作実行装置に2次元の動作を実行させる命令を示す第1入力信号を、第2入力検出手段は、動作実行装置にZ軸方向の動作を実行させる命令を示す第1入力信号を、それぞれ動作実行装置に送信する。そして、その動作実行装置では、XYZ軸により規定される3次元の動作を実行するアプリケーションが動作する。   According to the above configuration, in the input device according to the present invention, the first input detection means outputs the first input signal indicating a command for causing the operation execution device to execute a two-dimensional operation, and the second input detection means operates as an operation. A first input signal indicating a command for causing the execution device to execute an operation in the Z-axis direction is transmitted to the operation execution device. In the operation execution apparatus, an application that executes a three-dimensional operation defined by the XYZ axes operates.

従って、表裏両面の面状部材が様々な入力操作の動きを検出することによって、従来の入力装置では実現できなかった多彩な3次元操作を実現する第1入力信号および第2入力信号が生成されるため、前記アプリケーションは、感覚的に優れた操作をユーザに体感させることができる。   Accordingly, the first and second input signals that realize various three-dimensional operations that could not be realized by the conventional input device are generated by detecting movements of various input operations by the planar members on both the front and back surfaces. Therefore, the application can make the user experience a sensory operation.

なお、動作実行装置は、1つであっても複数であってもよく、また入力装置と一体に構成されていてもよく、さらに入力装置から物理的に離れた位置に存在していてもよい。   Note that there may be one or a plurality of operation execution devices, the operation execution devices may be integrated with the input device, or may be present at a position physically separated from the input device. .

さらに、本発明に係る入力装置では、前記の構成において、前記動作実行装置では地図を表示するアプリケーションが動作している場合、前記第1入力検出手段は、前記地図または該地図上のポインタを移動させるための命令を示す前記第1入力信号を、前記第2入力検出手段は、前記地図を拡大・縮小させるための命令を示す前記第2入力信号を、それぞれ前記動作実行装置に送信する構成としてもよい。   Furthermore, in the input device according to the present invention, in the configuration described above, when an application for displaying a map is operating in the operation execution device, the first input detection unit moves the map or a pointer on the map. The second input detection means transmits the second input signal indicating the command for enlarging / reducing the map to the operation executing device, respectively, the first input signal indicating the command for causing the map to be enlarged / reduced Also good.

前記の構成を備えることにより、表面の面状部材が検出する入力操作の動きに応じて、地図または地図上のポインタが移動し、裏面の面状部材が検出する入力操作の動きに応じて、地図が拡大・縮小する。   By providing the above configuration, the map or the pointer on the map moves according to the movement of the input operation detected by the surface planar member, and according to the movement of the input operation detected by the back surface planar member, The map is enlarged or reduced.

従って、表面側の入力操作の動きが地図を上下左右に移動させ、裏面側の入力操作の動きが地図を拡大・縮小させるため、ユーザにとって感覚的に操作しやすく、利便性に富んだ入力装置が実現する。   Therefore, the input operation on the front side moves the map up, down, left and right, and the movement of the input operation on the back side enlarges / reduces the map. Is realized.

さらに、本発明に係る入力装置では、前記の構成において、前記画像表示制御手段は、前記動作実行装置が実行した動作の結果に基づく画像を、前記面状部材に表示させる構成としてもよい。   Furthermore, in the input device according to the present invention, in the configuration described above, the image display control unit may display an image based on a result of an operation executed by the operation execution device on the planar member.

前記の構成によれば、本発明に係る入力装置では、画像表示制御手段は、前記動作実行装置が実行した動作の結果に基づく画像を前記面状部材に表示させる。   According to the above configuration, in the input device according to the present invention, the image display control means causes the planar member to display an image based on the result of the operation executed by the operation execution device.

従って、画像表示制御手段は、ユーザからの入力操作の動きに対応付けられて実行された動作の結果を画面上に表示して、その結果をユーザに確認させることができる。   Therefore, the image display control means can display the result of the operation executed in association with the movement of the input operation from the user on the screen and allow the user to confirm the result.

なお、その動作後の画像に対してさらに何らかの動作を与えたいときは、前記表裏両面の面状部材に対して所定の入力操作の動きを検出させればよい。つまり、ユーザは、動作の結果を画面上で確認することにより、次の動作を連続的に行うことができる。   In addition, when it is desired to give some operation to the image after the operation, it is only necessary to detect the movement of a predetermined input operation on the surface members on both the front and back surfaces. That is, the user can continuously perform the next operation by checking the operation result on the screen.

なお、前記入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記各手段として動作させることにより前記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。また、前記の入力装置を備えた情報端末装置も、本発明の範疇に入る。   The input device may be realized by a computer. In this case, an input device control program for causing the input device to be realized by a computer by causing the computer to operate as the respective means, and the program recorded therein. Computer-readable recording media are also within the scope of the present invention. An information terminal device provided with the input device also falls within the scope of the present invention.

(プログラム、コンピュータ読み取り可能な記録媒体)
最後に、本実施形態に係るデータ表示/センサ装置100、110の各ブロック、特に入力インターフェース制御部805の入力検出部810、アプリケーション実行部850、画像表示制御部860、検知判定部870、第1入力生成部880a、第2入力生成部880b、及び重畳判定部890は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
(Program, computer-readable recording medium)
Finally, each block of the data display / sensor devices 100 and 110 according to the present embodiment, in particular, the input detection unit 810 of the input interface control unit 805, the application execution unit 850, the image display control unit 860, the detection determination unit 870, the first The input generation unit 880a, the second input generation unit 880b, and the superimposition determination unit 890 may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、本実施形態に係るデータ表示/センサ装置100、110は、各機能を実現する制御プログラムの命令を実行するCPU(Central Processing Unit)、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデータ表示/センサ装置100、110の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記データ表示/センサ装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the data display / sensor devices 100 and 110 according to the present embodiment include a CPU (Central Processing Unit) that executes instructions of a control program that realizes each function, a ROM (Read Only Memory) that stores the program, and the program. And a storage device (recording medium) such as a memory for storing the program and various data. The object of the present invention is to record the program code (execution format program, intermediate code program, source program) of the control program of the data display / sensor devices 100, 110, which is software that realizes the above-described functions, in a computer-readable manner. This can also be achieved by supplying the recorded medium to the data display / sensor device 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、本実施形態に係るデータ表示/センサ装置100、110を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The data display / sensor devices 100 and 110 according to the present embodiment may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明は、二つの入力面から入力する携帯電話機、PDAなどのモバイル機器(携帯端末)に適用できる。特に、像検知装置を備えた携帯端末に好適である。   The present invention can be applied to mobile devices (portable terminals) such as mobile phones and PDAs that input from two input surfaces. In particular, it is suitable for a portable terminal equipped with an image detection device.

本発明の一実施形態に係るデータ表示/センサ装置の要部構成を表すブロック図である。It is a block diagram showing the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を模式的に示す図である。It is a figure which shows typically the cross section of the liquid crystal panel with a built-in sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. (a)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。(b)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。(A) is a schematic diagram which shows a mode that the position which the user touched is detected by detecting a reflected image with the sensor built-in liquid crystal panel with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. (B) is a schematic diagram which shows a mode that the position which the user touched is detected by detecting a shadow image with the sensor built-in liquid crystal panel with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を模式的に示す図である。It is a figure which shows typically an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. 図5に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。It is a figure explaining an example of the value which can be specified to each field contained in the command shown in FIG. 5, and its outline. (a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。(A) is an image obtained as a result of scanning the entire liquid crystal panel with built-in sensor when the object is not placed on the liquid crystal panel with built-in sensor in the data display / sensor device according to one embodiment of the present invention. It is data. (B) is image data obtained as a result of scanning when the user touches the sensor-equipped liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided, and the structure of its peripheral circuit. (a)〜(g)は、ある地域を上空から撮影した鳥瞰写真が表示/光センサ部に表示されたときの様子を示す図である。(A)-(g) is a figure which shows a mode when the bird's-eye view photo which image | photographed the certain area from the sky is displayed on the display / light sensor part. アプリケーションが地図である場合における指−命令対応情報の一例を示す図であり、(a)は第1指−命令対応情報を、(b)は第2指−命令対応情報を示すテーブルである。It is a figure which shows an example of the finger-command corresponding information in case an application is a map, (a) is a table which shows 1st finger-command corresponding information, (b) is the 2nd finger-command corresponding information. 本発明の一実施形態に係るデータ表示/センサ装置の処理の流れを表すフローチャートである。It is a flowchart showing the flow of a process of the data display / sensor apparatus which concerns on one Embodiment of this invention. (a)では、第1表示/光センサ部に画像が表示され、その画像が、上面から親指で、下面から人差し指で、それぞれタッチされており、(b)では、ユーザは、親指と人差し指を同一方向(図面横方向において、右方向)へ移動させて、画面の外部へ当該画像を移動させようとしており、(c)では、ユーザは、人差し指を第2表示/光センサ部から離し、当該画像が、12(a)で示す最初の位置に自動的に戻っている様子を示す図である。In (a), an image is displayed on the first display / light sensor unit, and the image is touched with the thumb from the top and the index finger from the bottom, and in (b), the user holds the thumb and index finger. The image is moved to the outside of the screen by moving in the same direction (rightward in the horizontal direction of the drawing). In (c), the user moves the index finger away from the second display / light sensor unit, and It is a figure which shows a mode that the image has automatically returned to the first position shown by 12 (a). 本発明の実施形態に係る他のデータ表示/センサ装置の要部構成を表すブロック図である。It is a block diagram showing the principal part structure of the other data display / sensor apparatus which concerns on embodiment of this invention. 円形の画像についての画像情報を説明するための図である。It is a figure for demonstrating the image information about a circular image. 正方形の画像についての画像情報を説明するための図である。It is a figure for demonstrating the image information about a square image. 本発明の他の実施形態に係るデータ表示/センサ装置の処理の流れを表すフローチャートである。It is a flowchart showing the flow of a process of the data display / sensor apparatus which concerns on other embodiment of this invention.

100、110 データ表示/センサ装置(入力装置)
800 主制御部
805 入力インターフェース制御部
810 入力検出部
810a 第1入力検出部(第1入力検出手段)
810b 第2入力検出部(第2入力検出手段)
850 アプリケーション実行部(動作実行装置)
860 画像表示制御部(画像表示制御手段)
870 検知判定部(検知判定手段)
880a 第1入力生成部(第1入力生成手段)
880b 第2入力生成部(第2入力生成手段)
890 重畳判定部
100, 110 Data display / sensor device (input device)
800 Main control unit 805 Input interface control unit 810 Input detection unit 810a First input detection unit (first input detection means)
810b Second input detection unit (second input detection means)
850 application execution unit (operation execution device)
860 Image display control unit (image display control means)
870 detection determination unit (detection determination means)
880a 1st input production | generation part (1st input production | generation means)
880b Second input generation unit (second input generation means)
890 Superimposition determination unit

Claims (6)

入力操作を検出する面状部材が、表裏両面にそれぞれ配設された板状の入力装置であって、
表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出手段と、
裏面の面状部材が検出した入力操作の動きを特定して、前記アプリケーションの前記第1方向とは異なる第2方向への動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出手段と、を備えることを特徴とする入力装置。
The planar members for detecting the input operation are plate-like input devices respectively disposed on the front and back surfaces,
A first input corresponding to the movement of the specified input operation is identified and associated with the movement in the first direction of the application that executes the predetermined movement by identifying the movement of the input operation detected by the surface planar member. First input detecting means for generating a signal;
The movement of the input operation detected by the sheet member on the back surface is specified, and the specified input in the sheet member on the back surface is associated with the movement of the application in the second direction different from the first direction. An input device comprising: second input detection means for generating a second input signal corresponding to the movement of the operation.
前記表面の面状部材にはX軸、Y軸が設定されており、前記第1入力検出手段は、前記表面の面状部材が検出した入力操作の動きをXY座標上の移動量及び移動方向として特定し、その特定したXY座標上の移動量及び移動方向に対応する第1入力信号を生成し、
前記第2入力検出手段は、前記裏面の面状部材が検出した入力操作の動きを前記X軸、前記Y軸と共に3次元を規定するZ軸上の移動量及び移動方向として特定し、その特定したZ軸上の移動量及び移動方向に対応する前記第2入力信号を生成することを特徴とする請求項1に記載の入力装置。
An X axis and a Y axis are set on the surface planar member, and the first input detection means detects the movement of the input operation detected by the surface planar member on the XY coordinates and the movement direction. And generating a first input signal corresponding to the movement amount and movement direction on the specified XY coordinates,
The second input detection means specifies the movement of the input operation detected by the planar member on the back surface as a movement amount and a movement direction on the Z axis that defines three dimensions together with the X axis and the Y axis. The input device according to claim 1, wherein the second input signal corresponding to the movement amount and movement direction on the Z axis is generated.
前記第1入力検出手段は、前記特定したXY座標上の移動量及び移動方向と、XYZ軸により規定される3次元の動作を実行する前記アプリケーションが動作する動作実行装置にXY軸により規定される前記第1方向の動作を実行させる命令とが対応付けられた第1命令対応情報に基づいて、前記特定したXY座標上の移動量及び移動方向が対応付けられた命令を決定し、該命令を示す前記第1入力信号を前記動作実行装置に送信し、
前記第2入力検出手段は、前記特定したZ軸上の移動量及び移動方向と、前記動作実行装置にZ軸方向により規定される前記第2方向の動作を実行させる命令とが対応付けられた第2命令対応情報に基づいて、前記特定したZ軸上の移動量及び移動方向が対応付けられた命令を決定し、該命令を示す前記第2入力信号を前記動作実行装置に送信することを特徴とする請求項2に記載の入力装置。
The first input detection means is defined by an XY axis in an operation execution device that operates the application that executes a three-dimensional operation defined by the specified movement amount and movement direction on the XY coordinates and the XYZ axes. Based on the first instruction correspondence information associated with the instruction for executing the operation in the first direction, the instruction associated with the movement amount and the movement direction on the specified XY coordinates is determined, and the instruction is Transmitting the first input signal indicating to the operation executing device;
In the second input detection means, the movement amount and movement direction on the specified Z axis are associated with a command for causing the operation execution device to execute an operation in the second direction defined by the Z axis direction. Determining a command associated with the identified movement amount and movement direction on the Z-axis based on the second command correspondence information, and transmitting the second input signal indicating the command to the operation execution device; The input device according to claim 2, wherein
前記表裏両面の面状部材のうち、少なくとも何れか一方の面状部材に画像を表示させる画像表示制御手段を備え、
前記第1命令対応情報及び前記第2命令対応情報は、前記画像に対応付けられていることを特徴とする請求項3に記載の入力装置。
Image display control means for displaying an image on at least one of the surface members on both the front and back surfaces,
The input device according to claim 3, wherein the first instruction correspondence information and the second instruction correspondence information are associated with the image.
入力操作を検出する面状部材が、表裏両面にそれぞれ配設された板状の入力装置であって、
表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1の動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出手段と、
裏面の面状部材が検出した入力操作の動きを特定して、または、裏面の面状部材に対する検出から非検出への入力操作の動きを特定して、前記アプリケーションの前記第1の動作に付随する第2の動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出手段と、を備えることを特徴とする入力装置。
The planar members for detecting the input operation are plate-like input devices respectively disposed on the front and back surfaces,
A first input signal corresponding to the identified input operation movement is associated with the first movement of the application that performs the predetermined movement by identifying the movement of the input operation detected by the surface planar member. First input detecting means for generating;
Accompanying the first operation of the application by identifying the movement of the input operation detected by the sheet member on the back surface or identifying the movement of the input operation from detection to non-detection for the sheet member on the back surface And second input detection means for generating a second input signal corresponding to the movement of the specified input operation in the sheet member on the back surface associated with the second movement. apparatus.
入力操作を検出する面状部材が、表裏両面にそれぞれ配設された板状の入力装置の制御方法であって、
表面の面状部材が検出した入力操作の動きを特定して、所定の動作を実行するアプリケーションの第1方向への動作に対応付けられた、前記特定した入力操作の動きに対応する第1入力信号を生成する第1入力検出ステップと、
裏面の面状部材が検出した入力操作の動きを特定して、前記アプリケーションの前記第1方向とは異なる第2方向への動作に対応付けられた、前記裏面の面状部材における前記特定した入力操作の動きに対応する第2入力信号を生成する第2入力検出ステップと、を含むことを特徴とする入力装置の制御方法。
A planar member for detecting an input operation is a control method for a plate-like input device arranged on both the front and back surfaces,
A first input corresponding to the movement of the specified input operation is identified and associated with the movement in the first direction of the application that executes the predetermined movement by identifying the movement of the input operation detected by the surface planar member. A first input detection step for generating a signal;
The movement of the input operation detected by the sheet member on the back surface is specified, and the specified input in the sheet member on the back surface is associated with the movement of the application in the second direction different from the first direction. And a second input detection step of generating a second input signal corresponding to the movement of the operation.
JP2009094117A 2009-04-08 2009-04-08 Input device, and method of controlling the same Pending JP2010244409A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009094117A JP2010244409A (en) 2009-04-08 2009-04-08 Input device, and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009094117A JP2010244409A (en) 2009-04-08 2009-04-08 Input device, and method of controlling the same

Publications (1)

Publication Number Publication Date
JP2010244409A true JP2010244409A (en) 2010-10-28

Family

ID=43097345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009094117A Pending JP2010244409A (en) 2009-04-08 2009-04-08 Input device, and method of controlling the same

Country Status (1)

Country Link
JP (1) JP2010244409A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067128A (en) * 2001-08-30 2003-03-07 Sharp Corp Information processor with pad type pointing device
JP2007141029A (en) * 2005-11-21 2007-06-07 Matsushita Electric Ind Co Ltd Portable information device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067128A (en) * 2001-08-30 2003-03-07 Sharp Corp Information processor with pad type pointing device
JP2007141029A (en) * 2005-11-21 2007-06-07 Matsushita Electric Ind Co Ltd Portable information device

Similar Documents

Publication Publication Date Title
JP2010146506A (en) Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device
TWI579732B (en) Multi display apparatus and control method thereof
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
US20110102599A1 (en) Mobile terminal including projector and control method thereof
JP2010108081A (en) Menu display device, method of controlling the menu display device, and menu display program
KR20140046319A (en) Multi display apparatus and multi display method
KR20140028221A (en) Method and apparatus for setting electronic blackboard system
JP2010140300A (en) Display, control method, control program and recording medium
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
CN108563383A (en) A kind of image viewing method and mobile terminal
JP5306780B2 (en) Input device
JP2010122972A (en) Image display/detection device, selection method, and program
JP5185086B2 (en) Display device, display device control method, display device control program, and computer-readable recording medium storing the program
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010109467A (en) Image display/image detection apparatus
JP2010122383A (en) Display apparatus
JP2010160689A (en) Input device and method of controlling the same
WO2010050567A1 (en) Data transmission support device, electronic equipment and data transmission support device control method
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
JP5567776B2 (en) Color detection / color output device, color detection / color output program, computer-readable recording medium, and color detection / color output method
JP5275754B2 (en) Process execution instruction device, electronic apparatus, and method for controlling process execution instruction device
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
JP2010244409A (en) Input device, and method of controlling the same
JP2010256969A (en) User interface device and method for controlling the same
JP2010117841A (en) Image detection device, recognition method of input position and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120925