JP2010092340A - Image display/image detection apparatus, image display method, image display program, and recording medium with program recorded thereon - Google Patents

Image display/image detection apparatus, image display method, image display program, and recording medium with program recorded thereon Download PDF

Info

Publication number
JP2010092340A
JP2010092340A JP2008262748A JP2008262748A JP2010092340A JP 2010092340 A JP2010092340 A JP 2010092340A JP 2008262748 A JP2008262748 A JP 2008262748A JP 2008262748 A JP2008262748 A JP 2008262748A JP 2010092340 A JP2010092340 A JP 2010092340A
Authority
JP
Japan
Prior art keywords
image
display
image display
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008262748A
Other languages
Japanese (ja)
Other versions
JP5095574B2 (en
Inventor
Shigemutsu Matsuda
栄睦 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008262748A priority Critical patent/JP5095574B2/en
Publication of JP2010092340A publication Critical patent/JP2010092340A/en
Application granted granted Critical
Publication of JP5095574B2 publication Critical patent/JP5095574B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display/image detection apparatus which activates an application in an image display area desired by a user without urging complicated operation to the user. <P>SOLUTION: The image display/image detection apparatus (data display/sensor apparatus) 100 includes: an indicating direction detection unit 12 for detecting an indicating direction based on a positional coordinate of a point indicating an icon displayed on any display/optical sensor unit 300 and a positional coordinate of a point indicated next to the point; a display position decision unit 14 for setting, as the display/optical sensor unit 300 for displaying a window image, any of the display/optical sensor units 300 disposed in a direction indicated by the indicating direction; and a display processing control unit 15 for displaying the window image in the decided display/optical sensor unit 300. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像を表示すると共に、近傍に位置する対象物の像を検知する画像表示/像検知装置に関するものである。より具体的には、画像表示/像検知装置におけるアプリケーションの処理に関するものである。   The present invention relates to an image display / image detection apparatus that displays an image and detects an image of an object located nearby. More specifically, the present invention relates to application processing in the image display / image detection apparatus.

従来、複数の画像表示装置を備えたコンピュータにおいてアプリケーションを起動すると、アプリケーションは予め決められた画像表示装置において起動する。そのため、別の画像表示装置にアプリケーションウィンドウを表示させたい場合には、アプリケーションを起動させた後、例えばマウスを用いたドラッグなどのユーザ操作により、所望の画像表示装置上にアプリケーションウィンドウを移動させる必要がある。   Conventionally, when an application is activated on a computer having a plurality of image display devices, the application is activated on a predetermined image display device. For this reason, when an application window is to be displayed on another image display device, it is necessary to move the application window onto the desired image display device by user operation such as dragging using a mouse after the application is started. There is.

従来のアプリケーションの起動、および、起動したアプリケーションに対応するアプリケーションウィンドウの移動の具体例を図18(a)〜(c)を参照して説明する。まず、ユーザが、図18(a)に示すように、アプリケーションを起動させるためのアイコンをタッチ(またはポインタにより選択)する。すると、図18(b)に示すように、アプリケーションが起動し、あらかじめ定められた画面(ここでは、下部筐体41における表示部310B)にアプリケーションウィンドウが表示される。   Specific examples of conventional application activation and application window movement corresponding to the activated application will be described with reference to FIGS. First, as shown in FIG. 18A, the user touches (or selects with an pointer) an icon for starting an application. Then, as shown in FIG. 18B, the application is activated, and an application window is displayed on a predetermined screen (here, the display unit 310B in the lower housing 41).

このとき、ユーザが上側の画面(上部筐体40における表示部310A)にアプリケーションウィンドウを表示させたいと考えていた場合であっても、図18(c)に示すように、一度アプリケーションを起動し、アプリケーションウィンドウを表示部310Aに表示させた後、アプリケーションウィンドウを表示部310Bにドラッグしなければならない。   At this time, even if the user wants to display the application window on the upper screen (display unit 310A in the upper housing 40), as shown in FIG. After the application window is displayed on the display unit 310A, the application window must be dragged to the display unit 310B.

アプリケーションウィンドウの表示位置を自動的に変更する技術としては、例えば特許文献1に記載の技術がある。しかし、特許文献1に記載の技術は、表示されているアプリケーションウィンドウが互いに重ならないように表示位置および表示面積を調整するのみであり、アプリケーションの起動時におけるアプリケーションウィンドウの表示位置を決定することはできない。   As a technique for automatically changing the display position of the application window, there is a technique described in Patent Document 1, for example. However, the technique described in Patent Document 1 only adjusts the display position and the display area so that the displayed application windows do not overlap each other, and determining the display position of the application window at the time of starting the application is not possible. Can not.

アプリケーションの起動時において、ユーザが所望する位置にアプリケーションウィンドウを表示させる技術としては、例えば特許文献2に記載の技術を挙げることができる。特許文献2には、マウスのドラッグ開始位置およびドラッグ終了位置からアプリケーションウィンドウの表示位置および表示サイズを取得し、それに応じてアプリケーションを起動させる技術が開示されている。
特開平11−194867号公報(公開日:平成11年7月21日) 特開2001−296945号公報(公開日:平成13年10月26日)
As a technique for displaying an application window at a position desired by the user when the application is activated, for example, a technique described in Patent Document 2 can be cited. Patent Document 2 discloses a technique for acquiring the display position and display size of an application window from the drag start position and drag end position of the mouse, and starting the application accordingly.
JP 11-194867 A (publication date: July 21, 1999) JP 2001-296945 A (publication date: October 26, 2001)

しかし、特許文献2に記載の技術では、キーボードにおけるキーの押下と共に、マウスをドラッグしなければならず、アプリケーションの起動に要するユーザ操作の回数が増加することになる。そのため、アプリケーションウィンドウの表示位置を決める際に、ユーザに対して煩雑な操作を強いることになるという問題を依然として有している。   However, in the technique described in Patent Document 2, the mouse must be dragged as the key on the keyboard is pressed, and the number of user operations required to start the application increases. For this reason, there is still a problem that the user is forced to perform complicated operations when determining the display position of the application window.

また、画像表示装置が大画面である場合には、ドラッグのためにマウスを移動させる移動量が増加するため、ユーザの所望する位置およびサイズでアプリケーションを起動させることが非常に困難になるという問題も有している。   In addition, when the image display device has a large screen, the amount of movement for moving the mouse for dragging increases, which makes it very difficult to start the application at the position and size desired by the user. Also have.

本発明は、上記の各問題に鑑みてなされたものであり、その主たる目的は、ユーザに煩雑な操作を強いることなく、ユーザの所望する位置にアプリケーションウィンドウを表示させることができる画像表示装置(画像表示/像検知装置)を提供することにある。   The present invention has been made in view of the above-described problems, and a main object of the present invention is an image display device that can display an application window at a position desired by the user without forcing the user to perform complicated operations. An image display / image detection apparatus) is provided.

本発明に係る画像表示/像検知装置では、上記課題を解決するために、
画像を表示すると共に、近傍に位置する対象物の像を検知する1つ以上の面状部材を備えた画像表示/像検知装置であって、上記1つ以上の面状部材上に設けられた複数の画像表示領域の何れかに表示されたアイコン上の点が上記面状部材の近傍に位置する物体により指示されたとき、この点の位置座標と、この点の次に上記面状部材の近傍に位置する物体により指示された点の位置座標とに基づいて、指示方向を検出する指示方向検出手段と、上記アイコンが表示されている画像表示領域に対して上記指示方向にある他の画像表示領域の何れかを上記アイコンに関連付けられたアプリケーションにより表示されるウィンドウ画像を表示する画像表示領域として設定する表示領域設定手段と、上記表示領域設定手段において設定された画像表示領域に、上記アイコンに関連付けられたアプリケーションにより表示されるウィンドウを表示する表示処理制御手段と、を備えていることを特徴としている。
In the image display / image detection apparatus according to the present invention, in order to solve the above problems,
An image display / image detection device including one or more planar members for displaying an image and detecting an image of an object located in the vicinity, provided on the one or more planar members When a point on an icon displayed in any of a plurality of image display areas is designated by an object located in the vicinity of the planar member, the position coordinates of this point and the point of the planar member next to this point Based on the position coordinates of a point indicated by an object located in the vicinity, an indication direction detection means for detecting an indication direction, and another image in the indication direction with respect to the image display area where the icon is displayed Display area setting means for setting any one of the display areas as an image display area for displaying a window image displayed by an application associated with the icon, and an image table set in the display area setting means In the region, it is characterized by comprising a display processing control means for displaying a window displayed by the application associated with the icon.

本発明に係る画像表示/像検知装置では、ユーザの指示する指示方向を検出する指示方向検出手段と、指示方向により示される方向に配置されている画像表示領域からアプリケーションにより表示されるウィンドウを表示する画像表示領域を設定する表示領域設定手段と、設定された画像表示領域にウィンドウを表示する表示処理制御手段と、を備えている。   In the image display / image detection apparatus according to the present invention, an indication direction detection means for detecting an indication direction designated by a user and a window displayed by an application from an image display area arranged in the direction indicated by the indication direction are displayed. Display area setting means for setting an image display area to be displayed, and display processing control means for displaying a window in the set image display area.

これによって、本発明に係る画像表示/像検知装置では、ユーザは、アプリケーションにより表示されるウィンドウを表示させたい画像表示領域の方向を指示するのみで、所望の画像表示領域においてウィンドウを表示させることができる。したがって、本発明に係る画像表示/像検知装置は、ユーザに対して煩雑な操作を強いることなく、起動させたアプリケーションにより表示されるウィンドウ画像をユーザの所望する画像表示領域において表示することができる効果を奏する。   Thus, in the image display / image detection apparatus according to the present invention, the user can display a window in a desired image display area only by indicating the direction of the image display area in which the window displayed by the application is to be displayed. Can do. Therefore, the image display / image detection apparatus according to the present invention can display the window image displayed by the activated application in the image display area desired by the user without forcing the user to perform complicated operations. There is an effect.

本発明に係る画像表示方法では、上記課題を解決するために、
画像を表示すると共に、近傍に位置する対象物の像を検知する1つ以上の面状部材を備えた画像表示/像検知装置における画像表示方法であって、上記1つ以上の面状部材上に設けられた複数の画像表示領域の何れかに表示されたアイコン上の点が上記面状部材の近傍に位置する物体により指示されたとき、この点の位置座標と、この点の次に上記面状部材の近傍に位置する物体により指示された点の位置座標とに基づいて、指示方向を検出する指示方向検出ステップと、上記アイコンが表示されている画像表示領域に対して上記指示方向にある他の画像表示領域の何れかを上記アイコンに関連付けられたアプリケーションにより表示されるウィンドウを表示する画像表示領域として設定する表示領域設定ステップと、上記表示領域設定ステップにおいて設定された画像表示領域に、上記アイコンに関連付けられたアプリケーションにより表示されるウィンドウを表示する表示処理制御ステップと、を含むことを特徴としている。
In the image display method according to the present invention, in order to solve the above problems,
An image display method in an image display / image detection apparatus including one or more planar members for displaying an image and detecting an image of an object located in the vicinity, wherein the image display method includes the above-described one or more planar members. When the point on the icon displayed in any of the plurality of image display areas provided in is pointed by an object located in the vicinity of the planar member, the position coordinates of this point, and the point Based on the position coordinates of a point designated by an object located in the vicinity of the planar member, an indication direction detection step for detecting an indication direction, and an indication direction relative to the image display area where the icon is displayed A display area setting step for setting any one of the other image display areas as an image display area for displaying a window displayed by the application associated with the icon; and the display area setting step. The image display area set in flop, is characterized by comprising a display processing control step of displaying a window that is displayed by the application associated with the icon, the.

上記の構成によれば、上述した画像表示/像検知装置と同様の作用効果を奏する。   According to said structure, there exists an effect similar to the image display / image detection apparatus mentioned above.

本発明に係る画像表示/像検知装置では、上記課題を解決するために、
画像を表示すると共に、近傍に位置する対象物の像を検知する1つ以上の面状部材を備えた画像表示/像検知装置であって、上記1つ以上の面状部材上に設けられた複数の画像表示領域の何れかに表示された第1の画像上の点が上記面状部材の近傍に位置する物体により指示されたとき、この点を指示する上記面状部材の近傍に位置する物体の像の数を算出する算出手段と、上記第1の画像の種類および上記算出手段において算出された像の数に応じて、当該画像表示/像検知装置において実行する処理を決定する処理決定手段と、上記物体により指示された上記第1の画像上の点の位置座標と、この点の次に上記面状部材の近傍に位置する物体により指示された点の位置座標とに基づいて、指示方向を検出する指示方向検出手段と、上記第1の画像が表示されている画像表示領域に対して上記指示方向にある他の画像表示領域の何れかを上記処理決定手段において決定された処理を実行することにより得られる第2の画像を表示する画像表示領域として設定する表示領域設定手段と、上記表示領域設定手段により設定された画像表示領域に上記第2の画像を表示する表示処理制御手段と、を備えていることを特徴としている。
In the image display / image detection apparatus according to the present invention, in order to solve the above problems,
An image display / image detection device including one or more planar members for displaying an image and detecting an image of an object located in the vicinity, provided on the one or more planar members When a point on the first image displayed in any of the plurality of image display areas is designated by an object located in the vicinity of the planar member, the point is located in the vicinity of the planar member indicating this point A calculation unit that calculates the number of images of the object, and a process determination that determines a process to be executed in the image display / image detection device according to the type of the first image and the number of images calculated by the calculation unit. Based on the means, the position coordinates of the point on the first image indicated by the object, and the position coordinates of the point indicated by the object located in the vicinity of the planar member next to this point, Pointing direction detecting means for detecting the pointing direction; A second image obtained by executing the process determined by the process determining means in any one of the other image display areas in the indicated direction with respect to the image display area in which the image is displayed is displayed. It is characterized by comprising display area setting means for setting as an image display area and display processing control means for displaying the second image in the image display area set by the display area setting means.

上記の構成によれば、画像表示領域のいずれかに表示されている第1の画像の少なくとも一部を被覆する物体の像の数に応じて、当該画像表示/像検知装置において実行する処理を決定する。   According to the above configuration, the process executed in the image display / image detection device according to the number of images of the object covering at least a part of the first image displayed in any of the image display areas. decide.

これによって、物体の像の数を変更するのみで、例えば、ユーザの指の数またはタッチペンの数を変更することによるのみで、画像表示/像検知装置に所望の処理を実行させることができる。   As a result, the image display / image detection apparatus can execute a desired process only by changing the number of images of the object, for example, by changing the number of fingers of the user or the number of touch pens.

したがって、本発明に係る画像表示/像検知装置は、ユーザに対して煩雑な操作を強いることなく、ユーザの所望する画像表示領域に第2の画像を表示させることができると共に、画像表示/像検知装置において実行する処理を、容易な操作で設定することができる効果を奏する。   Therefore, the image display / image detection apparatus according to the present invention can display the second image in the image display area desired by the user without forcing the user to perform complicated operations, and can also display the image display / image. There is an effect that the process executed in the detection device can be set by an easy operation.

本発明に係る画像表示/像検知装置では、さらに、上記処理決定手段は、上記第1の画像がアイコンであり、かつ、上記算出手段において算出された像の数が第1の値である場合、当該画像表示/像検知装置において実行する処理を、上記アイコンに関連付けられたアプリケーションの実行に決定することが好ましい。   In the image display / image detection apparatus according to the present invention, the processing determination unit may further include the case where the first image is an icon and the number of images calculated by the calculation unit is a first value. It is preferable that the process to be executed in the image display / image detection apparatus is determined to execute the application associated with the icon.

本発明に係る画像表示/像検知装置では、さらに、上記処理決定手段は、上記第1の画像が上記アプリケーションにより表示されるウィンドウであり、かつ、上記算出手段において算出された像の数が第3の値である場合、当該画像表示/像検知装置において実行する処理を、当該ウィンドウの表示の終了に決定することが好ましい。   In the image display / image detection apparatus according to the present invention, the processing determination means is a window in which the first image is displayed by the application, and the number of images calculated by the calculation means is the first. When the value is 3, it is preferable that the processing to be executed in the image display / image detection apparatus is determined to end the display of the window.

本発明に係る画像表示/像検知装置では、さらに、上記処理決定手段は、上記算出手段において算出された像の数が第2の値である場合、当該画像表示/像検知装置において実行する処理を、上記第1の画像を表示する上記画像表示領域の変更に決定することが好ましい。   In the image display / image detection apparatus according to the present invention, the process determination unit further executes a process to be executed in the image display / image detection apparatus when the number of images calculated by the calculation unit is the second value. Is preferably determined to change the image display area for displaying the first image.

上記の構成によれば、片手で、かつ、ユーザが直感的に理解しやすい物体の像の数により各処理を実行させることができる効果を奏する。   According to said structure, there exists an effect which can perform each process with the number of the image of the object which a user can understand intuitively with one hand.

本発明に係る画像表示/像検知装置では、さらに、上記指示方向検出手段は、上記面状部材の近傍に位置する物体を逐次検知した像の位置座標の軌跡を参照して指示方向を検出することが好ましい。   In the image display / image detection apparatus according to the present invention, the pointing direction detection means detects the pointing direction with reference to a locus of position coordinates of an image obtained by sequentially detecting an object located in the vicinity of the planar member. It is preferable.

上記の構成によれば、指示方向検出手段は、上記面状部材の近傍に位置する物体の像を逐次検知することにより、時間的に連続する像の位置座標の軌跡に応じて指示方向を検出する。すなわち、物体のスクロール方向に応じて指示方向を検出する。   According to the above configuration, the pointing direction detection means detects the pointing direction according to the locus of the position coordinates of the temporally continuous image by sequentially detecting the image of the object located in the vicinity of the planar member. To do. That is, the indication direction is detected according to the scroll direction of the object.

これによって、ユーザは画像の表示される画像表示領域をより一層直感的に設定することができる。したがって、本発明に係る画像表示/像検知装置は、画像表示/像検知装置の操作に不慣れなユーザ(例えば年少者または高齢者など)であっても容易に理解し、実践できる操作により、指示方向を設定することができる効果を奏する。   Thereby, the user can set the image display area where the image is displayed more intuitively. Therefore, the image display / image detection apparatus according to the present invention provides instructions by an operation that can be easily understood and practiced even by a user who is not familiar with the operation of the image display / image detection apparatus (for example, a young person or an elderly person) There is an effect that the direction can be set.

本発明に係る画像表示/像検知装置では、さらに、上記画像表示領域のそれぞれに対応する画像表示装置を備えていることが好ましい。   The image display / image detection apparatus according to the present invention preferably further includes an image display apparatus corresponding to each of the image display areas.

また、本発明に係る画像表示/像検知装置を動作させるためのプログラムであって、コンピュータを上記の各手段として駆動させることを特徴とするプログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に含まれる。   Also, a program for operating the image display / image detection apparatus according to the present invention, which is characterized in that the computer is driven as each of the above-mentioned means and a computer-readable recording medium on which the program is recorded. It is included in the category of the present invention.

本発明に係る画像表示/像検知装置は、以上のように、ユーザの指示する指示方向を検出する指示方向検出手段と、指示方向により示される方向に表示されている画像表示領域からアプリケーションにより表示されるウィンドウを表示する画像表示領域を設定する表示領域設定手段と、決定された画像表示領域にウィンドウを表示する表示処理制御手段と、を備えている。   As described above, the image display / image detection apparatus according to the present invention is displayed by the application from the indication direction detection means for detecting the indication direction indicated by the user and the image display area displayed in the direction indicated by the indication direction. Display area setting means for setting an image display area for displaying the window to be displayed, and display processing control means for displaying the window in the determined image display area.

これによって、本発明に係る画像表示/像検知装置は、ユーザに対して煩雑な操作を強いることなく、起動させたアプリケーションのウィンドウ画像をユーザの所望する画像表示領域において表示することができる効果を奏する。   Thus, the image display / image detection apparatus according to the present invention can display the window image of the activated application in the image display area desired by the user without forcing the user to perform complicated operations. Play.

本発明に係るデータ表示/センサ装置(画像表示/像検知装置)の一実施形態について図1〜16を参照しつつ、以下に説明する。   An embodiment of a data display / sensor device (image display / image detection device) according to the present invention will be described below with reference to FIGS.

(データ表示/センサ装置の外観)
まず、本実施形態に係るデータ表示/センサ装置の外観について、図9(a)を参照しつつ以下に説明する。データ表示/センサ装置100は、図9(a)に示すように、上部筐体40、下部筐体41の2つの筐体からなる。上部筐体40には、第1表示/光センサ部300Aが備えられており、下部筐体41には、第2表示/光センサ部300Bが備えられている。
(Data display / appearance of sensor device)
First, the external appearance of the data display / sensor device according to the present embodiment will be described below with reference to FIG. The data display / sensor device 100 includes two housings, an upper housing 40 and a lower housing 41, as shown in FIG. The upper housing 40 includes a first display / light sensor unit 300A, and the lower housing 41 includes a second display / light sensor unit 300B.

なお、本実施形態では、主として、データ表示/センサ装置100が上部筐体40および下部筐体41の2つの筐体からなるデータ表示/センサ装置を例に挙げて説明するが、もちろん、データ表示/センサ装置100の構成はこれに限定されるものではない。例えば、図9(b)に示すように、右側筐体42および左側筐体43の2つの筐体からなる構成であってもよいし、図9(c)に示すように、第1筐体44、第2筐体45および第3筐体46の3つの筐体からなる構成であってもよい。また、ここには図示していないが、4つ以上の筐体からなる構成であってもよい。なお、図9(a)〜(c)における矢印は、各筐体の可動方向を示している。   In the present embodiment, the data display / sensor device 100 is mainly described as an example of a data display / sensor device including the upper housing 40 and the lower housing 41. The configuration of the sensor device 100 is not limited to this. For example, as shown in FIG. 9B, the configuration may include two housings, a right housing 42 and a left housing 43, or the first housing as shown in FIG. 9C. 44, a second housing 45, and a third housing 46 may be used. Moreover, although not shown here, the structure which consists of four or more housing | casing may be sufficient. In addition, the arrow in Fig.9 (a)-(c) has shown the movable direction of each housing | casing.

(センサ内蔵液晶パネルの概要)
ここで、データ表示/センサ装置100の構成および処理動作の詳細な説明に先立って、本発明に係るデータ表示/センサ装置100の備えるセンサ内蔵液晶パネル301の概要について説明する。
(Outline of LCD panel with built-in sensor)
Here, prior to detailed description of the configuration and processing operation of the data display / sensor device 100, an outline of the sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 according to the present invention will be described.

データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。   The sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material or the like. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図3(a)および図3(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the photodiode 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(データ表示/センサ装置の要部構成)
次に、図4を参照しながら、上記データ表示/センサ装置100の要部構成について説明する。図4は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。ここでは、データ表示/センサ装置100は、表示/光センサ部300を2つ(第1表示/光センサ部300Aおよび第2表示/光センサ部300B)備えているものとして説明する。なお、第1表示/光センサ部300Aおよび第2表示/光センサ部300Bを区別しないときは、表示/光センサ部300と表記する。
(Data display / sensor configuration)
Next, with reference to FIG. 4, the configuration of the main part of the data display / sensor device 100 will be described. FIG. 4 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in FIG. As illustrated, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909. Here, the data display / sensor device 100 will be described as including two display / light sensor units 300 (first display / light sensor unit 300A and second display / light sensor unit 300B). When the first display / light sensor unit 300A and the second display / light sensor unit 300B are not distinguished, they are referred to as the display / light sensor unit 300.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行わせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、上記スイッチの例としては、筐体のヒンジ部分に設けられ、筐体の開閉状態を検出するヒンジ部スイッチ904、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hinge switch 904 that is provided at the hinge portion of the housing and detects the open / closed state of the housing, a power switch 905 that switches power on and off, and a predetermined function are assigned in advance. A hardware switch such as a user switch 906 is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 such as the above may be provided as appropriate.

(コマンドの詳細)
次に、図5および図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram schematically illustrating an example of a command frame structure. FIG. 6 is a diagram for explaining an example of values that can be specified for each field included in the command and an outline thereof.

図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図5に示す値が指定可能である。   As shown in FIG. 5, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 5 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” designates that the latest data is transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” designates that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「スキャン解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “scan resolution” field, for example, values of “0” (high) and “1” (low) can be specified.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “scan panel” field is a field for designating which display / light sensor unit 300 is to scan the object. In the “scan panel” field, for example, values “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、「スキャンパネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aの光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   When the sensor data processing unit 703 receives a command whose “scan panel” field value is “first display / photosensor unit 300A”, the sensor data processing unit 703 and the photosensor drive circuit 305 of the first display / photosensor unit 300A and An instruction is given to the sensor control unit 602 and the backlight control unit 603 so as to control the backlight drive circuit 308.

次に、「表示パネル」フィールドは、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「表示パネル」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field is a field for designating which display / light sensor unit 300 displays the display data. In the “display panel” field, for example, values of “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aに表示データを表示させるために、第1表示/光センサ部300Aの液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   Here, for example, when the display data processing unit 701 receives a command whose value of the “display panel” field is “first display / light sensor unit 300A”, the display data processing unit 701 displays the display data on the first display / light sensor unit 300A. Therefore, an instruction is given to the display control unit 601 and the backlight control unit 603 to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the first display / light sensor unit 300A.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「スキャン解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “scan resolution” field of the above command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「スキャン解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “scan resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301. The image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor built-in liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 7B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than that in the image data shown in FIG. In the image data shown in FIG. 7B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

(センサ内蔵液晶パネルの構成)
次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 8 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称として用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. The pixel circuit 31 is used as a general term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード36のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード36に光が入射されると、入射した光量に応じた電流がフォトダイオード36に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード36のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage corresponding to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 36 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 36, a current corresponding to the amount of incident light flows through the photodiode 36. Then, according to the current, the voltage at the connection point (hereinafter referred to as connection node V) between the other electrode of the capacitor 35 and the cathode terminal of the photodiode 36 decreases. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。   The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).

(データ表示/センサ装置100の要部構成)
続いて、データ表示/センサ装置100における主制御部800の要部構成について、図1を参照しつつ以下に説明する。図1は、データ表示/センサ装置100における主制御部800の要部構成を示すブロック図である。
(Data display / configuration of main part of sensor device 100)
Next, the configuration of the main part of the main control unit 800 in the data display / sensor device 100 will be described below with reference to FIG. FIG. 1 is a block diagram showing a main configuration of the main control unit 800 in the data display / sensor device 100.

データ表示/センサ装置100における主制御部800は、図1に示すように、画像数算出部11、指示方向検出部12、実行処理決定部13、表示位置決定部14および表示処理制御部15を備えている。これらの部材について、以下に説明する。   As shown in FIG. 1, the main control unit 800 in the data display / sensor device 100 includes an image number calculation unit 11, an instruction direction detection unit 12, an execution processing determination unit 13, a display position determination unit 14, and a display processing control unit 15. I have. These members will be described below.

(画像数算出部11)
画像数算出部11は、表示/光センサ部300において検知された対象物の像のうち、表示/光センサ部300に表示されている画像上に位置する像の数を算出する。
(Image number calculation unit 11)
The image number calculation unit 11 calculates the number of images located on the image displayed on the display / light sensor unit 300 among the images of the object detected by the display / light sensor unit 300.

(指示方向検出部12)
指示方向検出部12は、表示/光センサ部300に表示されている画像上の点を指示する対象物の位置座標と、この位置座標の次に指示された点の位置座標とに基づいて、指示方向を検出する。
(Instruction direction detector 12)
The indication direction detection unit 12 is based on the position coordinates of the object that indicates a point on the image displayed on the display / light sensor unit 300 and the position coordinates of the point indicated next to this position coordinate. The indicated direction is detected.

ここで、本実施形態では、対象物の像における時間的に連続する位置座標から求められるベクトルの向きにより、指示方向を検出する場合を例に挙げて説明する。すなわち、本実施形態では、対象物(例えば、ユーザの指またはタッチペン)をスライドさせることにより得られるストロークに基づいて、指示方向を検出する場合を例に挙げて説明する。もちろん、指示方向の検出手法は、これに限定されるものではなく、対象物の位置座標の位置変化に応じて検出されるものであれば、いかなる手法により検出してもよい。   Here, in the present embodiment, a case where the indication direction is detected based on the direction of a vector obtained from temporally continuous position coordinates in the image of the target object will be described as an example. That is, in the present embodiment, a case where the pointing direction is detected based on a stroke obtained by sliding an object (for example, a user's finger or a touch pen) will be described as an example. Of course, the method of detecting the indication direction is not limited to this, and any method may be used as long as it is detected in accordance with a change in the position coordinates of the target object.

(実行処理決定部13)
実行処理決定部13は、対象物により少なくとも一部が被覆されている画像の種類および画像数算出部11において算出された像の数に応じて、データ表示/センサ装置100において実行する処理を決定する。
(Execution processing determination unit 13)
The execution process determination unit 13 determines a process to be executed in the data display / sensor device 100 according to the type of image at least partially covered by the object and the number of images calculated by the image number calculation unit 11. To do.

本実施形態では、画像がアプリケーションの実行ファイルに関連付けられたアイコンであり、そのアイコンを被覆する対象物の像の数が1つである場合、実行ファイルを実行することにより、アプリケーションを起動する。より具体的には、データ表示/センサ装置100において実行する処理を、アプリケーションに起動させ、起動したアプリケーションのウィンドウ画像を表示する。   In the present embodiment, when the image is an icon associated with the execution file of the application and the number of images of the object covering the icon is one, the application is started by executing the execution file. More specifically, the process executed in the data display / sensor device 100 is started by the application, and a window image of the started application is displayed.

画像を被覆する対象物の像の数が2つである場合には、画像を別の表示/光センサ部300に対してそのままの状態で移動する。   When the number of images of the object covering the image is two, the image is moved as it is with respect to another display / light sensor unit 300.

また、画像がアプリケーションのウィンドウ画像であり、ウィンドウ画像を被覆する対象物の像の数が3つである場合には、ウィンドウ画像の表示を終了する。より具体的には、アプリケーションのウィンドウ画像に変えて、当該アプリケーションの実行ファイルに関連付けられたアイコンを表示する。   If the image is a window image of the application and the number of images of the target covering the window image is three, the display of the window image is terminated. More specifically, an icon associated with the execution file of the application is displayed instead of the window image of the application.

なお、データ表示/センサ装置100において実行されるアプリケーションの実行ファイルを含むプログラムデータおよび当該実行ファイルに関連付けられたアイコンは、記憶部901に格納されていることが好ましい。すなわち、主制御部800は、アイコンを記憶部901から読み出して表示する。   Note that program data including an execution file of an application executed in the data display / sensor device 100 and an icon associated with the execution file are preferably stored in the storage unit 901. That is, the main control unit 800 reads out icons from the storage unit 901 and displays them.

(表示位置決定部14)
表示位置決定部14は、指示方向検出部12において検出された指示方向に基づいて、実行処理決定部13において決定された処理を実行することにより得られる画像を表示する表示/光センサ部300を決定する。
(Display position determination unit 14)
The display position determination unit 14 displays the display / light sensor unit 300 that displays an image obtained by executing the process determined by the execution process determination unit 13 based on the instruction direction detected by the instruction direction detection unit 12. decide.

このとき、表示位置決定部14は、データ表示/センサ装置100における表示/光センサ部300の配置の認識に基づいて、表示/光センサ部300を決定する。   At this time, the display position determination unit 14 determines the display / light sensor unit 300 based on the recognition of the arrangement of the display / light sensor unit 300 in the data display / sensor device 100.

例えば、データ表示/センサ装置100が図9(a)に示す構成である場合、第2表示/光センサ部300Bにおいてユーザの指示する指示方向が上方向である場合には、第2表示/光センサ部300Bの上部に設けられている、上部筐体40における第1表示/光センサ部300Aに画像を表示する。   For example, when the data display / sensor device 100 has the configuration shown in FIG. 9A, when the instruction direction designated by the user in the second display / light sensor unit 300B is the upward direction, the second display / light An image is displayed on the first display / light sensor unit 300A in the upper housing 40 provided on the upper part of the sensor unit 300B.

なお、データ表示/センサ装置100が図9(c)に示す構成である場合、すなわち3つの筐体からなる場合の指示方向の定義については、図10に示す。図10は、データ表示/センサ装置100が3つの筐体からなる場合における指示方向の定義を示す図である。   In addition, when the data display / sensor apparatus 100 is the structure shown in FIG.9 (c), ie, the definition of the instruction | indication direction in the case where it consists of three housings is shown in FIG. FIG. 10 is a diagram showing the definition of the pointing direction when the data display / sensor device 100 is composed of three housings.

図10に示すように、第1筐体44における第1表示/光センサ部300Aにおいてユーザの指示する指示方向が方向A1である場合には、第2筐体45における第2表示/光センサ部300Bに画像を表示し、指示方向が方向A2である場合には、第3筐体46における第3表示/光センサ部300Cに画像を表示する。   As shown in FIG. 10, when the direction indicated by the user in the first display / light sensor unit 300 </ b> A in the first housing 44 is the direction A <b> 1, the second display / light sensor unit in the second housing 45. When an image is displayed on 300B and the pointing direction is the direction A2, the image is displayed on the third display / light sensor unit 300C in the third housing 46.

同様に、第2表示/光センサ部300Bにおいてユーザの指示する指示方向が方向B1である場合には、第1表示/光センサ部300Aに画像を表示し、指示方向が方向B2である場合には、第3表示/光センサ部300Cに画像を表示する。第3表示/光センサ部300Cにおいてユーザの指示する指示方向が方向C1である場合には、第2表示/光センサ部300Bに画像を表示し、指示方向が方向C2である場合には、第1表示/光センサ部300Aに画像を表示する。   Similarly, when the direction indicated by the user in the second display / light sensor unit 300B is the direction B1, an image is displayed on the first display / light sensor unit 300A, and the direction indicated is the direction B2. Displays an image on the third display / light sensor unit 300C. When the pointing direction indicated by the user in the third display / light sensor unit 300C is the direction C1, an image is displayed on the second display / light sensor unit 300B, and when the pointing direction is the direction C2, 1 display / image is displayed on the optical sensor unit 300A.

このように、データ表示/センサ装置100が図9(c)に示すような構成である場合の各指示方向は、対象物の部分画像における代表座標を中心とする扇状領域に基づいて決定すればよい。各扇状領域の大きさ、すなわち扇形の中心角は、データ表示/センサ装置100における表示/光センサ部300の配置の認識に基づいている。   Thus, each indication direction when the data display / sensor device 100 is configured as shown in FIG. 9C is determined based on a fan-shaped region centered on the representative coordinates in the partial image of the object. Good. The size of each sector, that is, the central angle of the sector, is based on recognition of the arrangement of the display / light sensor unit 300 in the data display / sensor device 100.

なお、扇形の中心各の大きさは、予め設定された不変の値であってもよいし、ユーザにより適宜設定可能であってもよい。また、対象物が画像を被覆すると共に、図10に示す扇状領域を表示/光センサ部300に実際に表示するようにしてもよい。   The size of each sector center may be a preset invariant value or may be set as appropriate by the user. Further, the object may cover the image, and the fan-shaped area shown in FIG. 10 may be actually displayed on the display / light sensor unit 300.

表示/光センサ部300が4つ以上である場合には、対象物の部分画像における代表座標を中心とする扇状領域の数を増加することにより対応すればよい。   In the case where there are four or more display / light sensor units 300, the number of fan-shaped regions around the representative coordinates in the partial image of the object may be increased.

(表示処理制御部15)
表示処理制御部15は、実行処理決定部13において決定された処理を、表示位置決定部14において決定された表示/光センサ部300において実行するように指示する。
(Display processing control unit 15)
The display process control unit 15 instructs the display / light sensor unit 300 determined by the display position determination unit 14 to execute the process determined by the execution process determination unit 13.

例えば、実行処理決定部13において決定された処理がアプリケーションの起動であり、かつ、表示位置決定部14において決定された表示/光センサ部300が、上側筐体40における第1表示/光センサ部300Aである場合、表示処理制御部15は、起動するアプリケーションを記憶部901から読み出すと共に、読み出したアプリケーションのウィンドウ画像を第1表示/光センサ部300Aにおいて表示する指示を出力する。   For example, the process determined by the execution process determination unit 13 is application activation, and the display / light sensor unit 300 determined by the display position determination unit 14 is the first display / light sensor unit in the upper housing 40. In the case of 300A, the display processing control unit 15 reads an application to be activated from the storage unit 901, and outputs an instruction to display a window image of the read application on the first display / light sensor unit 300A.

(ウィンドウ画像を表示させる際の動作処理の詳細)
次に、データ表示/センサ装置100において所望する表示/光センサ部300においてアプリケーションのウィンドウ画像を表示させる際の動作処理の詳細について、図11を参照しつつ以下に説明する。図11は、所望する表示/光センサ部300においてアプリケーションのウィンドウを表示させる際の動作を示すフローチャートである。
(Details of operation processing when displaying window images)
Next, details of operation processing when displaying a window image of an application on the desired display / light sensor unit 300 in the data display / sensor device 100 will be described with reference to FIG. FIG. 11 is a flowchart showing an operation when displaying a window of an application on the desired display / light sensor unit 300.

まず、画像数算出部11は、データ処理部700を介して入力された対象物の像のうち、表示/光センサ部300に表示されている画像上に位置する像の数がいくつであるのかを判定する(ステップS1)。   First, the image number calculation unit 11 determines how many images are located on the image displayed on the display / light sensor unit 300 among the images of the object input via the data processing unit 700. Is determined (step S1).

画像数算出部11が像の数が1つであると判定した場合、実行処理決定部13は、対象物により被覆される画像がアプリケーションを実行する実行ファイルに関連付けられたアイコンであるか否かを判定する(ステップS2)。対象物により被覆される画像がアイコンではない場合には(ステップS2においてNo)、データ表示/センサ装置100は処理を終了する。一方で、対象物により被覆される画像がアイコンである場合(ステップS2においてYes)、実行処理決定部13は、データ表示/センサ装置100において実行する処理を、アプリケーションの起動に決定する(ステップS3)。   When the image number calculation unit 11 determines that the number of images is one, the execution process determination unit 13 determines whether the image covered by the object is an icon associated with the execution file that executes the application. Is determined (step S2). If the image covered by the object is not an icon (No in step S2), the data display / sensor device 100 ends the process. On the other hand, when the image covered with the object is an icon (Yes in step S2), the execution process determining unit 13 determines the process to be executed in the data display / sensor device 100 to be an application activation (step S3). ).

また、指示方向検出部12は、データ処理部700を介して入力される、アイコンを被覆する対象物の像の時間的に連続する位置座標から指示方向を検出する(ステップS4)。そして、表示位置決定部14は、ステップS4において検出された指示方向に基づいて、アプリケーションを起動することにより表示されるウィンドウ画像を表示する表示/光センサ部300を決定する(ステップS5)。   The pointing direction detection unit 12 detects the pointing direction from temporally continuous position coordinates of the image of the object covering the icon, which is input via the data processing unit 700 (step S4). Then, the display position determination unit 14 determines the display / light sensor unit 300 that displays the window image displayed by starting the application, based on the instruction direction detected in step S4 (step S5).

最後に、表示処理制御部15は、表示位置決定部14において決定した表示/光センサ部300において、アイコンに関連付けられた実行ファイルを実行することにより起動するアプリケーションのウィンドウ画像を表示させるようにデータ処理部700に対して指示を出力する(ステップS6)。   Finally, the display processing control unit 15 causes the display / light sensor unit 300 determined by the display position determination unit 14 to display the window image of the application to be activated by executing the execution file associated with the icon. An instruction is output to the processing unit 700 (step S6).

(所望の表示/光センサ部300にウィンドウ画像を表示させる具体例)
次に、ユーザの所望する表示/光センサ部300においてウィンドウ画像を表示する具体例を図12(a)および(b)を参照しつつ以下に説明する。図12(a)および(b)は、ユーザの所望する表示/光センサ部300において、実行したアプリケーションのウィンドウ画像を表示する具体例を示す図であり、(a)はアプリケーションを実行する際の動作を示す図であり、(b)は(a)に示す動作に基づいてウィンドウ画像を表示した状態を示す図である。
(Specific Example of Displaying Window Image on Desired Display / Optical Sensor Unit 300)
Next, a specific example of displaying a window image on the display / light sensor unit 300 desired by the user will be described below with reference to FIGS. FIGS. 12A and 12B are diagrams showing a specific example of displaying a window image of the executed application on the display / light sensor unit 300 desired by the user, and FIG. It is a figure which shows operation | movement, (b) is a figure which shows the state which displayed the window image based on the operation | movement shown to (a).

なお、本項では、下部筐体41における第2表示/光センサ部300Bに表示されている「表計算」のアプリケーションを実行する実行ファイルに関連付けられたアイコンをタッチ(タップ)することにより、上部筐体40における表示/光センサ部300Aに「表計算」のアプリケーションのウィンドウ画像を表示する場合を例に挙げて説明する。   In this section, by touching (tapping) an icon associated with an execution file for executing the “spreadsheet” application displayed on the second display / light sensor unit 300B in the lower casing 41, An example will be described in which a window image of the “spreadsheet” application is displayed on the display / light sensor unit 300A in the housing 40.

図12(a)に示すように、ユーザが下部筐体41における第2表示/光センサ部300Bに表示されているアイコンを一本指でタッチ(タップ)しつつ、アイコンをタッチした指を上方向にスライドさせる。このとき、データ表示/センサ装置100における画像数算出部11は、「表計算」のアプリケーションを起動するためのアイコンを被覆するユーザの指の像が1つであることを検出する。実行処理決定部13は、画像数算出部11における検出結果に基づいて、アイコンに関連付けられた実行ファイルを実行することにより、「表計算」のアプリケーションを起動する処理の実行を決定する。   As shown in FIG. 12A, the user touches (tap) the icon displayed on the second display / light sensor unit 300 </ b> B in the lower housing 41 with one finger and raises the finger touching the icon. Slide in the direction. At this time, the image count calculation unit 11 in the data display / sensor device 100 detects that there is one image of the user's finger covering the icon for starting the “spreadsheet” application. The execution process determination unit 13 determines the execution of the process for starting the “spreadsheet” application by executing the execution file associated with the icon based on the detection result in the image number calculation unit 11.

また同時に、指示方向検出部12は、ユーザの指が上方向にスライドされたことを検出する。これに基づいて、表示位置決定部14は、「表計算」のアプリケーションを起動するためのアイコンに関連付けられた実行ファイルを実行することにより表示されるウィンドウ画像を上部筐体40における第1表示/光センサ部300Aに表示することを決定する。   At the same time, the indication direction detection unit 12 detects that the user's finger has been slid upward. Based on this, the display position determination unit 14 displays the window image displayed by executing the execution file associated with the icon for starting the “spreadsheet” application in the first display / It is determined to display on the optical sensor unit 300A.

これによって、図12(b)に示すように、起動した「表計算」のアプリケーションのウィンドウ画像を上部筐体40における第1表示/光センサ部300Aに表示させることができる。なお、このときアイコンは、図12(b)に示すように、下部筐体41における第2表示/光センサ部300Bにおいて、色を薄く表示する(例えば、グレイアウト表示)などして表示させ続けてもよいし、表示を消すようにしてもよい。   As a result, as shown in FIG. 12B, the window image of the activated “spreadsheet” application can be displayed on the first display / light sensor unit 300 </ b> A in the upper housing 40. At this time, as shown in FIG. 12B, the icon continues to be displayed in the second display / light sensor unit 300B in the lower housing 41 by displaying the color lightly (for example, gray-out display). Alternatively, the display may be turned off.

(画像を移動表示させる際の動作処理の詳細)
次に、データ表示/センサ装置100において、所望する表示/光センサ部300に画像を移動して表示させる際の動作処理の詳細について、図13を参照しつつ以下に説明する。図13は、所望する表示/光センサ部300に画像を移動して表示させる際の動作を示すフローチャートである。
(Details of operation processing when moving and displaying images)
Next, in the data display / sensor device 100, details of operation processing when moving and displaying an image on the desired display / light sensor unit 300 will be described below with reference to FIG. FIG. 13 is a flowchart showing an operation when moving and displaying an image on the desired display / light sensor unit 300.

画像数算出部11は、データ処理部700を介して入力された対象物の像のうち、表示/光センサ部300に表示されている画像上に位置する像の数が2つであると判定した場合、実行処理決定部13は、データ表示/センサ装置100において実行する処理を、対象物により被覆されている画像(すなわち、ユーザにより選択された画像)の移動処理に決定する(ステップS11)。   The image number calculation unit 11 determines that the number of images positioned on the image displayed on the display / light sensor unit 300 among the images of the object input via the data processing unit 700 is two. In this case, the execution process determining unit 13 determines the process to be executed in the data display / sensor device 100 as the movement process of the image covered by the object (that is, the image selected by the user) (step S11). .

指示方向検出部12は、データ処理部700を介して入力される、画像を被覆する対象物の像における時間的に連続する位置座標から指示方向を検出する(ステップS12)。そして、表示位置決定部14は、ステップS12において検出された指示方向に基づいて、対象物により被覆されている画像を移動する表示/光センサ部300を決定する(ステップS13)。   The pointing direction detection unit 12 detects the pointing direction from temporally continuous position coordinates in the image of the object covering the image, which is input via the data processing unit 700 (step S12). Then, the display position determination unit 14 determines the display / light sensor unit 300 that moves the image covered with the object based on the indication direction detected in step S12 (step S13).

最後に、表示処理制御部15は、表示位置決定部14において決定した表示/光センサ部300において、画像を表示させるようにデータ処理部700に対して指示を出力する(ステップS14)。   Finally, the display processing control unit 15 outputs an instruction to the data processing unit 700 so that the display / light sensor unit 300 determined by the display position determination unit 14 displays an image (step S14).

(所望の表示/光センサ部300に画像を移動して表示させる具体例)
次に、ユーザの所望する表示/光センサ部300にウィンドウ画像を移動して表示する具体例を、図14(a)および(b)を参照しつつ以下に説明する。図14(a)および(b)は、ユーザの所望する表示/光センサ部300にウィンドウ画像を移動して表示する具体例を示す図であり、(a)ウィンドウ画像を移動させる動作を示す図であり、(b)は(a)に示す動作に基づいてウィンドウ画像を移動して表示した状態を示す図である。
(Specific example of moving and displaying an image on the desired display / light sensor unit 300)
Next, a specific example in which the window image is moved and displayed on the display / light sensor unit 300 desired by the user will be described below with reference to FIGS. 14 (a) and 14 (b). FIGS. 14A and 14B are diagrams illustrating a specific example in which a window image is moved and displayed on the display / light sensor unit 300 desired by the user, and FIG. 14A is a diagram illustrating an operation of moving the window image. (B) is a figure which shows the state which moved and displayed the window image based on the operation | movement shown to (a).

なお、図14(a)および(b)では、上部筐体40における第1表示/光センサ部300Aに表示されている「表計算」のアプリケーションのウィンドウ画像を、下部筐体41における第2表示/光センサ部300Bに移動して表示する場合を例に挙げて説明する。   14A and 14B, the window image of the “spreadsheet” application displayed on the first display / light sensor unit 300 </ b> A in the upper housing 40 is displayed in the second display in the lower housing 41. A case will be described as an example where the display is moved to the optical sensor unit 300B.

図14(a)に示すように、ユーザが上部筐体40における第1表示/光センサ部300Aに表示されているウィンドウ画像を二本指でタッチ(タップ)しつつ、ウィンドウ画像をタッチした指を下側にスライドさせる。このとき、データ表示/センサ装置100における画像数算出部11は、「表計算」のアプリケーションのウィンドウ画像の一部を被覆するユーザの指の像が2つであることを検出する。実行処理決定部13は、画像数算出部11における検出結果に基づいて、ウィンドウ画像を移動させる処理の実行を決定する。   As shown in FIG. 14A, the user touches (tap) the window image displayed on the first display / light sensor unit 300 </ b> A in the upper housing 40 with two fingers and touches the window image. Slide down. At this time, the image number calculation unit 11 in the data display / sensor device 100 detects that there are two images of the user's finger covering a part of the window image of the “spreadsheet” application. The execution process determination unit 13 determines the execution of the process for moving the window image based on the detection result in the image number calculation unit 11.

また同時に、指示方向検出部12は、ユーザの指が下方向にスライドされたことを検出する。これに基づいて、表示位置決定部14は、「表計算」のアプリケーションのウィンドウ画像を下部筐体41における第2表示/光センサ部300Bに移動することを決定する。   At the same time, the indication direction detection unit 12 detects that the user's finger has been slid downward. Based on this, the display position determination unit 14 determines to move the window image of the “spreadsheet” application to the second display / light sensor unit 300 </ b> B in the lower housing 41.

これによって、図14(b)に示すように、上部筐体40における第1表示/光センサ部300Aに表示されている「表計算」のアプリケーションのウィンドウ画像を、そのままの状態で下部筐体41における第2表示/光センサ部300Bに移動して表示することができる。   As a result, as shown in FIG. 14B, the window image of the “spreadsheet” application displayed on the first display / light sensor unit 300 </ b> A in the upper housing 40 is left as it is in the lower housing 41. The second display / light sensor unit 300B can be moved and displayed.

図14(a)および(b)では、「表計算」のアプリケーションのウィンドウ画像を移動させることを例に挙げて説明しているが、移動させることができる画像は、ウィンドウ画像に限定させるものではない。例えば、表示/光センサ部300に表示されているアイコンを別の表示/光センサ部300に移動して表示させることもできる。   In FIGS. 14A and 14B, an example of moving the window image of the “spreadsheet” application is described as an example. However, the images that can be moved are not limited to window images. Absent. For example, an icon displayed on the display / light sensor unit 300 can be moved to another display / light sensor unit 300 to be displayed.

ユーザの所望する表示/光センサ部300にアイコンを移動して表示する具体例を図15(a)および(b)を参照しつつ以下に説明する。図15(a)および(b)は、ユーザの所望する表示/光センサ部300にアイコンを移動して表示する具体例を示す図であり、(a)アイコンを移動させる動作を示す図であり、(b)は(a)に示す動作に基づいてアイコンを移動して表示した状態を示す図である。   A specific example of moving and displaying icons on the display / light sensor unit 300 desired by the user will be described below with reference to FIGS. 15 (a) and 15 (b). FIGS. 15A and 15B are diagrams showing a specific example in which an icon is moved and displayed on the display / light sensor unit 300 desired by the user, and FIG. 15A is a diagram showing an operation of moving the icon. (B) is a figure which shows the state which moved and displayed the icon based on the operation | movement shown to (a).

なお、図15(a)および(b)では、下部筐体41における第2表示/光センサ部300Bに表示されている「表計算」のアプリケーションの実行ファイルに関連付けられたアイコンを、上部筐体40における第1表示/光センサ部300Aに移動して表示する場合を例に挙げて説明する。   In FIGS. 15A and 15B, the icon associated with the execution file of the “spreadsheet” application displayed on the second display / light sensor unit 300B in the lower casing 41 is displayed in the upper casing. A case where the display is moved to the first display / light sensor unit 300A in 40 and displayed will be described as an example.

図15(a)に示すように、ユーザが下部筐体41における第2表示/光センサ部300Bに表示されているアイコンを二本指でタッチ(タップ)しつつ、アイコンをタッチした指を上方向にスライドさせる。このとき、データ表示/センサ装置100における画像数算出部11は、アイコンの一部を被覆するユーザの指の像が2つであることを検出する。実行処理決定部13は、画像数算出部11における検出結果に基づいて、アイコンを移動させる処理の実行を決定する。   As shown in FIG. 15A, while the user touches (tap) the icon displayed on the second display / light sensor unit 300B in the lower housing 41 with two fingers, Slide in the direction. At this time, the image number calculation unit 11 in the data display / sensor device 100 detects that there are two images of the user's finger covering a part of the icon. The execution process determination unit 13 determines the execution of the process of moving the icon based on the detection result in the image number calculation unit 11.

また同時に、指示方向検出部12は、ユーザの指が上方向にスライドされたことを検出する。これに基づいて、表示位置決定部14は、アイコンを上部筐体40における第1表示/光センサ部300Aに移動することを決定する。   At the same time, the indication direction detection unit 12 detects that the user's finger has been slid upward. Based on this, the display position determination unit 14 determines to move the icon to the first display / light sensor unit 300 </ b> A in the upper housing 40.

これによって、図15(b)に示すように、下部筐体41における第2表示/光センサ部300Bに表示されている「表計算」のアプリケーションの実行ファイルに関連付けられたアイコンを、そのままの状態で上部筐体40における第1表示/光センサ部300Aに移動して表示することができる。   As a result, as shown in FIG. 15B, the icon associated with the execution file of the “spreadsheet” application displayed on the second display / light sensor unit 300 </ b> B in the lower housing 41 remains unchanged. Thus, the first display / light sensor unit 300A in the upper housing 40 can be moved and displayed.

(ウィンドウ画像の表示を終了させる際の動作処理の詳細)
次に、データ表示/センサ装置100において表示/光センサ部300に表示されているウィンドウ画像の表示を終了させる際の動作処理の詳細について、図16を参照しつつ以下に説明する。図16は、表示/光センサ部300に表示されているウィンドウ画像の表示を終了させる際の動作を示すフローチャートである。
(Details of operation processing when window image display is terminated)
Next, details of the operation processing when the display of the window image displayed on the display / light sensor unit 300 in the data display / sensor device 100 is terminated will be described below with reference to FIG. FIG. 16 is a flowchart showing an operation when the display of the window image displayed on the display / light sensor unit 300 is ended.

画像数算出部11は、データ処理部700を介して入力された対象物の像のうち、表示/光センサ部300に表示されている画像上に位置する像の数が3つであると判定した場合、実行処理決定部13は、対象物により被覆される画像がウィンドウ画像であるか否かを判定する(ステップS21)。対象物により被覆される画像がウィンドウ画像ではない場合には(ステップS21においてNo)、データ表示/センサ装置100は処理を終了する。一方で、実行処理決定部13が、対象物により被覆される画像がウィンドウ画像であると判定した場合には(ステップS21においてYes)、実行処理決定部13は、データ表示/センサ装置100において実行する処理を、ウィンドウ画像の表示の終了に決定する(ステップS22)。   The image number calculation unit 11 determines that the number of images located on the image displayed on the display / light sensor unit 300 among the images of the object input via the data processing unit 700 is three. When it does, the execution process determination part 13 determines whether the image covered with a target object is a window image (step S21). If the image covered by the object is not a window image (No in step S21), the data display / sensor device 100 ends the process. On the other hand, when the execution process determining unit 13 determines that the image covered by the object is a window image (Yes in step S21), the execution process determining unit 13 executes in the data display / sensor device 100. The processing to be performed is determined to end the display of the window image (step S22).

指示方向検出部12は、データ処理部700を介して入力される、ウィンドウ画像を被覆する対象物の像における時間的に連続する位置座標から指示方向を検出する(ステップS23)。そして、表示位置決定部14は、ステップS23において検出された指示方向に基づいて、対象物により被覆されているウィンドウ画像に変えて表示する実行ファイルに関連付けられたアイコンを表示する表示/光センサ部300を決定する(ステップS24)。   The pointing direction detection unit 12 detects the pointing direction from temporally continuous position coordinates in the image of the object covering the window image, which is input via the data processing unit 700 (step S23). Then, the display position determination unit 14 displays an icon associated with the execution file to be displayed instead of the window image covered with the object based on the indication direction detected in step S23. 300 is determined (step S24).

最後に、表示処理制御部15は、表示されているウィンドウ画像の表示を終了すると共に、表示位置決定部14において決定した表示/光センサ部300にアイコンを表示させるようにデータ処理部700に対して指示を出力する(ステップS25)。   Finally, the display processing control unit 15 ends the display of the displayed window image and instructs the data processing unit 700 to display an icon on the display / light sensor unit 300 determined by the display position determination unit 14. To output an instruction (step S25).

(所望の表示/光センサ部300に画像を移動して表示させる具体例)
次に、表示/光センサ部300に表示されているウィンドウ画像の表示を終了する具体例を図17(a)および(b)を参照しつつ以下に説明する。図17(a)および(b)は、表示/光センサ部300に表示されているウィンドウ画像の表示を終了する具体例を示す図であり、(a)ウィンドウ画像の表示を終了させる動作を示す図であり、(b)は(a)に示す動作に基づいてウィンドウ画像の表示を終了した状態を示す図である。
(Specific Example of Moving and Displaying Images on Desired Display / Optical Sensor Unit 300)
Next, a specific example of terminating the display of the window image displayed on the display / light sensor unit 300 will be described below with reference to FIGS. 17 (a) and 17 (b). FIGS. 17A and 17B are diagrams showing a specific example of ending the display of the window image displayed on the display / light sensor unit 300, and FIG. 17A shows the operation of ending the display of the window image. (B) is a figure which shows the state which ended the display of the window image based on the operation | movement shown to (a).

なお、図17(a)および(b)では、上部筐体40における第1表示/光センサ部300Aに表示されている「表計算」のアプリケーションのウィンドウ画像の表示を終了し、「表計算」のアプリケーションを実行する実行ファイルに関連付けられたアイコンを下部筐体41における第2表示/光センサ部300Bに表示する場合を例に挙げて説明する。   17A and 17B, the display of the window image of the “spreadsheet” application displayed on the first display / light sensor unit 300A in the upper housing 40 is terminated, and the “spreadsheet” is displayed. An example in which an icon associated with an execution file for executing the application is displayed on the second display / light sensor unit 300B in the lower housing 41 will be described as an example.

図17(a)に示すように、ユーザが上部筐体40における第1表示/光センサ部300Aに表示されているウィンドウ画像を三本指でタッチ(タップ)しつつ、ウィンドウ画像をタッチした指を下方向にスライドさせる。このとき、データ表示/センサ装置100における画像数算出部11は、「表計算」のアプリケーションのウィンドウ画像を被覆するユーザの指の像が3つであることを検出する。実行処理決定部13は、画像数算出部11における検出結果に基づいて、ウィンドウ画像の表示を終了する処理の実行を決定する。   As shown in FIG. 17A, the user touches (tap) the window image displayed on the first display / light sensor unit 300A of the upper housing 40 with three fingers and touches the window image. Slide down. At this time, the image count calculation unit 11 in the data display / sensor device 100 detects that there are three images of the user's finger covering the window image of the “spreadsheet” application. The execution process determination unit 13 determines the execution of the process for ending the display of the window image based on the detection result in the image number calculation unit 11.

また同時に、指示方向検出部12は、ユーザの指が下方向にスライドされたことを検出する。これに基づいて、表示位置決定部14は、「表計算」のアプリケーションを起動するためのアイコンを下部筐体41における第2表示/光センサ部300Bに表示することを決定する。   At the same time, the indication direction detection unit 12 detects that the user's finger has been slid downward. Based on this, the display position determination unit 14 determines to display an icon for starting the “spreadsheet” application on the second display / light sensor unit 300 </ b> B in the lower housing 41.

これによって、図17(b)に示すように、上部筐体40における第1表示/光センサ部300Aにおける「表計算」のアプリケーションのウィンドウ画像の表示を終了すると共に、「表計算」のアプリケーションを実行する実行ファイルに関連付けられたアイコンを下部筐体41における第2表示/光センサ部300B表示させることができる。なお、図12(b)に示すように、ウィンドウ画像を表示する際に、アイコンの色を薄くして表示するような場合には、アイコンの色を元に戻す処理を実行するようにすればよい。   As a result, as shown in FIG. 17B, the display of the window image of the “spreadsheet” application in the first display / light sensor unit 300A in the upper housing 40 is terminated, and the “spreadsheet” application is turned off. The icon associated with the execution file to be executed can be displayed on the second display / light sensor unit 300B in the lower housing 41. As shown in FIG. 12B, when displaying the window image with the icon color lightened, the process of restoring the icon color may be executed. Good.

(データ表示/センサ装置100の利点)
以上説明したように、本発明に係るデータ表示/センサ装置100では、ユーザの指示する指示方向を検出する指示方向検出部12と、指示方向により示される方向に配置されている画像表示領域からアプリケーションにより表示されるウィンドウ画像を表示する表示/光センサ部300を決定する表示位置決定部14と、決定された表示/光センサ部300にウィンドウ画像を表示する表示表示処理制御部15と、を備えている。
(Advantages of data display / sensor device 100)
As described above, in the data display / sensor device 100 according to the present invention, the application from the indication direction detection unit 12 that detects the indication direction indicated by the user and the image display area arranged in the direction indicated by the indication direction. A display position determining unit 14 that determines the display / light sensor unit 300 that displays the window image displayed by the display, and a display display processing control unit 15 that displays the window image on the determined display / light sensor unit 300. ing.

これによって、データ表示/センサ装置100では、ユーザはウィンドウ画像を表示させたい表示/光センサ部300の方向を指示するのみで、所望の表示/光センサ部300においてウィンドウ画像を表示させることができる。したがって、データ表示/センサ装置100は、ユーザに対して煩雑な操作を強いることなく、起動させたアプリケーションのウィンドウ画像をユーザの所望する画像表示領域において表示することができる。   Thus, in the data display / sensor device 100, the user can display the window image on the desired display / light sensor unit 300 only by instructing the direction of the display / light sensor unit 300 to display the window image. . Therefore, the data display / sensor device 100 can display the window image of the activated application in the image display area desired by the user without forcing the user to perform complicated operations.

また、本発明に係るデータ表示/センサ装置100は、表示/光センサ部300のいずれかに表示されている画像の少なくとも一部を被覆する対象物の像の数を算出する画像数算出部11と、画像の種類および画像数算出部11において算出された像の数の応じて、データ表示/センサ装置100において実行する処理を決定する実行処理決定部13と、をさらに備えている。   The data display / sensor device 100 according to the present invention also includes an image number calculation unit 11 that calculates the number of images of an object covering at least a part of an image displayed on any of the display / light sensor units 300. And an execution process determination unit 13 that determines a process to be executed in the data display / sensor device 100 according to the type of image and the number of images calculated in the image number calculation unit 11.

これによって、データ表示/センサ装置100は、対象物の像の数を変更するのみで、データ表示/センサ装置100に所望の処理を実行させることができる。例えば、ユーザの指の数またはタッチペンの数を変更することにより、データ表示/センサ装置100に所望の処理を実行させることができる。したがって、データ表示/センサ装置100は、データ表示/センサ装置100において実行する処理を容易な操作で設定することができる。   Thereby, the data display / sensor device 100 can cause the data display / sensor device 100 to execute a desired process only by changing the number of images of the object. For example, the data display / sensor device 100 can execute a desired process by changing the number of fingers of the user or the number of touch pens. Therefore, the data display / sensor device 100 can set a process to be executed in the data display / sensor device 100 with an easy operation.

また、本発明に係るデータ表示/センサ装置100は、対象物のスクロール方向に応じて、指示方向を検出する。   In addition, the data display / sensor device 100 according to the present invention detects the indication direction according to the scroll direction of the object.

これによって、ユーザは画像の表示される表示/光センサ部300をより一層直感的に設定することができるため、例えば年少者または高齢者などのようなデータ表示/センサ装置100の操作に不慣れなユーザであっても容易に理解できる操作により、指示方向を設定することができる。   As a result, the user can set the display / light sensor unit 300 on which the image is displayed more intuitively, so that the user is unfamiliar with the operation of the data display / sensor device 100 such as a young person or an elderly person. The instruction direction can be set by an operation that can be easily understood even by a user.

(主制御部800のコマンドを用いた動作例)
上述した主制御部800の動作処理の説明では、本発明の理解を容易にするために、コマンドを用いることなく主制御部800の動作を説明したが、本項では、主制御部800からデータ処理部700に送信されるコマンドに触れながら主制御部800の動作について説明する。なお、本項では、データ表示/センサ装置100が2つの表示/光センサ部300を備えており、下部筐体41における第2表示/光センサ部300Bに表示されているアイコンに関連付けられた実行ファイルを実行することにより起動するアプリケーションのウィンドウ画像を上部筐体40における第1表示/光センサ部300Aに表示する場合の動作処理を例に挙げて説明する。
(Operation example using command of main control unit 800)
In the description of the operation process of the main control unit 800 described above, the operation of the main control unit 800 has been described without using a command in order to facilitate understanding of the present invention. An operation of the main control unit 800 will be described while touching a command transmitted to the processing unit 700. In this section, the data display / sensor device 100 includes two display / light sensor units 300, and the execution associated with the icon displayed on the second display / light sensor unit 300B in the lower housing 41 is performed. An operation process in the case where a window image of an application activated by executing a file is displayed on the first display / light sensor unit 300A in the upper housing 40 will be described as an example.

まず、下画面である第2表示/光センサ部300Bにおいて、アイコンの少なくとも一部を被覆する対象物の像の数を算出するために、画像数算出部11は、「スキャンパネル」フィールドの値として、“第2表示/光センサ部”(“001”)を指定し、「データ取得タイミング」フィールドの値として、“イベント”(“01”)または“オール”(“10”)を指定し、「データ種別」フィールドの値として、“部分画像”および“座標”の両方(“011”)を指定したコマンドを、データ処理部700に送信する。   First, in the second display / light sensor unit 300B as the lower screen, the image number calculation unit 11 calculates the value of the “scan panel” field in order to calculate the number of images of an object covering at least a part of the icon. Specify “second display / light sensor section” (“001”), and specify “event” (“01”) or “all” (“10”) as the value of the “data acquisition timing” field. The command specifying both “partial image” and “coordinate” (“011”) as the value of the “data type” field is transmitted to the data processing unit 700.

これによって、画像数算出部11は、データ処理部700から、第2表示/光センサ部300Bにおける部分画像および部分画像の座標(全体画像における座標)を受信することができるため、この部分画像および座標に基づいて、アイコンの少なくとも一部を被覆する対象物の像の数を算出することができる。そして、アイコンの少なくとも一部を被覆する像の数が1つである場合、データ表示/センサ装置100は、上述したように、記憶部901に記憶されているアイコンに関連付けられた実行ファイルを実行することにより、アプリケーションを起動する。   Thereby, the image number calculation unit 11 can receive the partial image and the coordinates of the partial image (coordinates in the entire image) in the second display / light sensor unit 300B from the data processing unit 700. Based on the coordinates, the number of images of the object covering at least a part of the icon can be calculated. When the number of images covering at least a part of the icon is one, the data display / sensor device 100 executes the execution file associated with the icon stored in the storage unit 901 as described above. To start the application.

また、下画面である第2表示/光センサ部300Bにおいてユーザの指示する指示方向を検出するために、指示方向検出部12は、「スキャンパネル」フィールドの値として、“第2表示/光センサ部”(“001”)を指定し、「データ取得タイミング」フィールドの値として、“オール”(“10”)を指定し、「データ種別」フィールドの値として、“座標”(“001”)を指定したコマンドを、データ処理部700に送信する。   In addition, in order to detect the pointing direction indicated by the user in the second display / light sensor unit 300B which is the lower screen, the pointing direction detection unit 12 sets “second display / light sensor” as the value of the “scan panel” field. "Part" ("001"), "all" ("10") as the value of the "data acquisition timing" field, and "coordinate" ("001") as the value of the "data type" field Is transmitted to the data processing unit 700.

これによって、指示方向検出部12は、データ処理部700から、第2表示/光センサ部300Bにおける部分画像の代表座標の経時的な変化を受信することができるため、対象物の移動方向、すなわちユーザの指示する指示方向を検出することができる。   As a result, the indication direction detection unit 12 can receive the change over time in the representative coordinates of the partial image in the second display / light sensor unit 300B from the data processing unit 700, and thus the moving direction of the object, that is, The direction indicated by the user can be detected.

そして、表示処理制御部15が、「表示パネル」フィールドの値として“第1表示/光パネル”(“010”)を指定したコマンドと共に、起動するアプリケーションのウィンドウ画像を、データ処理部700に送信する。これによって、第1表示/光センサ部300Aに、選択したアイコンに関連付けられた実行ファイルにより実行されるアプリケーションのウィンドウ画像を表示することができる。   Then, the display processing control unit 15 transmits the window image of the application to be activated to the data processing unit 700 together with the command specifying “first display / light panel” (“010”) as the value of the “display panel” field. To do. Thereby, the window image of the application executed by the execution file associated with the selected icon can be displayed on the first display / light sensor unit 300A.

(付記事項)
本実施形態では、図9(a)〜(c)に示すように、表示/光センサ部300の数が縦方向および横方向に連続して2つ備えられている場合を例に挙げて説明したが、表示/光センサ部300は縦方向または横方向に3つ以上連続して備えられていてもよい。
(Additional notes)
In the present embodiment, as shown in FIGS. 9A to 9C, a case where two display / light sensor units 300 are continuously provided in the vertical direction and the horizontal direction will be described as an example. However, three or more display / light sensor units 300 may be continuously provided in the vertical direction or the horizontal direction.

表示/光センサ部300が縦方向または横方向に3つ以上連続して備えられている場合には、画像を表示する指示方向と共に、いずれの表示/光センサ部300に画像を表示するようにするのかを決定するパラメータを検出するパラメータ検出部を備えていることが好ましい。これは、対象物の像の位置座標および当該像よりも後に検知される像の位置座標に基づいて検出されるベクトルの大きさから検出することができる。例えば、指示方向がユーザの指によるスクロールにより決定される場合には、単位時間あたりのスクロール量(すなわち、スクロール速度)により決定すればよい。   When three or more display / light sensor units 300 are continuously provided in the vertical direction or the horizontal direction, an image is displayed on any display / light sensor unit 300 together with an instruction direction for displaying an image. It is preferable to include a parameter detection unit that detects a parameter for determining whether to perform the operation. This can be detected from the position coordinates of the image of the object and the magnitude of the vector detected based on the position coordinates of the image detected after the image. For example, when the pointing direction is determined by scrolling with the user's finger, it may be determined by the scroll amount per unit time (that is, scroll speed).

より具体的には、例えば、表示/光センサ部300が縦方向に3つ以上連続して備えられており、ユーザが最下部の表示/光センサ部300において指示方向を指定する場合、パラメータ検出部において検出したベクトルの大きさが所定の閾値よりも大きい場合、表示位置決定部14は、最上部の表示/光センサ部300を画像を表示する表示/光センサ部300に決定する。パラメータ検出部において検出したベクトルの大きさが所定の閾値よりも小さい場合、表示位置決定部14は、隣接する(すなわち、中段の)表示/光センサ部300を画像を表示する表示/光センサ部300に決定する。   More specifically, for example, when three or more display / light sensor units 300 are continuously provided in the vertical direction and the user designates an instruction direction on the bottom display / light sensor unit 300, parameter detection is performed. When the magnitude of the vector detected by the unit is larger than a predetermined threshold, the display position determination unit 14 determines the uppermost display / light sensor unit 300 as the display / light sensor unit 300 that displays an image. When the magnitude of the vector detected by the parameter detection unit is smaller than a predetermined threshold value, the display position determination unit 14 displays the image on the adjacent (ie, middle) display / photosensor unit 300. 300 is determined.

なお、表示/光センサ部300が縦方向または横方向に4つ以上連続して備えられている場合には、閾値をより詳細に設定することにより対応するようにすればよい。   In the case where four or more display / light sensor units 300 are continuously provided in the vertical direction or the horizontal direction, the threshold value may be set in more detail to cope with it.

これによって、表示/光センサ部300が縦方向または横方向に3つ以上連続して備えられているような場合であっても、表示位置決定部14においていずれの表示/光センサ部300に画像を表示するのかを決定することができる。   Accordingly, even if three or more display / light sensor units 300 are continuously provided in the vertical direction or the horizontal direction, the display position determination unit 14 can display an image on any display / light sensor unit 300. Can be determined.

また、本実施形態では、基本的には、筐体それぞれに表示/光センサ部300が備えられている場合、すなわち、表示/光センサ部300における画像表示領域が物理的に分割されている場合を例に挙げて説明したが、これに限定されるものではない。例えば、表示/光センサ部300が1つであり、1つの表示/光センサ部300において、仮想的に画像表示領域が複数に分割されているような構成であってもよい。また、筐体それぞれに表示/光センサ部300が備えられており、それらの表示/光センサ部300がさらに複数の画像表示領域に仮想的に分割されていてもよい。   In the present embodiment, basically, the display / light sensor unit 300 is provided in each case, that is, the image display area in the display / light sensor unit 300 is physically divided. However, the present invention is not limited to this. For example, there may be a configuration in which one display / light sensor unit 300 is provided and the image display region is virtually divided into a plurality of portions in one display / light sensor unit 300. In addition, the display / light sensor unit 300 may be provided in each case, and the display / light sensor unit 300 may be virtually divided into a plurality of image display areas.

さらに、ユーザの意図しない方向を指示方向として検出することを防止するために、指示方向検出部12は単位時間あたりの位置座標の変化量が所定以上の大きさである場合にのみ、指示方向を検出するようにすることが好ましい。すなわち、指示方向検出部12は、所定の速度以上で対象物をスクロールしたときにのみ、指示方向を検出するようにすることが好ましい。   Further, in order to prevent the direction unintended by the user from being detected as the indication direction, the indication direction detection unit 12 determines the indication direction only when the amount of change in position coordinates per unit time is greater than or equal to a predetermined amount. It is preferable to detect. That is, it is preferable that the pointing direction detection unit 12 detects the pointing direction only when the object is scrolled at a predetermined speed or higher.

また、上述した実施形態では、対象物の像の数が1つである場合にアプリケーションを起動させ、2つである場合に画像を移動させ、3つである場合にウィンドウ画像の表示の終了である場合を例に挙げて説明したが、もちろん対象物の像の数は任意に設定することができる。   In the above-described embodiment, the application is started when the number of images of the object is one, the image is moved when the number is two, and the display of the window image is ended when the number is three. Although a case has been described as an example, of course, the number of images of the object can be arbitrarily set.

(プログラムおよび記録媒体)
最後に、データ表示/センサ装置100に含まれている回路制御部600、データ処理部700、および主制御部800は、ハードウェアロジックによって構成すればよい。または、次のように、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
(Program and recording medium)
Finally, the circuit control unit 600, the data processing unit 700, and the main control unit 800 included in the data display / sensor device 100 may be configured by hardware logic. Alternatively, it may be realized by software using a CPU (Central Processing Unit) as follows.

すなわち、回路制御部600、データ処理部700および主制御部800は、各機能を実現するプログラムの命令を実行するMPUなどのCPU、このプログラムを格納したROM(Read Only Memory)、上記プログラムを実行可能な形式に展開するRAM(Random Access Memory)、および、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)を備えている。   That is, the circuit control unit 600, the data processing unit 700, and the main control unit 800 are a CPU such as an MPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, and executes the program. A RAM (Random Access Memory) that expands into a possible format, and a storage device (recording medium) such as a memory that stores the program and various data are provided.

そして、本発明の目的は、回路制御部600、データ処理部700および主制御部800のプログラムメモリに固定的に担持されている場合に限らず、上記プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、または、ソースプログラム)を記録した記録媒体をデータ表示/センサ装置100に供給し、データ表示/センサ装置100が上記記録媒体に記録されている上記プログラムコードを読み出して実行することによっても、達成可能である。   The object of the present invention is not limited to the case where the program memory of the circuit control unit 600, the data processing unit 700, and the main control unit 800 is fixedly supported, but the program code of the above program (execution format program, intermediate code) Also, a recording medium in which a program or a source program is recorded is supplied to the data display / sensor device 100, and the data display / sensor device 100 reads and executes the program code recorded in the recording medium. Achievable.

上記記録媒体は、特定の構造または種類のものに限定されない。すなわちこの記録媒体は、たとえば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などとすることができる。   The recording medium is not limited to a specific structure or type. That is, the recording medium includes, for example, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. System, a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM.

また、回路制御部600、データ処理部700および主制御部800(またはデータ表示/センサ装置100)を通信ネットワークと接続可能に構成しても、本発明の目的を達成できる。この場合、上記のプログラムコードを、通信ネットワークを介して回路制御部600、データ処理部700および主制御部800に供給する。この通信ネットワークは回路制御部600、データ処理部700および主制御部800にプログラムコードを供給できるものであればよく、特定の種類または形態に限定されない。たとえばインターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等であればよい。   The object of the present invention can be achieved even if the circuit control unit 600, the data processing unit 700, and the main control unit 800 (or the data display / sensor device 100) are configured to be connectable to a communication network. In this case, the program code is supplied to the circuit control unit 600, the data processing unit 700, and the main control unit 800 via the communication network. The communication network only needs to be able to supply program codes to the circuit control unit 600, the data processing unit 700, and the main control unit 800, and is not limited to a specific type or form. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, etc. may be used.

この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の媒体であればよく、特定の構成または種類のものに限定されない。たとえばIEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), 802.11 wireless, HDR, mobile phone It can also be used by radio such as a telephone network, a satellite line, and a terrestrial digital network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

以上、本発明を実施形態に基づいて具体的に説明したが、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲において種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention has been specifically described above based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and different implementations are possible. Embodiments obtained by appropriately combining the technical means disclosed in each form are also included in the technical scope of the present invention.

本発明に係る画像表示/像検知装置は、画像表示モニターを備えた携帯電話、携帯型ゲーム機またはコンピュータなどに好適に適用することができる。また、画像表示領域が仮想的に分割されている画像表示装置にも好適に適用することができる。   The image display / image detection apparatus according to the present invention can be suitably applied to a mobile phone, a portable game machine, a computer, or the like provided with an image display monitor. Further, the present invention can be suitably applied to an image display device in which an image display area is virtually divided.

本発明に係るデータ表示/センサ装置における主制御部の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the main control part in the data display / sensor apparatus which concerns on this invention. センサ内蔵液晶パネルの断面を模式的に示す図である。It is a figure which shows typically the cross section of a liquid crystal panel with a built-in sensor. センサ内蔵液晶パネル上をタッチした位置を検出する検出方法を模式的に示す図であり、(a)は反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図であり、(b)は影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。It is a figure which shows typically the detection method which detects the position which touched on the liquid crystal panel with a built-in sensor, (a) is a schematic diagram which shows a mode that the position which the user touched is detected by detecting a reflected image. (B) is a schematic diagram which shows a mode that the position which the user touched is detected by detecting a shadow image. 本発明に係るデータ表示/センサ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the data display / sensor apparatus based on this invention. コマンドのフレーム構造の一例を模式的に示す図である。It is a figure which shows an example of the frame structure of a command typically. コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。It is a figure explaining an example of the value which can be specified to each field contained in a command, and its outline. センサ内蔵液晶パネルをスキャンした結果として得られる画像データを示す図であり、(a)は、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データであり、(b)は、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。It is a figure which shows the image data obtained as a result of scanning the liquid crystal panel with a built-in sensor, (a) is a result of scanning the whole liquid crystal panel with a built-in sensor when the object is not placed on the liquid crystal panel with a built-in sensor. (B) is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel when the user touches the sensor-equipped liquid crystal panel with a finger. センサ内蔵液晶パネルの構成および周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of a liquid crystal panel with a built-in sensor, and the structure of a peripheral circuit. 本発明に係るデータ表示/センサ装置の外観を模式的に示す図であり、(a)は上部筐体と下部筐体とからなる構成を示す図であり、(b)は左側筐体と右側筐体とからなる構成を示す図であり、(c)は、表示/光センサ部を3つ備えた構成を示す図である。It is a figure which shows typically the external appearance of the data display / sensor apparatus which concerns on this invention, (a) is a figure which shows the structure which consists of an upper housing | casing and a lower housing | casing, (b) is a left housing | casing and right side housing | casing. It is a figure which shows the structure which consists of a housing | casing, (c) is a figure which shows the structure provided with three display / light sensor parts. データ表示/センサ装置が3つの筐体からなる場合における指示方向の定義を示す図である。It is a figure which shows the definition of the instruction | indication direction in case a data display / sensor apparatus consists of three housings. ユーザの所望する表示/光センサ部においてアプリケーションのウィンドウ画像を表示させる際の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of displaying the window image of an application in the display / light sensor part which a user desires. ユーザの所望する表示/光センサ部に、アプリケーションのウィンドウ画像を表示する具体例を示す図であり、(a)はアプリケーションを実行する際の動作を示す図であり、(b)は(a)に示す動作に基づいて、ウィンドウ画像を表示した状態を示す図である。It is a figure which shows the specific example which displays the window image of an application on the display / light sensor part which a user desires, (a) is a figure which shows the operation | movement at the time of executing an application, (b) is (a). It is a figure which shows the state which displayed the window image based on the operation | movement shown in FIG. ユーザの所望する表示/光センサ部に、画像を移動して表示させる際の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of moving and displaying an image on the display / light sensor part which a user desires. ユーザの所望する表示/光センサ部にウィンドウ画像を移動して表示する具体例を示す図であり、(a)ウィンドウ画像を移動させる動作を示す図であり、(b)は(a)に示す動作に基づいて、ウィンドウ画像を移動して表示した状態を示す図である。It is a figure which shows the specific example which moves and displays a window image on the display / light sensor part which a user desires, (a) It is a figure which shows the operation | movement which moves a window image, (b) is shown to (a). It is a figure which shows the state which moved and displayed the window image based on operation | movement. ユーザの所望する表示/光センサ部にアイコンを移動して表示する具体例を示す図であり、(a)アイコンを移動させる動作を示す図であり、(b)は(a)に示す動作に基づいて、アイコンを移動して表示した状態を示す図である。It is a figure which shows the specific example which moves and displays an icon on the display / light sensor part which a user desires, (a) It is a figure which shows the operation | movement which moves an icon, (b) is operation | movement shown to (a). It is a figure which shows the state which moved and displayed the icon based on. 表示/光センサ部に表示されているウィンドウ画像の表示を終了させる際の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of complete | finishing the display of the window image currently displayed on the display / light sensor part. 表示/光センサ部に表示されているウィンドウ画像の表示を終了する具体例を示す図であり、(a)ウィンドウ画像の表示を終了させる動作を示す図であり、(b)は(a)に示す動作に基づいてウィンドウ画像の表示を終了した状態を示す図である。It is a figure which shows the specific example which complete | finishes the display of the window image currently displayed on the display / light sensor part, (a) It is a figure which shows the operation | movement which complete | finishes the display of a window image, (b) is a figure to (a). It is a figure which shows the state which complete | finished the display of the window image based on the operation | movement shown. 実行したアプリケーションのウィンドウ画像を表示する従来の例を示す図であり、(a)はアプリケーションを実行する動作を示す図であり、(b)は(a)に示す動作に基づいて表示されたウィンドウ画像を移動させる動作を示す図であり、(c)は(b)に示す動作に基づいて、ウィンドウ画像を移動して表示した状態を示す図である。It is a figure which shows the conventional example which displays the window image of the executed application, (a) is a figure which shows the operation | movement which performs an application, (b) is the window displayed based on the operation | movement shown to (a) It is a figure which shows the operation | movement which moves an image, (c) is a figure which shows the state which moved and displayed the window image based on the operation | movement shown in (b).

符号の説明Explanation of symbols

11 画像数算出部(算出手段)
12 指示方向検出部
13 実行処理決定部(処理決定手段)
14 表示位置決定部(表示領域設定手段)
15 表示処理制御部
40 上部筐体
41 下部筐体
42 左側筐体
43 右側筐体
44 第1筐体
45 第2筐体
46 第3筐体
100 データ表示/センサ装置(画像表示/像検知装置)
300 表示/光センサ部(面状部材)
300A 第1表示/光センサ部
300B 第2表示/光センサ部
300C 第3表示/光センサ部
301 センサ内蔵液晶パネル
600 回路制御部
700 データ処理部
800 主制御部
11 Image number calculation unit (calculation means)
12 Instruction direction detection unit 13 Execution process determination unit (process determination unit)
14 Display position determination unit (display area setting means)
DESCRIPTION OF SYMBOLS 15 Display processing control part 40 Upper housing | casing 41 Lower housing | casing 42 Left housing | casing 43 Right housing | casing 44 1st housing | casing 45 2nd housing | casing 46 3rd housing | casing 100 Data display / sensor apparatus (image display / image detection apparatus)
300 Display / Optical sensor part (planar member)
300A First display / light sensor unit 300B Second display / light sensor unit 300C Third display / light sensor unit 301 Liquid crystal panel with built-in sensor 600 Circuit control unit 700 Data processing unit 800 Main control unit

Claims (10)

画像を表示すると共に、近傍に位置する対象物の像を検知する1つ以上の面状部材を備えた画像表示/像検知装置であって、
上記1つ以上の面状部材上に設けられた複数の画像表示領域の何れかに表示されたアイコン上の点が上記面状部材の近傍に位置する物体により指示されたとき、この点の位置座標と、この点の次に上記面状部材の近傍に位置する物体により指示された点の位置座標とに基づいて、指示方向を検出する指示方向検出手段と、
上記アイコンが表示されている画像表示領域に対して上記指示方向にある他の画像表示領域の何れかを上記アイコンに関連付けられたアプリケーションにより表示されるウィンドウを表示する画像表示領域として設定する表示領域設定手段と、
上記表示領域設定手段において設定された画像表示領域に、上記アイコンに関連付けられたアプリケーションにより表示されるウィンドウを表示する表示処理制御手段と、
を備えていることを特徴とする画像表示/像検知装置。
An image display / image detection apparatus including one or more planar members for displaying an image and detecting an image of an object located nearby.
When a point on an icon displayed in any of a plurality of image display areas provided on the one or more planar members is designated by an object located in the vicinity of the planar member, the position of this point An indication direction detecting means for detecting an indication direction based on the coordinates and a position coordinate of a point indicated by an object located in the vicinity of the planar member next to the point;
A display area in which one of the other image display areas in the indicated direction with respect to the image display area in which the icon is displayed is set as an image display area for displaying a window displayed by the application associated with the icon Setting means;
Display processing control means for displaying a window displayed by the application associated with the icon in the image display area set in the display area setting means;
An image display / image detection apparatus comprising:
画像を表示すると共に、近傍に位置する対象物の像を検知する1つ以上の面状部材を備えた画像表示/像検知装置であって、
上記1つ以上の面状部材上に設けられた複数の画像表示領域の何れかに表示された第1の画像上の点が上記面状部材の近傍に位置する物体により指示されたとき、この点を指示する上記面状部材の近傍に位置する物体の像の数を算出する算出手段と、
上記第1の画像の種類および上記算出手段において算出された像の数の応じて、当該画像表示/像検知装置において実行する処理を決定する処理決定手段と、
上記物体により指示された上記第1の画像上の点の位置座標と、この点の次に上記面状部材の近傍に位置する物体により指示された点の位置座標とに基づいて、指示方向を検出する指示方向検出手段と、
上記第1の画像が表示されている画像表示領域に対して上記指示方向にある他の画像表示領域の何れかを上記処理決定手段において決定された処理を実行することにより得られる第2の画像を表示する画像表示領域として設定する表示領域設定手段と、
上記表示領域設定手段により設定された画像表示領域に上記第2の画像を表示する表示処理制御手段と、
を備えていることを特徴とする画像表示/像検知装置。
An image display / image detection apparatus including one or more planar members for displaying an image and detecting an image of an object located in the vicinity thereof,
When a point on the first image displayed in any of the plurality of image display areas provided on the one or more planar members is indicated by an object located in the vicinity of the planar member, this Calculating means for calculating the number of images of an object located in the vicinity of the planar member indicating a point;
A process determining unit that determines a process to be executed in the image display / image detection device according to the type of the first image and the number of images calculated by the calculating unit;
Based on the position coordinates of the point on the first image instructed by the object and the position coordinates of the point instructed by the object located in the vicinity of the planar member next to the point, the indication direction is determined. Indicating direction detecting means for detecting;
The second image obtained by executing the process determined by the process determining means on any one of the other image display areas in the indicated direction with respect to the image display area on which the first image is displayed. Display area setting means for setting as an image display area for displaying,
Display processing control means for displaying the second image in the image display area set by the display area setting means;
An image display / image detection apparatus comprising:
上記処理決定手段は、上記第1の画像がアイコンであり、かつ、上記算出手段において算出された像の数が第1の値である場合、当該画像表示/像検知装置において実行する処理を、上記アイコンに関連付けられたアプリケーションの実行に決定することを特徴とする請求項2に記載の画像表示/像検知装置。   When the first image is an icon and the number of images calculated by the calculation unit is a first value, the process determination unit performs a process to be executed in the image display / image detection apparatus. The image display / image detection apparatus according to claim 2, wherein the image display / image detection apparatus is determined to execute an application associated with the icon. 上記処理決定手段は、上記第1の画像が上記アプリケーションにより表示されるウィンドウであり、かつ、上記算出手段において算出された像の数が第3の値である場合、当該画像表示/像検知装置において実行する処理を、当該ウィンドウの表示の終了に決定することを特徴とする請求項3に記載の画像表示/像検知装置。   When the first image is a window displayed by the application and the number of images calculated by the calculation unit is a third value, the processing determination unit is configured to display the image display / image detection device. The image display / image detection apparatus according to claim 3, wherein the process to be executed is determined to end the display of the window. 上記処理決定手段は、上記算出手段において算出された像の数が第2の値である場合、当該画像表示/像検知装置において実行する処理を、上記第1の画像を表示する上記画像表示領域の変更に決定することを特徴とする請求項2または3に記載の画像表示/像検知装置。   When the number of images calculated by the calculation unit is the second value, the process determination unit performs the process to be executed in the image display / image detection apparatus by displaying the first image. The image display / image detection apparatus according to claim 2, wherein the image display / image detection apparatus is determined to be changed. 上記指示方向検出手段は、上記面状部材の近傍に位置する物体を逐次検知した像の位置座標の軌跡を参照して指示方向を検出することを特徴とする請求項1から5のいずれか1項に記載の画像表示/像検知装置。   6. The pointing direction detecting unit according to claim 1, wherein the pointing direction detecting unit detects the pointing direction with reference to a locus of position coordinates of an image obtained by sequentially detecting an object located in the vicinity of the planar member. The image display / image detection device according to item. 上記画像表示領域のそれぞれに対応する画像表示装置を備えていることを特徴とする請求項1から6のいずれか1項に記載の画像表示/像検知装置。   7. The image display / image detection apparatus according to claim 1, further comprising an image display apparatus corresponding to each of the image display areas. 画像を表示すると共に、近傍に位置する対象物の像を検知する1つ以上の面状部材を備えた画像表示/像検知装置における画像表示方法であって、
上記1つ以上の面状部材上に設けられた複数の画像表示領域の何れかに表示されたアイコン上の点が上記面状部材の近傍に位置する物体により指示されたとき、この点の位置座標と、この点の次に上記面状部材の近傍に位置する物体により指示された点の位置座標とに基づいて、指示方向を検出する指示方向検出ステップと、
上記アイコンが表示されている画像表示領域に対して上記指示方向にある他の画像表示領域の何れかを上記アイコンに関連付けられたアプリケーションにより表示されるウィンドウを表示する画像表示領域として設定する表示領域設定ステップと、
上記表示領域設定ステップにおいて設定された画像表示領域に、上記アイコンに関連付けられたアプリケーションにより表示されるウィンドウを表示する表示処理制御ステップと、
を含むことを特徴とする画像表示方法。
An image display method in an image display / image detection apparatus including one or more planar members for displaying an image and detecting an image of an object located nearby,
When a point on an icon displayed in any of a plurality of image display areas provided on the one or more planar members is designated by an object located in the vicinity of the planar member, the position of this point An indication direction detection step for detecting an indication direction based on the coordinates and a position coordinate of a point indicated by an object located in the vicinity of the planar member next to the point;
A display area in which one of the other image display areas in the indicated direction with respect to the image display area in which the icon is displayed is set as an image display area for displaying a window displayed by the application associated with the icon Configuration steps;
A display processing control step of displaying a window displayed by the application associated with the icon in the image display region set in the display region setting step;
An image display method comprising:
請求項1から7のいずれか1項に記載の画像表示/像検知装置が備えているコンピュータを動作させるプログラムであって、上記コンピュータを上記の各手段として機能させるためのプログラム。   A program for operating a computer included in the image display / image detection apparatus according to claim 1, wherein the program causes the computer to function as each unit. 請求項9に記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium in which the program according to claim 9 is recorded.
JP2008262748A 2008-10-09 2008-10-09 Image display / image detection apparatus, image display method, image display program, and recording medium recording the program Expired - Fee Related JP5095574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008262748A JP5095574B2 (en) 2008-10-09 2008-10-09 Image display / image detection apparatus, image display method, image display program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008262748A JP5095574B2 (en) 2008-10-09 2008-10-09 Image display / image detection apparatus, image display method, image display program, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2010092340A true JP2010092340A (en) 2010-04-22
JP5095574B2 JP5095574B2 (en) 2012-12-12

Family

ID=42254976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008262748A Expired - Fee Related JP5095574B2 (en) 2008-10-09 2008-10-09 Image display / image detection apparatus, image display method, image display program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP5095574B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003508A (en) * 2010-06-16 2012-01-05 Toshiba Corp Information processor, method and program
JP2012230564A (en) * 2011-04-26 2012-11-22 Kyocera Corp Electronic apparatus, screen control method and screen control program
JP2013114540A (en) * 2011-11-30 2013-06-10 Nec Casio Mobile Communications Ltd Electronic device, control method therefor and program
WO2013145485A1 (en) * 2012-03-29 2013-10-03 日本電気株式会社 Information processing device
WO2013171934A1 (en) * 2012-05-14 2013-11-21 Necカシオモバイルコミュニケーションズ株式会社 Display device, display control method and non-temporary computer-readable medium
JP2013546047A (en) * 2010-10-01 2013-12-26 ゼット124 Gesture capture for presentation operations on one or more device displays
US9372618B2 (en) 2010-10-01 2016-06-21 Z124 Gesture based application management
JP2016149163A (en) * 2012-11-14 2016-08-18 フェイスブック,インク. Animation sequence associated with content item

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (en) * 1992-07-27 1994-02-18 Toshiba Corp Display controller and display control method
JP2003316563A (en) * 2002-04-22 2003-11-07 Pioneer Electronic Corp Information terminal, method for controlling information terminal and display control program
JP2007133568A (en) * 2005-11-09 2007-05-31 Fuji Xerox Co Ltd Multilayer work support device, and allocation method, display method, and program for the same multilayer work support device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (en) * 1992-07-27 1994-02-18 Toshiba Corp Display controller and display control method
JP2003316563A (en) * 2002-04-22 2003-11-07 Pioneer Electronic Corp Information terminal, method for controlling information terminal and display control program
JP2007133568A (en) * 2005-11-09 2007-05-31 Fuji Xerox Co Ltd Multilayer work support device, and allocation method, display method, and program for the same multilayer work support device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003508A (en) * 2010-06-16 2012-01-05 Toshiba Corp Information processor, method and program
US10613706B2 (en) 2010-10-01 2020-04-07 Z124 Gesture controls for multi-screen hierarchical applications
US10558321B2 (en) 2010-10-01 2020-02-11 Z124 Drag move gesture in user interface
US11182046B2 (en) 2010-10-01 2021-11-23 Z124 Drag move gesture in user interface
US11068124B2 (en) 2010-10-01 2021-07-20 Z124 Gesture controlled screen repositioning for one or more displays
JP2013546047A (en) * 2010-10-01 2013-12-26 ゼット124 Gesture capture for presentation operations on one or more device displays
US9372618B2 (en) 2010-10-01 2016-06-21 Z124 Gesture based application management
US11599240B2 (en) 2010-10-01 2023-03-07 Z124 Pinch gesture to swap windows
US9098236B2 (en) 2011-04-26 2015-08-04 Kyocera Corporation Electronic device, screen control method, and storage medium storing screen control program
JP2012230564A (en) * 2011-04-26 2012-11-22 Kyocera Corp Electronic apparatus, screen control method and screen control program
JP2013114540A (en) * 2011-11-30 2013-06-10 Nec Casio Mobile Communications Ltd Electronic device, control method therefor and program
WO2013145485A1 (en) * 2012-03-29 2013-10-03 日本電気株式会社 Information processing device
US20150116369A1 (en) * 2012-05-14 2015-04-30 Nec Casio Mobile Communications, Ltd. Display device, display control method, and non-transitory computer readable medium storing display control program
CN104285204A (en) * 2012-05-14 2015-01-14 Nec卡西欧移动通信株式会社 Display device, display control method and non-temporary computer-readable medium
EP3203360A1 (en) * 2012-05-14 2017-08-09 NEC Corporation Display device, display control method, and non-transitory computer readable medium storing display control program
WO2013171934A1 (en) * 2012-05-14 2013-11-21 Necカシオモバイルコミュニケーションズ株式会社 Display device, display control method and non-temporary computer-readable medium
JPWO2013171934A1 (en) * 2012-05-14 2016-01-07 日本電気株式会社 Display device, display control method, and display control program
EP2851772A4 (en) * 2012-05-14 2016-04-20 Nec Corp Display device, display control method and non-temporary computer-readable medium
JP2016149163A (en) * 2012-11-14 2016-08-18 フェイスブック,インク. Animation sequence associated with content item
US10762684B2 (en) 2012-11-14 2020-09-01 Facebook, Inc. Animation sequence associated with content item

Also Published As

Publication number Publication date
JP5095574B2 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010146506A (en) Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device
JP2010108081A (en) Menu display device, method of controlling the menu display device, and menu display program
JP2010140300A (en) Display, control method, control program and recording medium
JP2010186442A (en) Input device and input control method
JP2010108303A (en) Image detection/display device
JP2010122972A (en) Image display/detection device, selection method, and program
JP5306780B2 (en) Input device
JP5185086B2 (en) Display device, display device control method, display device control program, and computer-readable recording medium storing the program
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010204945A (en) Input device and input method
JP2010109467A (en) Image display/image detection apparatus
JP2010122383A (en) Display apparatus
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
WO2011121842A1 (en) Display device with input unit, control method for same, control program and recording medium
JP2010160689A (en) Input device and method of controlling the same
JP2010109947A (en) Processing execution command device, electronic equipment, and method of controlling processing execution command device
JP2010256969A (en) User interface device and method for controlling the same
JP2010117841A (en) Image detection device, recognition method of input position and program
JP5171572B2 (en) Image display device, control method for image display device, program, and recording medium
JP2010092272A (en) Image display/image detection device, auxiliary image display method, and program
JP2010118016A (en) Input device, input method, input program, and computer-readable recording medium
JP5259352B2 (en) Input device and control method of input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120919

R150 Certificate of patent or registration of utility model

Ref document number: 5095574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees