JP2022053121A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2022053121A
JP2022053121A JP2020159754A JP2020159754A JP2022053121A JP 2022053121 A JP2022053121 A JP 2022053121A JP 2020159754 A JP2020159754 A JP 2020159754A JP 2020159754 A JP2020159754 A JP 2020159754A JP 2022053121 A JP2022053121 A JP 2022053121A
Authority
JP
Japan
Prior art keywords
area
mode
user
touch screen
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020159754A
Other languages
Japanese (ja)
Other versions
JP7014874B1 (en
Inventor
良太 野村
Ryota Nomura
義従 鈴木
Yoshitsugu Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2020159754A priority Critical patent/JP7014874B1/en
Application granted granted Critical
Publication of JP7014874B1 publication Critical patent/JP7014874B1/en
Publication of JP2022053121A publication Critical patent/JP2022053121A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing device and an information processing method capable of improving the usability of a touch screen.SOLUTION: An information processing device includes a determination unit configured to determine whether a user is looking inside or outside a first area of a touch screen based on the user's line of sight, and a mode switching unit configured to switch an operation mode of the first area, based on the result of the determination by the determination unit, into a first mode for causing the first area to function so that an operation object displayed in the first area is operable by an operation input into the first area, or a second mode for causing the first area to function so that an operation object displayed in a second area, which is different from the first area, in the touch screen or a display device different from the touch screen, is operable by an operation input into the first area.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method.

近年、タッチスクリーンの所定の領域を仮想のタッチパッド(以下、「仮想タッチパッド」とも称される)として機能させる技術が各種提案されている。ユーザは、仮想タッチパッドに対するタッチ操作により、例えば、仮想タッチパッドとして機能する領域外に表示されているオブジェクト(例えばマウスカーソル)を操作することができる。 In recent years, various techniques have been proposed in which a predetermined area of a touch screen functions as a virtual touch pad (hereinafter, also referred to as "virtual touch pad"). By touching the virtual touchpad, the user can operate, for example, an object (for example, a mouse cursor) displayed outside the area that functions as the virtual touchpad.

下記特許文献1には、例えば、タッチスクリーンに対して所定の条件を満たす入力(例えばタッチ又はホバーリング)が行われると、タッチスクリーン上の所定の領域を仮想タッチパッドとして機能させる技術が開示されている。具体的に、ユーザがタッチスクリーンに対して所定の条件を満たす入力を行うと、仮想タッチパッドに関するメニューが表示される。ユーザが当該メニューから仮想タッチパッドモードを選択すると、タッチスクリーン上の所定の領域が仮想タッチパッドとして機能する仮想タッチパッドモードが開始する。一方、ユーザが仮想タッチパッドモードを終了させる入力を行うと、仮想タッチパッドモードが終了する。 The following Patent Document 1 discloses, for example, a technique for making a predetermined area on a touch screen function as a virtual touch pad when an input satisfying a predetermined condition (for example, touch or hovering) is performed on the touch screen. ing. Specifically, when the user inputs an input satisfying a predetermined condition to the touch screen, a menu related to the virtual touch pad is displayed. When the user selects the virtual touchpad mode from the menu, the virtual touchpad mode in which a predetermined area on the touch screen functions as a virtual touchpad is started. On the other hand, when the user makes an input to end the virtual touchpad mode, the virtual touchpad mode ends.

特開2017-21827号公報Japanese Unexamined Patent Publication No. 2017-21827

しかしながら、特許文献1の技術のように、仮想タッチパッドを使用するたびに、仮想タッチパッドモードの開始又は終了のための操作を入力することは、ユーザにとって手間である。そこで、ユーザが仮想タッチパッドを使用するための操作を入力せずに、仮想タッチパッドを使用できることが望まれる。 However, as in the technique of Patent Document 1, it is troublesome for the user to input an operation for starting or ending the virtual touchpad mode each time the virtual touchpad is used. Therefore, it is desired that the user can use the virtual touchpad without inputting an operation for using the virtual touchpad.

上述の課題を鑑み、本発明の目的は、タッチスクリーンのユーザビリティを向上することが可能情報処理装置及び情報処理方法を提供することにある。 In view of the above problems, an object of the present invention is to provide an information processing apparatus and an information processing method capable of improving the usability of a touch screen.

上述の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザの視線に基づき、タッチスクリーンにおける第1の領域内又は第1の領域外のいずれを前記ユーザが見ているかを判定する判定部と、前記判定部による判定の結果に基づき、第1の領域の動作モードを、前記第1の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第1のモード、又は前記第1の領域とは異なる領域であって前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における第2の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第2のモードに切替えるモード切替部と、を備える。 In order to solve the above-mentioned problems, in the information processing apparatus according to one aspect of the present invention, whether the user is looking inside or outside the first area of the touch screen based on the user's line of sight. The operation mode of the first area is operated by the operation of inputting the operation target displayed in the first area to the first area based on the determination unit for determining the above and the result of the determination by the determination unit. A first mode that allows the first area to function, or an operation displayed in the second area of the touch screen or a display device that is different from the first area and different from the touch screen. A mode switching unit for switching the target to a second mode in which the first area is operably functioned by an operation input to the first area is provided.

本発明の一態様に係る情報処理方法は、判定部が、ユーザの視線に基づき、タッチスクリーンにおける第1の領域内又は第1の領域外のいずれを前記ユーザが見ているかを判定することと、モード切替部が、前記判定部による判定の結果に基づき、第1の領域の動作モードを、前記第1の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第1のモード、又は前記第1の領域とは異なる領域であって前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における第2の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第2のモードに切替えることと、を含む。 In the information processing method according to one aspect of the present invention, the determination unit determines whether the user is looking inside or outside the first region of the touch screen based on the user's line of sight. , The mode switching unit can operate the operation mode of the first area based on the result of the determination by the determination unit by the operation of inputting the operation target displayed in the first area to the first area. The operation target displayed in the first mode in which the first area is made to function, or in the second area of the touch screen or a display device different from the first area but different from the first area. Includes switching to a second mode in which the first area is operably functioned by an operation input to the first area.

本発明の一態様に係る情報処理装置は、タッチスクリーンにおける第1の領域の動作モードを切替えるモード切替部を備える情報処理装置であって、前記モード切替部は、前記第1の領域に操作対象が表示されている場合に、前記第1の領域に入力される操作によって前記第1の領域に表示された操作対象を操作可能に前記第1の領域を機能させる第1のモードに切替え、前記第1の領域とは異なる領域であって、前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における少なくとも1つの第2の領域に操作対象が表示されている場合に、前記第1の領域に入力される操作によって前記第2の領域に表示された操作対象を操作可能に前記第1の領域を機能させる第2のモードに切替える。 The information processing device according to one aspect of the present invention is an information processing device including a mode switching unit for switching the operation mode of the first region of the touch screen, and the mode switching unit is an operation target in the first region. Is displayed, the operation target displayed in the first area can be operated by the operation input to the first area, and the mode is switched to the first mode in which the first area functions. When the operation target is displayed in at least one second area of the touch screen or a display device different from the touch screen, which is a region different from the first region, an input is made in the first region. By the operation performed, the operation target displayed in the second area is switched to the second mode in which the first area is operated so that the operation target can be operated.

本発明の一態様に係る情報処理方法は、モード切替部が、タッチスクリーンにおける第1の領域の動作モードを切替えることを含む情報処理方法であって、前記モード切替部が、前記第1の領域に操作対象が表示されている場合に、前記第1の領域に入力される操作によって前記第1の領域に表示された操作対象を操作可能に前記第1の領域を機能させる第1のモードに切替え、前記第1の領域とは異なる領域であって、前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における少なくとも1つの第2の領域に操作対象が表示されている場合に、前記第1の領域に入力される操作によって前記第2の領域に表示された操作対象を操作可能に前記第1の領域を機能させる第2のモードに切替える。 The information processing method according to one aspect of the present invention is an information processing method including the mode switching unit switching the operation mode of the first region on the touch screen, and the mode switching unit is the first region. In the first mode in which the operation target displayed in the first area can be operated by the operation input to the first area when the operation target is displayed in the first area. When the operation target is displayed in at least one second area of the touch screen or a display device different from the touch screen, which is a region different from the first region, the first region is switched. The operation target displayed in the second area is switched to the second mode in which the operation target displayed in the second area can be operated by the operation input to the area.

本発明によれば、タッチスクリーンのユーザビリティを向上することができる。 According to the present invention, the usability of the touch screen can be improved.

本実施形態に係る情報処理装置の外部構成の一例を示す図である。It is a figure which shows an example of the external configuration of the information processing apparatus which concerns on this embodiment. 本実施形態に係る直接操作モードにおける動作の一例を示す図である。It is a figure which shows an example of the operation in the direct operation mode which concerns on this embodiment. 本実施形態に係る間接操作モードにおける動作の一例を示す図である。It is a figure which shows an example of the operation in the indirect operation mode which concerns on this embodiment. 本実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the information processing apparatus which concerns on this embodiment. 本実施形態に係る情報処理装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the information processing apparatus which concerns on this embodiment. 本実施形態に係るユーザの視点位置と操作位置に基づきユーザが直接操作領域R1を見ていると判定される場合の一例を示す図である。It is a figure which shows an example of the case where it is determined that the user is directly looking at the operation area R1 based on the viewpoint position and the operation position of the user according to this embodiment. 本実施形態に係るユーザの視点位置と操作位置に基づきユーザが間接操作領域R2を見ていると判定される場合の一例を示す図である。It is a figure which shows an example of the case where it is determined that the user is looking at the indirect operation area R2 based on the viewpoint position and the operation position of the user according to this embodiment. 本実施形態に係る直接操作領域に直接操作モードが設定されている場合の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing when the direct operation mode is set in the direct operation area which concerns on this embodiment. 本実施形態に係る直接操作領域に間接操作モードが設定されている場合の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing when the indirect operation mode is set in the direct operation area which concerns on this embodiment.

以下、図面を参照しながら本開示の実施形態について詳しく説明する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

<1.外部構成>
まず、図1を参照して、本実施形態に係る情報処理装置の外部構成について説明する。図1は、本実施形態に係る情報処理装置の外部構成の一例を示す図である。図1には、情報処理装置の一例として、デュアルディスプレイデバイス1が示されている。本実施形態に係るデュアルディスプレイデバイス1は、2つのディスプレイ(Dual Display)を有し、2つのディスプレイの一方が少なくともタッチスクリーンであるノートPC(Personal Computer)型の端末である。
<1. External configuration>
First, with reference to FIG. 1, the external configuration of the information processing apparatus according to the present embodiment will be described. FIG. 1 is a diagram showing an example of an external configuration of the information processing apparatus according to the present embodiment. FIG. 1 shows a dual display device 1 as an example of an information processing device. The dual display device 1 according to the present embodiment is a notebook PC (Personal Computer) type terminal having two displays (Dual Display) and one of the two displays is at least a touch screen.

図1に示すように、デュアルディスプレイデバイス1は、筐体2A及び筐体2Bを備える。筐体2A及び筐体2Bの形状は、いずれも略直方体である。筐体2A及び筐体2Bは、それぞれの端部で連結部3によって連結されている。連結部3は、例えば、ヒンジであり、筐体2A及び筐体2Bを開閉自在に支持している。 As shown in FIG. 1, the dual display device 1 includes a housing 2A and a housing 2B. The shapes of the housing 2A and the housing 2B are both substantially rectangular parallelepipeds. The housing 2A and the housing 2B are connected by a connecting portion 3 at their respective ends. The connecting portion 3 is, for example, a hinge and supports the housing 2A and the housing 2B so as to be openable and closable.

筐体2Aは、タッチスクリーン10Aを備え、筐体2Bはタッチスクリーン10Bを備える。なお、以下の説明において、タッチスクリーン10A、10Bを区別する場合は、符号の末尾にA、Bのいずれかを付し、タッチスクリーン10A、10Bを区別しない場合は、A、Bを省略する。また、以下では、タッチスクリーン10における画面表示は、タッチスクリーン10を構成する2辺の長辺の内、一方を画面表示の上部方向、他方を画面表示の下部方向とする横画面表示である例について説明する。 The housing 2A includes a touch screen 10A, and the housing 2B includes a touch screen 10B. In the following description, when the touch screens 10A and 10B are distinguished, either A or B is added to the end of the reference numeral, and when the touch screens 10A and 10B are not distinguished, A and B are omitted. Further, in the following, the screen display on the touch screen 10 is an example of a horizontal screen display in which one of the two long sides constituting the touch screen 10 is in the upper direction of the screen display and the other is in the lower direction of the screen display. Will be explained.

本実施形態に係るタッチスクリーンとは、各種情報の表示が可能な表示画面と、タッチスクリーンに対する操作(例えばタッチ操作)の検出が可能なタッチパネルとを含む入出力装置のことである。ユーザは、タッチスクリーン10に表示された操作対象を直接タッチすることで操作することができる。例えば、ユーザは、タッチスクリーン10に表示されているアイコンを直接タッチすることで、アプリケーションを起動したり、フォルダやファイルを開いたりすることができる。 The touch screen according to the present embodiment is an input / output device including a display screen capable of displaying various information and a touch panel capable of detecting an operation (for example, a touch operation) on the touch screen. The user can operate the operation target by directly touching the operation target displayed on the touch screen 10. For example, the user can directly touch the icon displayed on the touch screen 10 to start an application or open a folder or file.

また、タッチスクリーン10では、ジェスチャー操作による入力も可能である。例えば、タッチスクリーン10の表面に2本の指を接触させ、2本の指を表面に対して平行な方向へスライドさせるジェスチャーを行った場合、画面がスクロールされる。また、タッチスクリーン10の表面に3本の指を接触させ、3本の指を左右にスワイプさせるジェスチャーを行った場合、ウィンドウの表示やアプリケーションの表示が切替えられる。また、タッチスクリーン10の表面に2本の指を接触させ、2本の指を離すジェスチャー(ピンチアウト)を行うと表示が拡大され、2本の指を近づけるジェスチャー(ピンチイン)を行うと表示が縮小される。なお、ジェスチャー操作において、タッチスクリーンに接触させる指の本数、及びジェスチャーの種類は、かかる例に限定されない。また、指の本数と、ジェスチャーの種類と、ジェスチャー操作による動作内容との組み合わせ(以下、「ジェスチャー定義」とも称される)は、かかる例に限定されない。ジェスチャー定義は、OS(オペレーティングシステム:Operating System)やアプリケーションの種類、後述する動作モードに応じて設定されてもよい。 Further, on the touch screen 10, input by gesture operation is also possible. For example, when two fingers are brought into contact with the surface of the touch screen 10 and a gesture of sliding the two fingers in a direction parallel to the surface is performed, the screen is scrolled. Further, when the surface of the touch screen 10 is brought into contact with three fingers and a gesture of swiping the three fingers to the left or right is performed, the display of the window or the display of the application is switched. Further, when two fingers are brought into contact with the surface of the touch screen 10 and a gesture of releasing the two fingers (pinch out) is performed, the display is enlarged, and when a gesture of bringing the two fingers closer (pinch in) is performed, the display is displayed. It will be reduced. In the gesture operation, the number of fingers in contact with the touch screen and the type of gesture are not limited to these examples. Further, the combination of the number of fingers, the type of gesture, and the action content by the gesture operation (hereinafter, also referred to as “gesture definition”) is not limited to such an example. The gesture definition may be set according to the OS (operating system: Operating System), the type of application, and the operation mode described later.

本実施形態に係るデュアルディスプレイデバイス1では、タッチスクリーン10の所定の領域における動作を制御する動作モードが設定される。所定の領域は、例えば、タッチスクリーン10においてユーザによる操作が入力される領域かつ操作対象を表示可能な領域(第1の領域)である。第1の領域に表示されている操作対象は、ユーザによって第1の領域に入力される操作に応じて操作される。即ち、第1の領域に表示されている操作対象は、直接的に操作される。以下、第1の領域は、「直接操作領域」とも称される。本実施形態では、ユーザは、筐体2Aのタッチスクリーン10Aを操作入力用のデバイスとして扱うものとする。そのため、本実施形態では、タッチスクリーン10Aの領域R1が、直接操作領域であるとする。以下、領域R1は、直接操作領域R1とも称される。
動作モードには、例えば、直接操作モード(第1のモード)と間接操作モード(第2のモード)が含まれる。
In the dual display device 1 according to the present embodiment, an operation mode for controlling the operation in a predetermined area of the touch screen 10 is set. The predetermined area is, for example, an area on the touch screen 10 where an operation by the user is input and an area where the operation target can be displayed (first area). The operation target displayed in the first area is operated according to the operation input to the first area by the user. That is, the operation target displayed in the first area is directly operated. Hereinafter, the first area is also referred to as a “direct operation area”. In the present embodiment, the user treats the touch screen 10A of the housing 2A as a device for operation input. Therefore, in the present embodiment, the area R1 of the touch screen 10A is assumed to be a direct operation area. Hereinafter, the area R1 is also referred to as a direct operation area R1.
The operation mode includes, for example, a direct operation mode (first mode) and an indirect operation mode (second mode).

直接操作モードは、タッチスクリーン10のタッチパネルが形成されるタッチパネル領域における直接操作領域をタッチスクリーンとして機能させるモードである。これにより、直接操作モードは、直接操作領域に表示されている操作対象を直接的に操作可能とする。タッチスクリーンとして機能する直接操作領域は、例えば、タッチパネル領域の全領域である。 The direct operation mode is a mode in which the direct operation area in the touch panel area where the touch panel of the touch screen 10 is formed functions as a touch screen. As a result, the direct operation mode makes it possible to directly operate the operation target displayed in the direct operation area. The direct operation area that functions as a touch screen is, for example, the entire area of the touch panel area.

タッチスクリーン10Aの動作モードとして直接操作モードが設定されている場合、直接操作領域R1はタッチスクリーンとして機能する。本実施形態の直接操作モードでは、直接操作領域R1に対する操作により、直接操作領域R1に表示されている操作対象の操作を可能とする。そのため、ユーザは、直接操作モードが設定されたタッチスクリーン10Aの直接操作領域R1に対して操作を行うことで、直接操作領域R1に表示されている操作対象を直接的に操作することができる。 When the direct operation mode is set as the operation mode of the touch screen 10A, the direct operation area R1 functions as the touch screen. In the direct operation mode of the present embodiment, it is possible to operate the operation target displayed in the direct operation area R1 by operating the direct operation area R1. Therefore, the user can directly operate the operation target displayed in the direct operation area R1 by performing the operation on the direct operation area R1 of the touch screen 10A in which the direct operation mode is set.

間接操作モードは、タッチスクリーン10のタッチパネルが形成されるタッチパネル領域における直接操作領域を仮想的に通常のタッチパッド、または高精度タッチパッド(PTP: Precision Touch Pad)として機能させるモードである。以下、仮想的な通常のタッチパッド及び仮想的な高精度タッチパッドの総称として、「仮想タッチパッド(VTP:Virtual Touch Pad」を用いる。本実施形態では、VTPが仮想的な高精度タッチパッドである例について説明する。間接操作モードは、直接操作領域がVTPとして機能することにより、直接操作領域とは異なる領域に表示されている操作対象を間接的に操作可能とする。VTPとして機能する直接操作領域は、例えば、タッチパネル領域の全領域である。 The indirect operation mode is a mode in which the direct operation area in the touch panel area where the touch panel of the touch screen 10 is formed virtually functions as a normal touch pad or a high-precision touch pad (PTP: Precision Touch Pad). Hereinafter, "Virtual Touch Pad (VTP)" is used as a general term for a virtual normal touch pad and a virtual high-precision touch pad. In the present embodiment, VTP is a virtual high-precision touch pad. An example will be described. The indirect operation mode enables the operation target displayed in an area different from the direct operation area to be indirectly operated by the direct operation area functioning as a VTP. The direct operation area functions as a VTP. The operation area is, for example, the entire area of the touch pad area.

タッチスクリーン10Aの動作モードとして間接操作モードが設定されている場合、直接操作領域R1はVTPとして機能する。本実施形態の間接操作モードでは、直接操作領域R1に対する操作により、直接操作領域R1とは異なる領域に表示されている操作対象の操作を可能とする。 When the indirect operation mode is set as the operation mode of the touch screen 10A, the direct operation area R1 functions as VTP. In the indirect operation mode of the present embodiment, the operation of the operation target displayed in the area different from the direct operation area R1 is enabled by the operation on the direct operation area R1.

ここで、直接操作領域R1とは異なる領域は、例えば、操作対象を表示可能な領域であってタッチスクリーン10又はタッチスクリーン10とは異なる表示装置における少なくとも1つの領域(第2の領域)である。第2の領域に表示されている操作対象は、ユーザによって直接操作領域に入力される操作に応じて操作される。即ち、第2の領域に表示されている操作対象は、間接的に操作される。以下、第2の領域は、「間接操作領域」とも称される。本実施形態では、ユーザは、筐体2Bのタッチスクリーン10Bを間接的に操作される操作対象が表示されるデバイスとして扱うものとする。そのため、本実施形態では、タッチスクリーン10Bの領域R2が、間接操作領域であるとする。以下、領域R2は、間接操作領域R2とも称される。 Here, the region different from the direct operation region R1 is, for example, at least one region (second region) in the touch screen 10 or a display device different from the touch screen 10 which is a region in which the operation target can be displayed. .. The operation target displayed in the second area is operated according to the operation directly input to the operation area by the user. That is, the operation target displayed in the second area is indirectly operated. Hereinafter, the second area is also referred to as an “indirect operation area”. In the present embodiment, the user treats the touch screen 10B of the housing 2B as a device on which an operation target to be indirectly operated is displayed. Therefore, in the present embodiment, the area R2 of the touch screen 10B is assumed to be an indirect operation area. Hereinafter, the area R2 is also referred to as an indirect operation area R2.

本実施形態に係るVTPとは、ジェスチャー操作が可能なタッチパッドのことである。VTPでは、マウスカーソルの操作以外に、タッチスクリーンと同様のジェスチャー操作も可能である。なお、間接操作モードでは、タッチスクリーン10を単なるタッチパッドとして機能させてもよい。 The VTP according to the present embodiment is a touch pad capable of performing gesture operations. In VTP, in addition to operating the mouse cursor, gesture operations similar to those on the touch screen are also possible. In the indirect operation mode, the touch screen 10 may function as a mere touch pad.

動作モードの切替えは、例えば、タッチスクリーン10の制御プログラム(ファームウェア)によって制御される。当該制御プログラムは、後述されるEC(組込みコントローラ:Embedded Controller)により実行されるファームウェアであり、以下では、「ECファームウェア」とも称される。各モードにおけるユーザによるジェスチャー操作は、OSによって認識される。例えば、OSは、設定されている動作モードに応じてECファームウェアから送信される信号に基づき、ジェスチャー操作を認識する。 The switching of the operation mode is controlled by, for example, the control program (firmware) of the touch screen 10. The control program is firmware executed by an EC (embedded controller) described later, and is also referred to as "EC firmware" below. The gesture operation by the user in each mode is recognized by the OS. For example, the OS recognizes the gesture operation based on the signal transmitted from the EC firmware according to the set operation mode.

タッチスクリーン10に対するタッチの検出時、ECファームウェアは、タッチが検出されたタッチスクリーン10に設定されている動作モードに応じた信号を生成してOSへ出力する。この時、ECファームウェアは、タッチスクリーン10の動作モードに応じた定義情報を含む信号を生成し、OSへ出力する。 When the touch to the touch screen 10 is detected, the EC firmware generates a signal corresponding to the operation mode set in the touch screen 10 in which the touch is detected and outputs the signal to the OS. At this time, the EC firmware generates a signal including definition information according to the operation mode of the touch screen 10 and outputs the signal to the OS.

ここで、定義情報とは、ハードウェアに関する情報(以下、「ハードウェア情報」とも称される)を含む情報のことである。定義情報には、多様なハードウェア情報が含まれてよく、例えば、タッチスクリーンのハードウェア情報とPTPのハードウェア情報が含まれる。ハードウェア情報には、例えば、ハードウェアの種類、サイズ等の情報が含まれる。なお、定義情報に含まれる情報は、かかる例に限定されない。例えば、ハードウェア情報には、仮想表示サイズを示すサイズ情報、仮想表示位置を示す位置情報、他の表示対象を含むレイアウトを示す表示レイアウト情報等の仮想表示に関する情報が含まれてもよい。仮想表示に関する情報に基づき、ECから指示を受けたOS上の常駐プログラムにより、タッチスクリーン10に仮想ハードウェアを表示させることができる。なお、本実施形態では、タッチスクリーン10に仮想ハードウェアを表示させない例について説明する。 Here, the definition information is information including information about hardware (hereinafter, also referred to as "hardware information"). The definition information may include various hardware information, for example, touch screen hardware information and PTP hardware information. The hardware information includes, for example, information such as the type and size of the hardware. The information included in the definition information is not limited to this example. For example, the hardware information may include information related to virtual display such as size information indicating a virtual display size, position information indicating a virtual display position, and display layout information indicating a layout including other display targets. Based on the information related to the virtual display, the virtual hardware can be displayed on the touch screen 10 by the resident program on the OS instructed by the EC. In this embodiment, an example in which the virtual hardware is not displayed on the touch screen 10 will be described.

直接操作モードが設定されたタッチスクリーン10にてタッチが検出された場合、ECファームウェアは、当該タッチスクリーン10がタッチスクリーンとしてタッチされたことを示すタッチスクリーン信号(第1の信号)を生成してOSへ出力する。タッチスクリーン信号には、例えば、タッチスクリーンの定義情報とタッチ位置を示す座標情報が含まれる。
間接操作モードが設定されたタッチスクリーン10にてタッチが検出された場合、ECファームウェアは、タッチスクリーン10がVTPとしてタッチされたことを示すVTP信号(第2の信号)を生成してOSへ出力する。VTP信号には、例えば、PTPの定義情報とタッチ位置を示す座標情報が含まれる。
When a touch is detected on the touch screen 10 in which the direct operation mode is set, the EC firmware generates a touch screen signal (first signal) indicating that the touch screen 10 has been touched as a touch screen. Output to the OS. The touch screen signal includes, for example, touch screen definition information and coordinate information indicating a touch position.
When a touch is detected on the touch screen 10 in which the indirect operation mode is set, the EC firmware generates a VTP signal (second signal) indicating that the touch screen 10 is touched as VTP and outputs it to the OS. do. The VTP signal includes, for example, PTP definition information and coordinate information indicating a touch position.

ECファームウェアから信号を受信したOSは、受信した信号に含まれる定義情報が示すハードウェアがタッチされたと認識する。この時、OSは、定義情報が示すハードウェアがデュアルディスプレイデバイス1に接続されていると認識する。例えば、タッチスクリーン信号を受信した場合、OSは、デュアルディスプレイデバイス1にタッチスクリーン10が接続されていると認識する。一方、VTP信号を受信した場合、OSは、デュアルディスプレイデバイス1にVTPが接続されていると認識する。なお、本実施形態において、タッチスクリーン10は、デュアルディスプレイデバイス1と物理的に接続されている。しかしながら、VTPは、デュアルディスプレイデバイス1と物理的には接続されていない。即ち、OSは、デュアルディスプレイデバイス1に物理的に接続されていないハードウェアであっても、定義情報に基づき認識することができる。 The OS that received the signal from the EC firmware recognizes that the hardware indicated by the definition information included in the received signal has been touched. At this time, the OS recognizes that the hardware indicated by the definition information is connected to the dual display device 1. For example, when receiving a touch screen signal, the OS recognizes that the touch screen 10 is connected to the dual display device 1. On the other hand, when the VTP signal is received, the OS recognizes that the VTP is connected to the dual display device 1. In this embodiment, the touch screen 10 is physically connected to the dual display device 1. However, VTP is not physically connected to the dual display device 1. That is, the OS can recognize the hardware that is not physically connected to the dual display device 1 based on the definition information.

そして、OSは、認識したハードウェアにてタッチが検出された座標位置に応じた動作を行う。タッチスクリーン10を認識した場合、OSは、タッチスクリーン10に関する動作を行う。一方、VTPを認識した場合、OSは、VTPに関する動作を行う。このように、ECファームウェアは、タッチが検出されているタッチスクリーン10に設定されている動作モードに応じた信号を生成してOSへ出力することで、OSの動作を制御することができる。 Then, the OS operates according to the coordinate position where the touch is detected by the recognized hardware. When the touch screen 10 is recognized, the OS performs an operation related to the touch screen 10. On the other hand, when VTP is recognized, the OS performs an operation related to VTP. In this way, the EC firmware can control the operation of the OS by generating a signal corresponding to the operation mode set on the touch screen 10 in which the touch is detected and outputting the signal to the OS.

直接操作モードと間接操作モードの切替えは、ユーザの視線に基づき行われる。ユーザの視線は、例えば、筐体2Bに設けられたセンサ装置33によって検出される。デュアルディスプレイデバイス1は、検出されたユーザの視線より、ユーザが見ている対象(例えば直接操作領域R1又は間接操作領域R2)を判定する。そして、デュアルディスプレイデバイス1は、判定結果が示す対象に基づき、動作モードを直接操作モード又は間接操作モードに切替える。 Switching between the direct operation mode and the indirect operation mode is performed based on the user's line of sight. The user's line of sight is detected by, for example, a sensor device 33 provided in the housing 2B. The dual display device 1 determines an object (for example, direct operation area R1 or indirect operation area R2) that the user is looking at from the detected line of sight of the user. Then, the dual display device 1 switches the operation mode to the direct operation mode or the indirect operation mode based on the target indicated by the determination result.

ここで、図2を参照して、直接操作モードにおける動作の一例について説明する。図2は、本実施形態に係る直接操作モードにおける動作の一例を示す図である。図2は、タッチスクリーン10Aの動作モードが直接操作モードであり、かつユーザU1がタッチスクリーン10Aの直接操作領域R1を見ていると判定された際に、ユーザU1が直接操作領域R1に対してピンチアウトの操作を行った場合の動作を示している。図2の左図は、ピンチアウト前の状態を示し、図2の右図はピンチアウト後の状態を示している。
図2の左図に示すように、タッチスクリーン10Aの直接操作領域R1には「Hello」というテキストが表示されている。ユーザU1が、直接操作領域R1における当該テキストの表示位置の近傍でピンチアウトの操作を行ったとする。この場合、図2の右図に示すように、直接操作領域R1に表示されている「Hello」が拡大表示される。
Here, an example of operation in the direct operation mode will be described with reference to FIG. FIG. 2 is a diagram showing an example of operation in the direct operation mode according to the present embodiment. In FIG. 2, when it is determined that the operation mode of the touch screen 10A is the direct operation mode and the user U1 is looking at the direct operation area R1 of the touch screen 10A, the user U1 with respect to the direct operation area R1. The operation when the pinch-out operation is performed is shown. The left figure of FIG. 2 shows the state before the pinch out, and the right figure of FIG. 2 shows the state after the pinch out.
As shown in the left figure of FIG. 2, the text "Hello" is displayed in the direct operation area R1 of the touch screen 10A. It is assumed that the user U1 performs a pinch-out operation in the vicinity of the display position of the text in the direct operation area R1. In this case, as shown in the right figure of FIG. 2, "Hello" directly displayed in the operation area R1 is enlarged and displayed.

また、図3を参照して、間接操作モードにおける動作の一例について説明する。図3は、本実施形態に係る間接操作モードにおける動作の一例を示す図である。図3は、タッチスクリーン10Aの動作モードが間接操作モードであり、かつユーザU1がタッチスクリーン10Bの間接操作領域R2を見ていると判定された際に、ユーザU1が直接操作領域R1に対してピンチインの操作を行った場合の動作を示している。図3の左図は、ピンチイン前の状態を示し、図3の右図はピンチイン後の状態を示している。
図3の左図に示すように、タッチスクリーン10Bの間接操作領域R2には「Hello」というテキストが表示されている。ユーザU1が、直接操作領域R1にてピンチインの操作を行ったとする。ユーザU1が直接操作領域R1にてピンチインの操作を行う位置は、例えば、間接操作領域R2にてテキストが表示されている位置と対応する位置の近傍である。この場合、図3の右図に示すように、間接操作領域R2に表示されている「Hello」が縮小表示される。
Further, an example of the operation in the indirect operation mode will be described with reference to FIG. FIG. 3 is a diagram showing an example of operation in the indirect operation mode according to the present embodiment. In FIG. 3, when it is determined that the operation mode of the touch screen 10A is the indirect operation mode and the user U1 is looking at the indirect operation area R2 of the touch screen 10B, the user U1 with respect to the direct operation area R1. The operation when the pinch-in operation is performed is shown. The left figure of FIG. 3 shows the state before pinch-in, and the right figure of FIG. 3 shows the state after pinch-in.
As shown in the left figure of FIG. 3, the text "Hello" is displayed in the indirect operation area R2 of the touch screen 10B. It is assumed that the user U1 directly performs a pinch-in operation in the operation area R1. The position where the user U1 performs the pinch-in operation in the direct operation area R1 is, for example, near the position corresponding to the position where the text is displayed in the indirect operation area R2. In this case, as shown in the right figure of FIG. 3, "Hello" displayed in the indirect operation area R2 is reduced and displayed.

<2.ハードウェア構成>
以上、本発明の実施形態に係る概要について説明した。続いて、図4を参照して、本実施形態に係るデュアルディスプレイデバイス1のハードウェア構成について説明する。図4は、本実施形態に係るデュアルディスプレイデバイス1のハードウェア構成の一例を示す図である。
<2. Hardware configuration>
The outline of the embodiment of the present invention has been described above. Subsequently, with reference to FIG. 4, the hardware configuration of the dual display device 1 according to the present embodiment will be described. FIG. 4 is a diagram showing an example of the hardware configuration of the dual display device 1 according to the present embodiment.

図4に示すように、デュアルディスプレイデバイス1は、タッチスクリーン10A、タッチスクリーン10B、CPU(Central Processing Unit)15、メインメモリ16、GPU(Graphic Processing Unit)17、及びチップセット21を備える。また、デュアルディスプレイデバイス1は、BIOS(Basic Input Output System)メモリ22、HDD(Hard Disk Drive)23、オーディオシステム24、通信装置25、EC31、入力装置32、センサ装置33、及び電源回路34を備える。 As shown in FIG. 4, the dual display device 1 includes a touch screen 10A, a touch screen 10B, a CPU (Central Processing Unit) 15, a main memory 16, a GPU (Graphic Processing Unit) 17, and a chipset 21. Further, the dual display device 1 includes a BIOS (Basic Input Output System) memory 22, an HDD (Hard Disk Drive) 23, an audio system 24, a communication device 25, an EC31, an input device 32, a sensor device 33, and a power supply circuit 34. ..

タッチスクリーン10は、表示画面11及びタッチパネル12を備える。タッチスクリーン10は、ビデオ信号に変換された表示データに応じた各種情報を表示画面11に表示すると共に、ユーザの指やペン等の操作媒体によるタッチや、操作媒体の近接をタッチパネル12によって検出することで、操作媒体による操作入力を受け付ける。 The touch screen 10 includes a display screen 11 and a touch panel 12. The touch screen 10 displays various information corresponding to the display data converted into video signals on the display screen 11, and also detects touch by an operation medium such as a user's finger or a pen and the proximity of the operation medium by the touch panel 12. By doing so, the operation input by the operation medium is accepted.

表示画面11は、例えば、OLEDディスプレイ(有機ELディスプレイ)等の表示装置である。なお、表示画面11は、折り曲げ可能(折り畳み可能)に構成されてもよい。 The display screen 11 is, for example, a display device such as an OLED display (organic EL display). The display screen 11 may be configured to be foldable (foldable).

タッチパネル12は、表示画面11の表示面に重ねて配置されている。タッチパネル12は、操作位置(具体的にはタッチ位置)を検知する。なお、タッチパネル12は、表示画面11と一体に構成され、表示画面11と同様に、折り曲げ可能(折り畳み可能)に構成されてもよい。 The touch panel 12 is arranged so as to overlap the display surface of the display screen 11. The touch panel 12 detects an operation position (specifically, a touch position). The touch panel 12 may be integrally configured with the display screen 11 and may be foldable (foldable) in the same manner as the display screen 11.

CPU15は、プログラム制御により種々の演算処理を実行し、デュアルディスプレイデバイス1全体を制御している。 The CPU 15 executes various arithmetic processes by program control and controls the entire dual display device 1.

メインメモリ16は、CPU15の実行プログラムの読み込み領域として、又は、実行プログラムの処理データを書き込む作業領域として利用される書き込み可能メモリである。メインメモリ16は、例えば、複数個のDRAM(Dynamic Random Access Memory)チップで構成される。この実行プログラムには、OS、周辺機器類をハードウェア操作するための各種ドライバ、各種サービス/ユーティリティ、アプリケーションプログラム等が含まれる。 The main memory 16 is a writable memory used as a read area for the execution program of the CPU 15 or as a work area for writing the processing data of the execution program. The main memory 16 is composed of, for example, a plurality of DRAM (Dynamic Random Access Memory) chips. This execution program includes an OS, various drivers for operating peripheral devices by hardware, various services / utilities, application programs, and the like.

GPU17は、CPU15の制御に基づいて画像処理を実行して表示データを生成する。GPU17は、表示画面11に接続されており、生成した表示データを表示画面11に出力する。 The GPU 17 executes image processing based on the control of the CPU 15 to generate display data. The GPU 17 is connected to the display screen 11 and outputs the generated display data to the display screen 11.

チップセット21は、USB(Universal Serial Bus)、シリアルATA(AT Attachment)、SPI(Serial Peripheral Interface)バス、PCI(Peripheral Component Interconnect)バス、PCI-Expressバス、及びLPC(Low Pin Count)バス等のコントローラを備えており複数のデバイスが接続される。図4では、デバイスの一例として、BIOSメモリ22と、HDD23と、オーディオシステム24と、通信装置25と、EC31とが、チップセット21に接続されている。 The chip set 21 includes USB (Universal Serial Bus), serial ATA (AT Attachment), SPI (Serial Peripheral Interface) bus, PCI (Peripheral Component Interconnect) bus, PCI-Express bus, LPC (Low Pin Count) bus, and the like. It has a controller and multiple devices are connected. In FIG. 4, as an example of the device, the BIOS memory 22, the HDD 23, the audio system 24, the communication device 25, and the EC 31 are connected to the chipset 21.

BIOSメモリ22は、例えば、EEPROM(Electrically Erasable Programmable Read Only Memory)やフラッシュROM(Read Only Memory)等の電気的に書き換え可能な不揮発性メモリで構成される。BIOSメモリ22は、BIOS、及びEC31等を制御するためのシステムファームウェア等を記憶する。システムファームウェアは、CPU15により実行されるファームウェアであり、EC31により実行されるECファームウェアとは異なる。 The BIOS memory 22 is composed of, for example, an electrically rewritable non-volatile memory such as an EEPROM (Electrically Erasable Programmable Read Only Memory) or a flash ROM (Read Only Memory). The BIOS memory 22 stores the BIOS, the system firmware for controlling the EC31 and the like, and the like. The system firmware is the firmware executed by the CPU 15, and is different from the EC firmware executed by the EC 31.

HDD(Hard Disk Drive)23(不揮発性記憶装置の一例)は、OS、各種ドライバ、各種サービス/ユーティリティ、アプリケーションプログラム、及び各種データを記憶する。 The HDD (Hard Disk Drive) 23 (an example of a non-volatile storage device) stores an OS, various drivers, various services / utilities, application programs, and various data.

オーディオシステム24は、音データの記録、再生、出力を行う。オーディオシステム24には、例えば、マイクやスピーカが接続される。 The audio system 24 records, reproduces, and outputs sound data. For example, a microphone or a speaker is connected to the audio system 24.

通信装置25は、無線または有線による通信ネットワークを介して他の機器と通信可能に接続し、各種のデータの送信および受信を行う。例えば、通信装置25は、イーサネット(登録商標)等の有線LANインターフェースやWi-Fi(登録商標)等の無線LANインターフェース等を含んで構成されている。なお、通信装置25は、USBインターフェースやBluetooth(登録商標)インターフェースを含んで構成されてもよい。 The communication device 25 is communicably connected to another device via a wireless or wired communication network, and transmits and receives various data. For example, the communication device 25 includes a wired LAN interface such as Ethernet (registered trademark) and a wireless LAN interface such as Wi-Fi (registered trademark). The communication device 25 may be configured to include a USB interface and a Bluetooth (registered trademark) interface.

EC31は、デュアルディスプレイデバイス1のシステム状態に関わらず、各種デバイス(周辺装置やセンサ等)を監視し制御するワンチップマイクロコンピュータ(One-Chip Microcomputer)である。EC31は、不図示のCPU、ROM(Read only Memory)、RAM(Random Access memory)を備えている。EC31は、CPU15とは独立して動作して主としてデュアルディスプレイデバイス1の内部の動作環境を管理する制御部として機能する。EC31は、予めROMに記憶された制御プログラム(ECファームウェア)を読み出し、読み出した制御プログラムに記述された各種の命令で指示される処理を実行して各種の機能を実現する。また、EC31は、複数チャネルのA/D入力端子、D/A出力端子、タイマ、及びデジタル入出力端子等を備えている。EC31には、それらの入出力端子を介して、例えば、入力装置32、センサ装置33、及び電源回路34等が接続されており、EC31は、これらの動作を制御する。 The EC31 is a one-chip microcomputer that monitors and controls various devices (peripheral devices, sensors, etc.) regardless of the system state of the dual display device 1. The EC 31 includes a CPU (Read only Memory) and a RAM (Random Access memory) (not shown). The EC 31 operates independently of the CPU 15 and mainly functions as a control unit that manages the internal operating environment of the dual display device 1. The EC 31 reads a control program (EC firmware) stored in ROM in advance, executes a process instructed by various instructions described in the read control program, and realizes various functions. Further, the EC 31 includes a plurality of channels of A / D input terminals, D / A output terminals, timers, digital input / output terminals, and the like. For example, an input device 32, a sensor device 33, a power supply circuit 34, and the like are connected to the EC 31 via their input / output terminals, and the EC 31 controls these operations.

入力装置32は、例えば、電源スイッチやファンクションスイッチ等の入力を行う入力デバイスである。 The input device 32 is, for example, an input device that inputs an input such as a power switch or a function switch.

センサ装置33は、例えば、ユーザの視線及び視点位置を検出可能なセンサ装置を備える。当該センサ装置には、例えば、カメラ等の撮像装置と、近赤外線を出力可能な赤外線LED(light emitting diode)光源と、視線及び視点位置検出のためのアルゴリズムを含むプログラムが搭載されている。当該アルゴリズムは、撮像装置によって撮像されたユーザの眼の画像に基づき、ユーザの視線を検出する。ユーザの眼の画像には、赤外線LED光源によって出力される光がユーザの眼にて反射した際の反射パターンが含まれる。さらに、当該アルゴリズムは、検出した視線に基づき、タッチスクリーン10上におけるユーザの視点位置を検出する。 The sensor device 33 includes, for example, a sensor device capable of detecting a user's line of sight and a viewpoint position. The sensor device is equipped with, for example, an image pickup device such as a camera, an infrared LED (light emitting diode) light source capable of outputting near infrared rays, and a program including an algorithm for detecting the line of sight and the viewpoint position. The algorithm detects the user's line of sight based on the image of the user's eye captured by the image pickup device. The image of the user's eye includes a reflection pattern when the light output by the infrared LED light source is reflected by the user's eye. Further, the algorithm detects the user's viewpoint position on the touch screen 10 based on the detected line of sight.

電源回路34は、例えば、DC/DCコンバータ、充放電ユニット、電池ユニット、AC/DCアダプタ等を含んでおり、AC/DCアダプタ、又は電池ユニットから供給される直流電圧を、デュアルディスプレイデバイス1を動作させるために必要な複数の電圧に変換する。また、電源回路34は、EC31からの制御に基づいて、デュアルディスプレイデバイス1の各部に電力を供給する。 The power supply circuit 34 includes, for example, a DC / DC converter, a charge / discharge unit, a battery unit, an AC / DC adapter, and the DC voltage supplied from the AC / DC adapter or the battery unit is used for the dual display device 1. Convert to multiple voltages required for operation. Further, the power supply circuit 34 supplies electric power to each part of the dual display device 1 based on the control from the EC 31.

<3.機能構成>
以上、本実施形態に係るデュアルディスプレイデバイス1のハードウェア構成の一例について説明した。続いて、図5を参照して、本実施形態に係るデュアルディスプレイデバイス1の機能構成の一例について説明する。図5は、本実施形態に係るデュアルディスプレイデバイス1の機能構成の一例を示すブロック図である。
<3. Function configuration>
The example of the hardware configuration of the dual display device 1 according to this embodiment has been described above. Subsequently, an example of the functional configuration of the dual display device 1 according to the present embodiment will be described with reference to FIG. FIG. 5 is a block diagram showing an example of the functional configuration of the dual display device 1 according to the present embodiment.

図5に示すように、デュアルディスプレイデバイス1は、通信部110、入力部120、制御部130、記憶部140、及び表示部150を備える。 As shown in FIG. 5, the dual display device 1 includes a communication unit 110, an input unit 120, a control unit 130, a storage unit 140, and a display unit 150.

(1)通信部110
通信部110は、各種情報の送受信を行う機能を有する。当該機能は、例えば、図4を参照して説明した通信装置25により実現される。
(1) Communication unit 110
The communication unit 110 has a function of transmitting and receiving various information. The function is realized by, for example, the communication device 25 described with reference to FIG.

(2)入力部120
入力部120は、各種情報の入力を受け付ける機能を有する。当該機能は、例えば、図4を参照して説明した、タッチスクリーン10、入力装置32、及びセンサ装置33等により実現される。入力部120は、例えば、ユーザがタッチスクリーン10に対して入力する情報の入力を受け付ける。また、入力部120は、ユーザがタッチスクリーン10(具体的には直接操作領域R1)に対して操作を行った位置(操作位置)を示す操作位置情報の入力を受け付ける。また、入力部120は、ユーザが入力装置32を操作して入力する情報の入力を受け付ける。また、入力部120は、センサ装置33によって検出されるユーザの視線と視点位置を示す情報(以下、「視線情報」とも称される)の入力を受け付ける。入力部120は、入力を受け付けた情報を制御部130へ出力する。
(2) Input unit 120
The input unit 120 has a function of accepting input of various information. The function is realized by, for example, the touch screen 10, the input device 32, the sensor device 33, and the like described with reference to FIG. The input unit 120 receives, for example, input of information input by the user to the touch screen 10. Further, the input unit 120 receives input of operation position information indicating a position (operation position) in which the user has operated on the touch screen 10 (specifically, the direct operation area R1). Further, the input unit 120 accepts input of information to be input by the user by operating the input device 32. Further, the input unit 120 receives input of information indicating the user's line of sight and viewpoint position detected by the sensor device 33 (hereinafter, also referred to as "line of sight information"). The input unit 120 outputs the information that has received the input to the control unit 130.

(3)制御部130
制御部130は、デュアルディスプレイデバイス1の動作全般を制御する機能を有する。当該機能は、例えば、図4を参照して説明した、CPU15及びチップセット21等により実現される。図5に示すように、制御部130は、視線情報取得部131、操作位置情報取得部132、判定部133、モード切替部134、信号処理部135、及び表示処理部136を備える。
(3) Control unit 130
The control unit 130 has a function of controlling the overall operation of the dual display device 1. The function is realized by, for example, the CPU 15 and the chipset 21 described with reference to FIG. As shown in FIG. 5, the control unit 130 includes a line-of-sight information acquisition unit 131, an operation position information acquisition unit 132, a determination unit 133, a mode switching unit 134, a signal processing unit 135, and a display processing unit 136.

(3-1)視線情報取得部131
視線情報取得部131は、視線情報を取得する機能を有する。例えば、視線情報取得部131は、入力部120が入力を受け付けた視線情報を取得する。視線情報取得部131は、取得した視線情報を判定部133へ出力する。
(3-1) Line-of-sight information acquisition unit 131
The line-of-sight information acquisition unit 131 has a function of acquiring line-of-sight information. For example, the line-of-sight information acquisition unit 131 acquires the line-of-sight information received by the input unit 120. The line-of-sight information acquisition unit 131 outputs the acquired line-of-sight information to the determination unit 133.

(3-2)操作位置情報取得部132
操作位置情報取得部132は、操作位置情報を取得する機能を有する。例えば、操作位置情報取得部132は、入力部120が入力を受け付けた操作位置情報を取得する。操作位置情報取得部132は、取得した操作位置情報を判定部133へ出力する。
(3-2) Operation position information acquisition unit 132
The operation position information acquisition unit 132 has a function of acquiring operation position information. For example, the operation position information acquisition unit 132 acquires the operation position information for which the input unit 120 has received the input. The operation position information acquisition unit 132 outputs the acquired operation position information to the determination unit 133.

(3-3)判定部133
判定部133は、視線情報に基づき、ユーザが見ている対象を判定する機能を有する。判定部133は、判定結果をモード切替部134へ出力する。
例えば、判定部133は、視線情報取得部131から入力される視線情報の内、ユーザの視線を示す情報に基づき、ユーザが直接操作領域R1と間接操作領域R2のどちらの領域内を見ているかを判定する。例えば、判定部133は、視線の角度や方向に基づき、ユーザが見ている領域を判定する。また、判定部133は、視線情報取得部131から入力される視線情報の内、視線に基づき取得される視点位置を示す情報に基づき、ユーザが直接操作領域R1と間接操作領域R2のどちらの領域内を見ているかを判定してもよい。具体的に、判定部133は、視点位置が直接操作領域R1上にある場合にはユーザが直接操作領域R1の領域内を見ていると判定し、視点位置が間接操作領域R2上にある場合にはユーザが間接操作領域R2の領域内を見ていると判定する。
(3-3) Judgment unit 133
The determination unit 133 has a function of determining an object that the user is looking at based on the line-of-sight information. The determination unit 133 outputs the determination result to the mode switching unit 134.
For example, the determination unit 133 determines whether the user is looking in the direct operation area R1 or the indirect operation area R2 based on the information indicating the user's line of sight among the line-of-sight information input from the line-of-sight information acquisition unit 131. Is determined. For example, the determination unit 133 determines the area the user is looking at based on the angle and direction of the line of sight. Further, the determination unit 133 is based on the information indicating the viewpoint position acquired based on the line of sight among the line-of-sight information input from the line-of-sight information acquisition unit 131, and the user can use either the direct operation area R1 or the indirect operation area R2. You may determine if you are looking inside. Specifically, when the viewpoint position is on the direct operation area R1, the determination unit 133 determines that the user is looking inside the area of the direct operation area R1, and when the viewpoint position is on the indirect operation area R2. It is determined that the user is looking inside the indirect operation area R2.

前回判定時と今回判定時の領域が異なる場合、判定部133は、今回判定時の領域にてユーザの視線が所定の時間(例えば100msec)以上検出されたか否かを判定する。これにより、判定部133は、ユーザが前回判定時の領域から今回判定時の領域へ視線を意図的に移動したか否かを判定することができる。ここで、ユーザが意図しない視線の移動は、例えば、無意識に眼球が動くことによって視線がぶれることで生じ得る。
例えば、今回判定時の領域にてユーザの視線が所定の時間以上検出された場合、判定部133は、ユーザが前回判定時の領域から今回判定時の領域へ視線を意図的に移動したと判定する。一方、今回判定時の領域にてユーザの視線が所定の時間以上検出されなかった場合、前回判定時の領域から今回判定時の領域へのユーザの視線の移動が意図的ではなかったと判定する。
When the area at the time of the previous determination and the area at the time of the current determination are different, the determination unit 133 determines whether or not the line of sight of the user is detected in the area at the time of the current determination for a predetermined time (for example, 100 msec) or more. As a result, the determination unit 133 can determine whether or not the user has intentionally moved his / her line of sight from the area at the time of the previous determination to the area at the time of the current determination. Here, the movement of the line of sight unintentional by the user may occur, for example, when the line of sight is blurred due to the unconscious movement of the eyeball.
For example, when the user's line of sight is detected in the area at the time of this determination for a predetermined time or longer, the determination unit 133 determines that the user has intentionally moved the line of sight from the area at the time of the previous determination to the area at the time of this determination. do. On the other hand, if the user's line of sight is not detected in the area at the time of this determination for a predetermined time or longer, it is determined that the movement of the user's line of sight from the area at the time of the previous determination to the area at the time of this determination was not intentional.

後述するモード切替部134は、当該判定結果に基づき、動作モードの切替えを行う。例えば、ユーザが視線を意図的に移動したことを判定結果が示す場合、モード切替部134は、動作モードの切替えを実行する。一方、ユーザが視線を意図的に移動していないことを判定結果が示す場合、モード切替部134は、動作モードの切替えを実行しない。
これにより、ユーザによって意図的ではない視線の移動が行われた際に、ユーザが意図せずに動作モードが切替えられることを防止することができる。
The mode switching unit 134, which will be described later, switches the operation mode based on the determination result. For example, when the determination result indicates that the user has intentionally moved the line of sight, the mode switching unit 134 executes switching of the operation mode. On the other hand, when the determination result indicates that the user has not intentionally moved the line of sight, the mode switching unit 134 does not execute the operation mode switching.
This makes it possible to prevent the user from unintentionally switching the operation mode when the user unintentionally moves the line of sight.

判定部133は、ユーザが見ている領域を判定する際に、直接操作領域R1又は間接操作領域R2のどちらの領域内を見ているかが明確であるか否かを判定する。ユーザの視線の先の位置は、必ずしも点で検出されず所定の領域で検出され得る。当該所定の領域の全体が直接操作領域R1又は間接操作領域R2のいずれかの領域内に入っている場合、判定部133は、ユーザが直接操作領域R1又は間接操作領域R2のどちらの領域内を見ているか明確に判定することができる。しかしながら、ユーザの視線が直接操作領域R1と間接操作領域R2の境界付近にある場合、ユーザの視線の先の位置を示す領域が、部分的に直接操作領域R1と間接操作領域R2の両方の領域内に含まれる場合がある。この場合、判定部133は、ユーザが直接操作領域R1又は間接操作領域R2のどちらの領域内を見ているか明確に判定することが困難である。 When determining the area that the user is looking at, the determination unit 133 determines whether or not it is clear whether the user is looking in the direct operation area R1 or the indirect operation area R2. The position ahead of the user's line of sight is not necessarily detected at a point and can be detected in a predetermined area. When the entire predetermined area is contained in either the direct operation area R1 or the indirect operation area R2, the determination unit 133 allows the user to enter either the direct operation area R1 or the indirect operation area R2. You can clearly judge whether you are watching. However, when the user's line of sight is near the boundary between the direct operation area R1 and the indirect operation area R2, the area indicating the position ahead of the user's line of sight is partially a region of both the direct operation area R1 and the indirect operation area R2. May be included in. In this case, it is difficult for the determination unit 133 to clearly determine whether the user is looking in the direct operation area R1 or the indirect operation area R2.

ユーザが直接操作領域R1又は間接操作領域R2のどちらの領域内を見ているか明確に判定することが困難である場合、判定部133は、例えば、ユーザの視点位置と操作位置とに基づき、ユーザが直接操作領域R1又は間接操作領域R2のどちらの領域内を見ているかを判定する。ここで、操作位置は、操作位置情報取得部132から入力される操作位置情報に含まれる情報である。具体的に、判定部133は、視点位置と操作位置とが略一致するか否かに基づき、ユーザが直接操作領域R1又は間接操作領域R2のどちらの領域内を見ているかを判定する。ここで、略一致とは、例えば、ユーザの視線の先の位置が所定の領域で示される場合、当該所定の領域内に操作位置の少なくとも一部が含まれている状態を指す。また、略一致とは、ユーザの視線の先の位置が点で示される場合、当該点の位置と操作位置とが一致する状態であってもよい。 When it is difficult to clearly determine whether the user is looking in the direct operation area R1 or the indirect operation area R2, the determination unit 133 may use the determination unit 133, for example, based on the user's viewpoint position and operation position. Determines whether is looking in the direct operation area R1 or the indirect operation area R2. Here, the operation position is information included in the operation position information input from the operation position information acquisition unit 132. Specifically, the determination unit 133 determines whether the user is looking in the direct operation area R1 or the indirect operation area R2 based on whether or not the viewpoint position and the operation position substantially match. Here, the substantially match refers to a state in which at least a part of the operation position is included in the predetermined area, for example, when the position ahead of the user's line of sight is indicated in the predetermined area. Further, substantially the same means that when the position ahead of the user's line of sight is indicated by a point, the position of the point and the operation position may be in agreement.

視点位置と操作位置とが略一致する場合、判定部133は、ユーザが直接操作領域R1の領域内を見ていると判定する。視点位置が操作位置と略一致するということは、即ち、ユーザが操作を入力している領域を見ていることを示す。本実施形態において、ユーザが操作を入力する領域は直接操作領域R1である。よって、判定部133は、視点位置と操作位置とが略一致する場合にユーザが直接操作領域R1の領域内を見ていると判定することができる。一方、視点位置と操作位置とが略一致しない場合、判定部133は、ユーザが間接操作領域R2の領域内を見ていると判定する。視点位置と操作位置とが略一致しないということは、即ち、ユーザが操作を入力している直接操作領域R1の領域内を見ていないことを示す。よって、判定部133は、視点位置と操作位置とが略一致しない場合にユーザが間接操作領域R2の領域内を見ていると判定することができる。以上のように、判定部133は、ユーザの視線が直接操作領域R1と間接操作領域R2の境界付近にある場合であっても、視点位置と操作位置とに基づき、ユーザがどちらの領域を見ているかを明確に判定することができる。 When the viewpoint position and the operation position substantially match, the determination unit 133 determines that the user is directly looking inside the operation area R1. The fact that the viewpoint position substantially coincides with the operation position means that the user is looking at the area where the operation is input. In the present embodiment, the area where the user inputs an operation is the direct operation area R1. Therefore, the determination unit 133 can determine that the user is directly looking inside the operation area R1 when the viewpoint position and the operation position substantially match. On the other hand, when the viewpoint position and the operation position do not substantially match, the determination unit 133 determines that the user is looking inside the indirect operation area R2. The fact that the viewpoint position and the operation position do not substantially match means that the user is not looking in the area of the direct operation area R1 in which the operation is input. Therefore, the determination unit 133 can determine that the user is looking inside the indirect operation area R2 when the viewpoint position and the operation position do not substantially match. As described above, the determination unit 133 allows the user to see which area based on the viewpoint position and the operation position even when the user's line of sight is near the boundary between the direct operation area R1 and the indirect operation area R2. It can be clearly determined whether or not it is.

ここで、図6及び図7を参照して、ユーザの視点位置と操作位置に基づきユーザが見ている領域の判定の一例について説明する。図6は、本実施形態に係るユーザの視点位置と操作位置に基づきユーザが直接操作領域R1の領域内を見ていると判定される場合の一例を示す図である。図7は、本実施形態に係るユーザの視点位置と操作位置に基づきユーザが間接操作領域R2の領域内を見ていると判定される場合の一例を示す図である。なお、図6及び図7に示す例では、視線位置VPが領域である例が示されている。 Here, with reference to FIGS. 6 and 7, an example of determining the area viewed by the user based on the viewpoint position and the operation position of the user will be described. FIG. 6 is a diagram showing an example of a case where it is determined that the user is directly looking in the area of the operation area R1 based on the viewpoint position and the operation position of the user according to the present embodiment. FIG. 7 is a diagram showing an example of a case where it is determined that the user is looking inside the indirect operation area R2 based on the user's viewpoint position and operation position according to the present embodiment. In the examples shown in FIGS. 6 and 7, an example in which the line-of-sight position VP is a region is shown.

図6に示す例では、視線位置VPは、タッチスクリーン10Aにおける直接操作領域R1とタッチスクリーン10Bにおける間接操作領域R2との境界付近にある。操作位置OPは、視線位置VPの領域内に含まれている。よって、判定部133は、ユーザが直接操作領域R1の領域内を見ていると判定する。
図7に示す例も同様に、視線位置VPは、タッチスクリーン10Aにおける直接操作領域R1とタッチスクリーン10Bにおける間接操作領域R2との境界付近にある。しかしながら、操作位置OPは、視線位置VPの領域外に位置する。よって、判定部133は、ユーザが間接操作領域R2の領域内を見ていると判定する。
In the example shown in FIG. 6, the line-of-sight position VP is near the boundary between the direct operation region R1 on the touch screen 10A and the indirect operation region R2 on the touch screen 10B. The operation position OP is included in the area of the line-of-sight position VP. Therefore, the determination unit 133 determines that the user is directly looking inside the operation area R1.
Similarly, in the example shown in FIG. 7, the line-of-sight position VP is near the boundary between the direct operation region R1 on the touch screen 10A and the indirect operation region R2 on the touch screen 10B. However, the operation position OP is located outside the region of the line-of-sight position VP. Therefore, the determination unit 133 determines that the user is looking inside the indirect operation area R2.

(3-4)モード切替部134
モード切替部134は、動作モードを切替える機能を有する。例えば、モード切替部134は、判定部133による判定の結果に基づき、直接操作領域R1の動作モードを、直接操作モード又は間接操作モードに切替える。
(3-4) Mode switching unit 134
The mode switching unit 134 has a function of switching the operation mode. For example, the mode switching unit 134 switches the operation mode of the direct operation area R1 to the direct operation mode or the indirect operation mode based on the result of the determination by the determination unit 133.

モード切替部134は、動作モードが直接操作モードである際にユーザが間接操作領域R2の領域内を見ていると判定部133によって判定された場合、動作モードを間接操作モードに切替える。また、モード切替部134は、動作モードが間接操作モードである際にユーザが直接操作領域R1の領域内を見ていると判定部133によって判定された場合、動作モードを直接操作モードに切替える。かかる構成により、モード切替部134は、ユーザが見ている領域に応じて、直接操作領域R1の動作モードを直接操作モード又は間接操作モードに切替えることができる。これにより、ユーザは、デュアルディスプレイデバイス1に対して、動作モードを切替えるための操作を入力する必要がなくなる。即ち、デュアルディスプレイデバイス1は、ユーザがVTPを利用する際の操作の手間を軽減することができる。 The mode switching unit 134 switches the operation mode to the indirect operation mode when the determination unit 133 determines that the user is looking inside the indirect operation area R2 when the operation mode is the direct operation mode. Further, the mode switching unit 134 switches the operation mode to the direct operation mode when the determination unit 133 determines that the user is looking in the area of the direct operation area R1 when the operation mode is the indirect operation mode. With such a configuration, the mode switching unit 134 can switch the operation mode of the direct operation area R1 to the direct operation mode or the indirect operation mode according to the area viewed by the user. As a result, the user does not need to input an operation for switching the operation mode to the dual display device 1. That is, the dual display device 1 can reduce the time and effort of the operation when the user uses VTP.

なお、上述したように、モード切替部134は、ユーザが視線を意図的に移動したか否かに基づき、動作モードの切替えを制御してもよい。例えば、モード切替部134は、判定部133によってユーザが意図的に視線を移動したと判定された場合、動作モードの切替えを実行する。一方、判定部133によってユーザが視線を意図的に移動していないと判定された場合、モード切替部134は、動作モードの切替えを実行しない。
これにより、ユーザによって意図的ではない視線の移動が行われた際に、ユーザが意図せずに動作モードが切替えられることを防止することができる。
As described above, the mode switching unit 134 may control the switching of the operation mode based on whether or not the user intentionally moves the line of sight. For example, the mode switching unit 134 executes operation mode switching when it is determined by the determination unit 133 that the user has intentionally moved the line of sight. On the other hand, when the determination unit 133 determines that the user has not intentionally moved the line of sight, the mode switching unit 134 does not execute the operation mode switching.
This makes it possible to prevent the user from unintentionally switching the operation mode when the user unintentionally moves the line of sight.

なお、モード切替部134は、動作モードの切替えを実行しない制御を行ってもよい。例えば、ユーザが直接操作領域R1にて起動されているスクリーンキーボードを用いて間接操作領域R2に対して入力を行う場合、ユーザの視線は直接操作領域R1と間接操作領域R2間を頻繁に移動し得る。この時、例えば、モード切替部134が動作モードを間接操作モードに切替えてしまうと、直接操作領域R1がVTPとして機能する。そのため、ユーザは、スクリーンキーボードでの入力ができなくなってしまう。そこで、モード切替部134は、直接操作領域R1にてスクリーンキーボードが起動されている時には動作モードの切替えを実行しない。これにより、モード切替部134は、動作モードの切替えによってユーザがスクリーンキーボードを使えなくなってしまうことを防ぐことができる。 The mode switching unit 134 may perform control not to execute the switching of the operation mode. For example, when the user inputs to the indirect operation area R2 using the screen keyboard activated in the direct operation area R1, the user's line of sight frequently moves between the direct operation area R1 and the indirect operation area R2. obtain. At this time, for example, if the mode switching unit 134 switches the operation mode to the indirect operation mode, the direct operation area R1 functions as VTP. Therefore, the user cannot input with the on-screen keyboard. Therefore, the mode switching unit 134 does not execute the operation mode switching when the screen keyboard is activated in the direct operation area R1. As a result, the mode switching unit 134 can prevent the user from becoming unable to use the screen keyboard due to the switching of the operation mode.

(3-5)信号処理部135
信号処理部135は、OSの動作を制御するための信号を生成し、OSへ出力する機能を有する。例えば、信号処理部135は、直接操作領域R1の動作モードに応じた定義情報を含む信号を生成し、OSへ出力する。
(3-5) Signal processing unit 135
The signal processing unit 135 has a function of generating a signal for controlling the operation of the OS and outputting it to the OS. For example, the signal processing unit 135 directly generates a signal including definition information according to the operation mode of the operation area R1 and outputs the signal to the OS.

直接操作領域R1の動作モードが直接操作モードである場合、信号処理部135は、タッチスクリーンの定義情報を含むタッチスクリーン信号を生成し、OSへ出力する。これにより、信号処理部135は、OSに対してタッチスクリーン10がタッチスクリーンとして操作されていると認識させ、タッチスクリーンに関する動作を行わせることができる。 When the operation mode of the direct operation area R1 is the direct operation mode, the signal processing unit 135 generates a touch screen signal including the definition information of the touch screen and outputs it to the OS. As a result, the signal processing unit 135 can make the OS recognize that the touch screen 10 is operated as a touch screen and perform an operation related to the touch screen.

一方、直接操作領域R1の動作モードが間接操作モードである場合、信号処理部135は、PTPの定義情報を含むVTP信号を生成し、OSへ出力する。これにより、信号処理部135は、OSに対してタッチスクリーン10がVTPとして操作されていると認識させ、VTPに関する動作を行わせることができる。 On the other hand, when the operation mode of the direct operation area R1 is the indirect operation mode, the signal processing unit 135 generates a VTP signal including PTP definition information and outputs it to the OS. As a result, the signal processing unit 135 can make the OS recognize that the touch screen 10 is operated as VTP and perform an operation related to VTP.

信号の生成時、信号処理部135は、例えば、信号に含まれる定義情報を変更することで、OSへ出力する信号を変更する。具体的に、直接操作モードにてタッチスクリーン信号の出力後、動作モードが間接操作モードに切替わったとする。この場合、信号処理部135は、タッチスクリーン信号に含まれていたタッチスクリーンの定義情報をPTPの定義情報に変更する。これにより、タッチスクリーン信号は、VTP信号へ変更される。一方、間接操作モードにてVTP信号の出力後、動作モードが直接操作モードに切替わったとする。この場合、信号処理部135は、VTP信号に含まれていたPTPの定義情報をタッチスクリーンの定義情報に変更する。これにより、VTP信号は、タッチスクリーン信号へ変更される。 At the time of signal generation, the signal processing unit 135 changes the signal to be output to the OS, for example, by changing the definition information included in the signal. Specifically, it is assumed that the operation mode is switched to the indirect operation mode after the touch screen signal is output in the direct operation mode. In this case, the signal processing unit 135 changes the touch screen definition information included in the touch screen signal to the PTP definition information. As a result, the touch screen signal is changed to a VTP signal. On the other hand, it is assumed that the operation mode is switched to the direct operation mode after the VTP signal is output in the indirect operation mode. In this case, the signal processing unit 135 changes the PTP definition information included in the VTP signal to the touch screen definition information. As a result, the VTP signal is changed to a touch screen signal.

なお、タッチスクリーン信号及びVTP信号は、タッチスクリーン10のECファームウェアによって生成され、OSへ出力される。これにより、OSにおけるタッチスクリーン10に関する動作は、タッチスクリーン10のECファームウェアによって制御される。 The touch screen signal and the VTP signal are generated by the EC firmware of the touch screen 10 and output to the OS. As a result, the operation of the touch screen 10 in the OS is controlled by the EC firmware of the touch screen 10.

(3-6)表示処理部136
表示処理部136は、動作モードが切替えられた際の表示部150における表示を制御する機能を有する。
(3-6) Display processing unit 136
The display processing unit 136 has a function of controlling the display on the display unit 150 when the operation mode is switched.

例えば、表示処理部136は、切替え後の動作モードに応じて、直接操作領域R1又は間接操作領域R2のどちらに表示された操作対象をユーザが操作可能であるかを示す表示(即ちユーザが見ている領域を示す表示)を制御する。一例として、表示処理部136は、直接操作領域R1又は間接操作領域R2の内、ユーザが見ている方の領域を示す枠を表示部150に表示させる。当該枠は、例えば、領域の形状を示す枠である。なお、枠の形状、色、太さ等は特に限定されない。
動作モードが間接操作モードから直接操作モードに切替えられた場合、表示処理部136は、直接操作領域R1の枠を表示部150に表示させる。一方、動作モードが直接操作モードから間接操作モードに切替えられた場合、表示処理部136は、間接操作領域R2の枠を表示部150に表示させる。
For example, the display processing unit 136 displays (that is, the user sees) whether the operation target displayed in the direct operation area R1 or the indirect operation area R2 can be operated by the user according to the operation mode after switching. Controls the display) that indicates the area in which it is located. As an example, the display processing unit 136 causes the display unit 150 to display a frame indicating the area of the direct operation area R1 or the indirect operation area R2 that the user is viewing. The frame is, for example, a frame showing the shape of a region. The shape, color, thickness, etc. of the frame are not particularly limited.
When the operation mode is switched from the indirect operation mode to the direct operation mode, the display processing unit 136 causes the display unit 150 to display the frame of the direct operation area R1. On the other hand, when the operation mode is switched from the direct operation mode to the indirect operation mode, the display processing unit 136 causes the display unit 150 to display the frame of the indirect operation area R2.

また、例えば、表示処理部136は、切替え後の動作モードに応じて、カーソルの表示を制御する。一例として、動作モードが直接操作モードから間接操作モードに切替えられた場合、表示処理部136は、直接操作領域R1に表示されていたカーソルを間接操作領域R2へ移動させ、表示部150に表示させる。一方、動作モードが間接操作モードから直接操作モードに切替えられた場合、表示処理部136は、間接操作領域R2に表示されていたカーソルを直接操作領域R1へ移動させ、表示部150に表示させる。これにより、ユーザは、モード切替え後の操作をスムーズに開始することができる。
モード切替え後にカーソルが表示される位置は、例えば、直接操作領域R1あるいは間接操作領域R2の中央である。なお、モード切替え後にカーソルが表示される位置は、かかる例に限定されない。
Further, for example, the display processing unit 136 controls the display of the cursor according to the operation mode after switching. As an example, when the operation mode is switched from the direct operation mode to the indirect operation mode, the display processing unit 136 moves the cursor displayed in the direct operation area R1 to the indirect operation area R2 and causes the display unit 150 to display the cursor. .. On the other hand, when the operation mode is switched from the indirect operation mode to the direct operation mode, the display processing unit 136 moves the cursor displayed in the indirect operation area R2 to the direct operation area R1 and causes the display unit 150 to display the cursor. As a result, the user can smoothly start the operation after the mode is switched.
The position where the cursor is displayed after the mode switching is, for example, the center of the direct operation area R1 or the indirect operation area R2. The position where the cursor is displayed after the mode is switched is not limited to this example.

(4)記憶部140
記憶部140は、各種情報を記憶する機能を有する。記憶部140は、メインメモリ16、BIOSメモリ22、HDD23、EC31が備えるROMやRAM等を含んで構成される。記憶部140は、例えば、OSや各種アプリケーション等のソフトウェア、システムファームウェアやECファームウェア等の各種ファームウェア、及び定義情報を記憶する。
(4) Storage unit 140
The storage unit 140 has a function of storing various types of information. The storage unit 140 includes a main memory 16, a BIOS memory 22, an HDD 23, a ROM and a RAM included in the EC 31, and the like. The storage unit 140 stores, for example, software such as an OS and various applications, various firmware such as system firmware and EC firmware, and definition information.

(5)表示部150
表示部150は、各種情報を表示する機能を有する。
表示部150は、例えば、デュアルディスプレイデバイス1がハードウェアとして備えるディスプレイによって実現される。
(5) Display unit 150
The display unit 150 has a function of displaying various information.
The display unit 150 is realized by, for example, a display provided as hardware in the dual display device 1.

<4.処理の流れ>
以上、本実施形態に係るデュアルディスプレイデバイス1の機能構成の一例について説明した。続いて、図8及び図9を参照して、本実施形態に係るデュアルディスプレイデバイス1における処理の流れの一例について説明する。
<4. Processing flow>
The example of the functional configuration of the dual display device 1 according to this embodiment has been described above. Subsequently, an example of the processing flow in the dual display device 1 according to the present embodiment will be described with reference to FIGS. 8 and 9.

(1)直接操作領域R1に直接操作モードが設定されている場合
図8を参照して、直接操作領域R1に直接操作モードが設定されている場合の処理の流れの一例について説明する。図8は、本実施形態に係る直接操作領域R1に直接操作モードが設定されている場合の処理の流れを示すフローチャートである。なお、当該フローチャートでは、ユーザが直接操作領域R1の領域内を見ている状態で処理がスタートするものとする。
(1) When the Direct Operation Mode is Set in the Direct Operation Area R1 With reference to FIG. 8, an example of the processing flow when the direct operation mode is set in the direct operation area R1 will be described. FIG. 8 is a flowchart showing a processing flow when the direct operation mode is set in the direct operation area R1 according to the present embodiment. In the flowchart, it is assumed that the process starts while the user is directly looking inside the operation area R1.

図8に示すように、まず、制御部130の判定部133は、センサ装置33によって検出される視線情報に基づき、ユーザの視線が直接操作領域R1の外にあるか否かを判定する(S100)。ユーザの視線が直接操作領域R1の内にあると判定した場合(S100/NO)、判定部133は、S100の処理を繰り返す。一方、ユーザの視線が直接操作領域R1の外にあると判定した場合(S100/YES)、判定部133は、S102の処理を実行する。 As shown in FIG. 8, first, the determination unit 133 of the control unit 130 determines whether or not the user's line of sight is directly outside the operation region R1 based on the line-of-sight information detected by the sensor device 33 (S100). ). When it is determined that the line of sight of the user is directly within the operation area R1 (S100 / NO), the determination unit 133 repeats the process of S100. On the other hand, when it is determined that the line of sight of the user is directly outside the operation area R1 (S100 / YES), the determination unit 133 executes the process of S102.

判定部133は、ユーザの視線が直接操作領域R1の外で所定の時間以上検出されたか否かを判定する(S102)。ユーザの視線が直接操作領域R1の外で所定の時間以上検出されたと判定部133によって判定されなかった場合(S102/NO)、制御部130は、処理を終了する。一方、ユーザの視線が直接操作領域R1の外で所定の時間以上検出されたと判定した場合(S102/YES)、判定部133は、S104の処理を実行する。 The determination unit 133 determines whether or not the user's line of sight is detected directly outside the operation area R1 for a predetermined time or longer (S102). When the determination unit 133 does not determine that the user's line of sight is detected directly outside the operation area R1 for a predetermined time or longer (S102 / NO), the control unit 130 ends the process. On the other hand, when it is determined that the line of sight of the user is detected outside the operation area R1 for a predetermined time or longer (S102 / YES), the determination unit 133 executes the process of S104.

判定部133は、ユーザの視線が直接操作領域R1の外にあることが明確であるか否かを判定する(S104)。ユーザの視線が直接操作領域R1の外にあることが明確であると判定部133によって判定された場合(S104/YES)、制御部130のモード切替部134は、S106の処理を実行する。一方、ユーザの視線が直接操作領域R1の外にあることが明確でないと判定した場合(S104/NO)、判定部133は、S108の処理を実行する。 The determination unit 133 determines whether or not it is clear that the user's line of sight is directly outside the operation area R1 (S104). When the determination unit 133 determines that it is clear that the user's line of sight is directly outside the operation area R1 (S104 / YES), the mode switching unit 134 of the control unit 130 executes the process of S106. On the other hand, when it is determined that it is not clear that the user's line of sight is directly outside the operation area R1 (S104 / NO), the determination unit 133 executes the process of S108.

モード切替部134は、直接操作領域R1の動作モードを直接操作モードから間接操作モードに切替える(S106)。動作モードの切替え後、制御部130は、処理を終了する。 The mode switching unit 134 switches the operation mode of the direct operation area R1 from the direct operation mode to the indirect operation mode (S106). After switching the operation mode, the control unit 130 ends the process.

判定部133は、ユーザの視点位置と操作位置が略一致するか否かを判定する(S108)。ユーザの視点位置と操作位置が略一致しないと判定部133によって判定された場合(S108/NO)、モード切替部134は、S106の処理を実行する。一方、ユーザの視点位置と操作位置が略一致すると判定部133によって判定された場合(S108/YES)、制御部130は、処理を終了する。 The determination unit 133 determines whether or not the viewpoint position of the user and the operation position substantially match (S108). When the determination unit 133 determines that the user's viewpoint position and the operation position do not substantially match (S108 / NO), the mode switching unit 134 executes the process of S106. On the other hand, when the determination unit 133 determines that the user's viewpoint position and the operation position substantially match (S108 / YES), the control unit 130 ends the process.

(2)直接操作領域R1に間接操作モードが設定されている場合
図9を参照して、直接操作領域R1に間接操作モードが設定されている場合の処理の流れの一例について説明する。図9は、本実施形態に係る直接操作領域R1に間接操作モードが設定されている場合の処理の流れを示すフローチャートである。なお、当該フローチャートでは、ユーザが間接操作領域R2を見ている状態で処理がスタートするものとする。
(2) When the Indirect Operation Mode is Set in the Direct Operation Area R1 With reference to FIG. 9, an example of the processing flow when the indirect operation mode is set in the direct operation area R1 will be described. FIG. 9 is a flowchart showing a processing flow when the indirect operation mode is set in the direct operation area R1 according to the present embodiment. In the flowchart, it is assumed that the process starts while the user is looking at the indirect operation area R2.

図9に示すように、まず、制御部130の判定部133は、センサ装置33によって検出される視線情報に基づき、ユーザの視線が直接操作領域R1付近にあるか否かを判定する(S200)。ユーザの視線が直接操作領域R1付近にないと判定した場合(S200/NO)、判定部133は、S200の処理を繰り返す。一方、ユーザの視線が直接操作領域R1付近にあると判定した場合(S200/YES)、判定部133は、S202の処理を実行する。 As shown in FIG. 9, first, the determination unit 133 of the control unit 130 determines whether or not the user's line of sight is directly in the vicinity of the operation region R1 based on the line-of-sight information detected by the sensor device 33 (S200). .. When it is determined that the user's line of sight is not directly in the vicinity of the operation area R1 (S200 / NO), the determination unit 133 repeats the process of S200. On the other hand, when it is determined that the line of sight of the user is directly in the vicinity of the operation area R1 (S200 / YES), the determination unit 133 executes the process of S202.

判定部133は、ユーザの視線が直接操作領域R1付近で所定の時間以上検出されたか否かを判定する(S202)。ユーザの視線が直接操作領域R1付近で所定の時間以上検出されたと判定部133によって判定されなかった場合(S202/NO)、制御部130は、処理を終了する。一方、ユーザの視線が直接操作領域R1付近で所定の時間以上検出されたと判定した場合(S202/YES)、判定部133は、S204の処理を実行する。 The determination unit 133 determines whether or not the user's line of sight is detected in the vicinity of the direct operation area R1 for a predetermined time or longer (S202). When the determination unit 133 does not determine that the user's line of sight is detected in the vicinity of the direct operation area R1 for a predetermined time or longer (S202 / NO), the control unit 130 ends the process. On the other hand, when it is determined that the line of sight of the user is detected in the vicinity of the direct operation area R1 for a predetermined time or longer (S202 / YES), the determination unit 133 executes the process of S204.

判定部133は、ユーザの視線が直接操作領域R1の内にあることが明確であるか否かを判定する(S204)。ユーザの視線が直接操作領域R1の内にあることが明確であると判定部133によって判定された場合(S204/YES)、制御部130のモード切替部134は、S206の処理を実行する。一方、ユーザの視線が直接操作領域R1の内にあることが明確でないと判定した場合(S204/NO)、判定部133は、S208の処理を実行する。 The determination unit 133 determines whether or not it is clear that the user's line of sight is directly within the operation area R1 (S204). When the determination unit 133 determines that it is clear that the user's line of sight is directly within the operation area R1 (S204 / YES), the mode switching unit 134 of the control unit 130 executes the process of S206. On the other hand, when it is determined that it is not clear that the user's line of sight is directly within the operation area R1 (S204 / NO), the determination unit 133 executes the process of S208.

モード切替部134は、直接操作領域R1の動作モードを間接操作モードから直接操作モードに切替える(S206)。動作モードの切替え後、制御部130は、処理を終了する。 The mode switching unit 134 switches the operation mode of the direct operation area R1 from the indirect operation mode to the direct operation mode (S206). After switching the operation mode, the control unit 130 ends the process.

判定部133は、ユーザの視点位置と操作位置が略一致するか否かを判定する(S208)。ユーザの視点位置と操作位置が略一致すると判定部133によって判定された場合(S208/YES)、モード切替部134は、S206の処理を実行する。一方、ユーザの視点位置と操作位置が略一致しないと判定部133によって判定された場合(S208/NO)、制御部130は、処理を終了する。 The determination unit 133 determines whether or not the viewpoint position of the user and the operation position substantially match (S208). When the determination unit 133 determines that the user's viewpoint position and the operation position substantially match (S208 / YES), the mode switching unit 134 executes the process of S206. On the other hand, when the determination unit 133 determines that the user's viewpoint position and the operation position do not substantially match (S208 / NO), the control unit 130 ends the process.

以上説明したように、本実施形態に係るデュアルディスプレイデバイス1は、ユーザの視線に基づき、直接操作領域と少なくとも1つの間接操作領域との内、いずれの領域をユーザが見ているかを判定する。
また、デュアルディスプレイデバイス1は、判定の結果に基づき、直接操作領域の動作モードを、直接操作モード又は間接操作モードに切替える。
As described above, the dual display device 1 according to the present embodiment determines which area of the direct operation area and at least one indirect operation area is viewed by the user based on the line of sight of the user.
Further, the dual display device 1 switches the operation mode of the direct operation area to the direct operation mode or the indirect operation mode based on the result of the determination.

かかる構成により、本実施形態に係るデュアルディスプレイデバイス1は、ユーザが見ている領域に応じて、直接操作領域の動作モードを直接操作モード又は間接操作モードに切替える。これにより、ユーザは、デュアルディスプレイデバイス1に対して、動作モードを切替えるための操作を入力する必要がなくなる。即ち、デュアルディスプレイデバイス1は、ユーザがVTPを利用する際の操作の手間を軽減することができる。 With such a configuration, the dual display device 1 according to the present embodiment switches the operation mode of the direct operation area to the direct operation mode or the indirect operation mode according to the area viewed by the user. As a result, the user does not need to input an operation for switching the operation mode to the dual display device 1. That is, the dual display device 1 can reduce the time and effort of the operation when the user uses VTP.

よって、本実施形態に係るデュアルディスプレイデバイス1は、タッチスクリーンのユーザビリティを向上することができる。 Therefore, the dual display device 1 according to the present embodiment can improve the usability of the touch screen.

<5.変形例>
以上、本発明の実施形態について説明した。続いて、本発明の実施形態の変形例について説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の各実施形態で説明した構成に対して追加的に適用されてもよい。
<5. Modification example>
The embodiment of the present invention has been described above. Subsequently, a modified example of the embodiment of the present invention will be described. In addition, each modification described below may be applied to the embodiment of the present invention alone, or may be applied to the embodiment of the present invention in combination. Further, each modification may be applied in place of the configuration described in the embodiment of the present invention, or may be additionally applied to the configuration described in each embodiment of the present invention.

上述の形態では、情報処理装置がデュアルディスプレイデバイスである例について説明したが、かかる例に限定されない。例えば、情報処理装置は、少なくとも1つのタッチスクリーンを有する端末であればよい。具体的に、情報処理装置は、少なくとも1つのタッチスクリーンを有するノートPC(Personal Computer)、タブレット端末、スマートフォン、ゲーム機等の端末であってもよい。また、情報処理装置は、タッチスクリーンを折り畳み可能な折り畳み式端末(Foldable Device)により実現されてもよい。 In the above-described embodiment, an example in which the information processing device is a dual display device has been described, but the present invention is not limited to such an example. For example, the information processing device may be a terminal having at least one touch screen. Specifically, the information processing device may be a terminal such as a notebook PC (Personal Computer), a tablet terminal, a smartphone, or a game machine having at least one touch screen. Further, the information processing device may be realized by a foldable terminal (Foldable Device) capable of folding the touch screen.

上述の形態では、ユーザが直接操作領域又は間接操作領域のいずれを見ているかが判定部133によって判定され、判定結果に基づきモード切替部134が動作モードを切替える例について説明したが、かかる例に限定されない。例えば、判定部133はユーザが直接操作領域内又は直接操作領域外のいずれを見ているかを判定し、モード切替部134はユーザが直接操作領域内又は直接操作領域外のいずれを見ているかに応じて動作モードを切替えてもよい。即ち、直接操作領域外に存在する対象であれば、間接操作モードを使用する際にユーザが見る対象は間接操作領域に限定されない。具体的に、動作モードが直接操作モードである際にユーザが直接操作領域外を見ていると判定部133によって判定された場合、モード切替部134は、動作モードを間接操作モードに切替える。一方、動作モードが間接操作モードである際にユーザが直接操作領域内を見ていると判定部133によって判定された場合、モード切替部134は、動作モードを直接操作モードに切替える。 In the above-described embodiment, the determination unit 133 determines whether the user is looking at the direct operation area or the indirect operation area, and the mode switching unit 134 switches the operation mode based on the determination result. Not limited. For example, the determination unit 133 determines whether the user is looking inside the direct operation area or outside the direct operation area, and the mode switching unit 134 determines whether the user is looking inside the direct operation area or outside the direct operation area. The operation mode may be switched accordingly. That is, as long as the target exists outside the direct operation area, the target seen by the user when using the indirect operation mode is not limited to the indirect operation area. Specifically, when the determination unit 133 determines that the user is looking directly outside the operation area when the operation mode is the direct operation mode, the mode switching unit 134 switches the operation mode to the indirect operation mode. On the other hand, when the determination unit 133 determines that the user is looking directly into the operation area when the operation mode is the indirect operation mode, the mode switching unit 134 switches the operation mode to the direct operation mode.

かかる構成は、例えば、間接操作モードが設定された直接操作領域をユーザが操作する際に、ユーザが間接操作領域を見ずに直接操作領域を見る場合に特に有効である。具体的なシーンの一例として、プレゼンテーションを行うシーンが挙げられる。例えば、プレゼンテーション時に間接操作領域にプレゼンテーション資料が表示されているとする。プレゼンテーション中に当該資料のページを進める時、ユーザは、間接操作領域ではなく、プレゼンテーションの聴講者やプロジェクターに表示された資料を見ながら直接操作領域に操作を入力する場合がある。この時、間接操作領域を見ている時のみ間接操作モードが設定される制御である場合、ユーザは、聴講者やプロジェクターに表示された資料を見ながら間接操作領域に表示された資料の操作を行うことができなくなってしまう。そこで、本変形例のように間接操作モードを使用する際にユーザが見る対象を間接操作領域に限定しないことで、聴講者やプロジェクターに表示された資料を見ながら間接操作領域に表示された資料の操作を行うことを可能とする。 Such a configuration is particularly effective when, for example, when the user operates the direct operation area in which the indirect operation mode is set, the user sees the direct operation area without looking at the indirect operation area. An example of a specific scene is a scene in which a presentation is given. For example, it is assumed that the presentation material is displayed in the indirect operation area at the time of presentation. When advancing the page of the material during the presentation, the user may input the operation directly into the operation area while looking at the material displayed on the listener of the presentation or the projector, instead of the indirect operation area. At this time, if the control is such that the indirect operation mode is set only when the indirect operation area is viewed, the user operates the material displayed in the indirect operation area while looking at the material displayed on the listener or the projector. You will not be able to do it. Therefore, by not limiting the target to be viewed by the user when using the indirect operation mode as in this modification, the material displayed in the indirect operation area while viewing the material displayed on the listener or the projector. It is possible to perform the operation of.

また、上述の実施形態では、情報処理装置(デュアルディスプレイデバイス1)が有する2つのタッチスクリーン(タッチスクリーン10A及びタッチスクリーン10B)におけるタッチパネル領域を、それぞれ直接操作領域又は間接操作領域とする例について説明したが、かかる例に限定されない。例えば、情報処理装置がタッチスクリーンを1つのみ有する端末である場合、当該タッチスクリーンにおけるタッチパネル領域を2つの領域に分割し、それぞれの領域が直接操作領域又は間接操作領域として設定されてもよい。情報処理端末が折り畳み式端末である場合、例えば、タッチスクリーンが折り畳まれることでタッチパネル領域が2つの領域に分割されてもよい。 Further, in the above-described embodiment, an example will be described in which the touch panel areas of the two touch screens (touch screen 10A and touch screen 10B) of the information processing device (dual display device 1) are set as a direct operation area or an indirect operation area, respectively. However, it is not limited to such an example. For example, when the information processing device is a terminal having only one touch screen, the touch panel area in the touch screen may be divided into two areas, and each area may be set as a direct operation area or an indirect operation area. When the information processing terminal is a foldable terminal, for example, the touch panel area may be divided into two areas by folding the touch screen.

また、情報処理装置が有するタッチスクリーンのタッチパネル領域を直接操作領域とし、情報処理装置に外部接続される表示装置の表示領域を間接操作領域としてもよい。なお、情報処理装置に外部接続される表示装置の数は、特に限定されない。例えば、情報処理装置に対して複数の表示装置が外部接続される場合、間接操作領域は複数存在することになる。間接操作領域が複数存在する際に動作モードが間接操作モードに切替えられた場合、カーソルは、例えば、複数の間接操作領域の内のユーザが見ている間接操作領域、OSでプライマリに設定されている間接操作領域、あるいは常に特定の間接操作領域に表示され得る。 Further, the touch panel area of the touch screen of the information processing device may be used as the direct operation area, and the display area of the display device externally connected to the information processing device may be used as the indirect operation area. The number of display devices externally connected to the information processing device is not particularly limited. For example, when a plurality of display devices are externally connected to an information processing device, there are a plurality of indirect operation areas. When the operation mode is switched to the indirect operation mode when there are multiple indirect operation areas, the cursor is set to, for example, the indirect operation area seen by the user in the multiple indirect operation areas, the primary in the OS. It can be displayed in an indirect operating area, or always in a particular indirect operating area.

上述の実施形態では、モード切替部134がユーザの視線に基づき動作モードを切替える例について説明したが、かかる例に限定されない。モード切替部134は、直接操作領域に操作対象が表示されている場合に、動作モードを直接操作モードに切替え、間接操作領域に操作対象が表示されている場合に、動作モードを間接操作モードに切替えてもよい。 In the above-described embodiment, an example in which the mode switching unit 134 switches the operation mode based on the line of sight of the user has been described, but the present invention is not limited to this example. The mode switching unit 134 switches the operation mode to the direct operation mode when the operation target is displayed in the direct operation area, and changes the operation mode to the indirect operation mode when the operation target is displayed in the indirect operation area. It may be switched.

上述の実施形態では、センサ装置33にてユーザの視線及び視点位置が検出される例について説明したが、かかる例に限定されない。例えば、センサ装置33がセンシングする情報に基づき、視線情報取得部131にて視線及び視点位置が検出されてもよい。一例として、センサ装置33がカメラ等の撮像装置である場合、視線情報取得部131は、当該撮像装置が撮像する撮像画像に基づき、ユーザの視線を検出する。当該撮像画像は、具体的に、ユーザの眼の画像やユーザの頭部の画像である。撮像画像がユーザの眼の画像である場合、視線情報取得部131は、例えば、ユーザのまぶたの動きの変化に基づき、ユーザの視線を検出する。撮像画像がユーザの頭部の画像である場合、視線情報取得部131は、例えば、ユーザの頭部の動きの変化(例えば向きや角度)に基づき、ユーザの視線を検出する。さらに、視線情報取得部131は、検出したユーザの視線に基づき、視点位置を検出する。 In the above-described embodiment, an example in which the user's line of sight and the viewpoint position are detected by the sensor device 33 has been described, but the present invention is not limited to such an example. For example, the line-of-sight and the viewpoint position may be detected by the line-of-sight information acquisition unit 131 based on the information sensed by the sensor device 33. As an example, when the sensor device 33 is an image pickup device such as a camera, the line-of-sight information acquisition unit 131 detects the user's line of sight based on the image captured by the image pickup device. The captured image is specifically an image of the user's eyes or an image of the user's head. When the captured image is an image of the user's eye, the line-of-sight information acquisition unit 131 detects the user's line of sight based on, for example, a change in the movement of the user's eyelids. When the captured image is an image of the user's head, the line-of-sight information acquisition unit 131 detects the user's line of sight based on, for example, a change in the movement of the user's head (for example, a direction or an angle). Further, the line-of-sight information acquisition unit 131 detects the viewpoint position based on the line of sight of the detected user.

以上、本発明の実施形態について説明した。
なお、上述したデュアルディスプレイデバイス1が備える各構成は、内部に、コンピュータシステムを有している。そして、上述したデュアルディスプレイデバイス1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述したデュアルディスプレイデバイス1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
The embodiment of the present invention has been described above.
Each configuration included in the dual display device 1 described above has a computer system inside. Then, a program for realizing the functions of each configuration included in the above-mentioned dual display device 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read and executed by the computer system. Therefore, the processing in each configuration included in the dual display device 1 described above may be performed. Here, "loading and executing a program recorded on a recording medium into a computer system" includes installing the program in the computer system. The term "computer system" as used herein includes hardware such as an OS and peripheral devices.
Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後にノートPC1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。
さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
The recording medium also includes an internal or external recording medium accessible from the distribution server for distributing the program. It should be noted that the program may be divided into a plurality of parts, downloaded at different timings, and then combined with each configuration provided in the notebook PC 1, or the distribution server for distributing each of the divided programs may be different.
Furthermore, a "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network, and holds the program for a certain period of time. It shall include things. Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned function in combination with a program already recorded in the computer system.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Further, a part or all of the above-mentioned functions may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each of the above-mentioned functions may be made into a processor individually, or a part or all of them may be integrated into a processor. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, when an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology, an integrated circuit based on this technology may be used.

以上、図面を参照してこの発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the gist of the present invention. It is possible to do.

1 デュアルディスプレイデバイス
2 筐体
3 連結部
10 タッチスクリーン
11 表示画面
12 タッチパネル
15 CPU
16 メインメモリ
17 GPU
21 チップセット
22 BIOSメモリ
23 HDD
24 オーディオシステム
25 通信装置
31 EC
32 入力装置
33 センサ装置
34 電源回路
110 通信部
120 入力部
130 制御部
131 視線情報取得部
132 操作位置情報取得部
133 判定部
134 モード切替部
135 信号処理部
136 表示処理部
140 記憶部
150 表示部
R1 直接操作領域
R2 間接操作領域
1 Dual display device 2 Housing 3 Connection part 10 Touch screen 11 Display screen 12 Touch panel 15 CPU
16 main memory 17 GPU
21 Chipset 22 BIOS Memory 23 HDD
24 Audio system 25 Communication device 31 EC
32 Input device 33 Sensor device 34 Power supply circuit 110 Communication unit 120 Input unit 130 Control unit 131 Line-of-sight information acquisition unit 132 Operation position information acquisition unit 133 Judgment unit 134 Mode switching unit 135 Signal processing unit 136 Display processing unit 140 Storage unit 150 Display unit R1 direct operation area R2 indirect operation area

上述の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザの視線に基づき、タッチスクリーンにおける第1の領域内又は第1の領域外のいずれを前記ユーザが見ているかを判定する判定部と、前記判定部による判定の結果に基づき、第1の領域の動作モードを、前記第1の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第1のモード、又は前記第1の領域とは異なる領域であって前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における第2の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第2のモードに切替えるモード切替部と、を備え、前記判定部は、前記ユーザの視線に基づき取得される前記ユーザの視点位置と、前記第1の領域にて前記ユーザによる操作が入力された操作位置とに基づき、前記ユーザが前記第1の領域内又は前記第2の領域内のいずれの領域内を見ているかを判定する
In order to solve the above-mentioned problems, in the information processing apparatus according to one aspect of the present invention, whether the user is looking inside or outside the first area of the touch screen based on the user's line of sight. The operation mode of the first area is operated by the operation of inputting the operation target displayed in the first area to the first area based on the determination unit for determining the above and the result of the determination by the determination unit. A first mode that allows the first area to function, or an operation displayed in the second area of the touch screen or a display device that is different from the first area and different from the touch screen. The determination unit includes a mode switching unit that switches the target to a second mode that makes the first area function operably by an operation input to the first area, and the determination unit acquires based on the line of sight of the user. Based on the viewpoint position of the user and the operation position in which the operation by the user is input in the first area, the user is in either the first area or the second area. Determine if you are looking inside .

本発明の一態様に係る情報処理方法は、判定部が、ユーザの視線に基づき、タッチスクリーンにおける第1の領域内又は第1の領域外のいずれを前記ユーザが見ているかを判定することと、モード切替部が、前記判定部による判定の結果に基づき、第1の領域の動作モードを、前記第1の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第1のモード、又は前記第1の領域とは異なる領域であって前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における第2の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第2のモードに切替えることと、を含み、前記判定部が、前記ユーザの視線に基づき取得される前記ユーザの視点位置と、前記第1の領域にて前記ユーザによる操作が入力された操作位置とに基づき、前記ユーザが前記第1の領域内又は前記第2の領域内のいずれの領域内を見ているかを判定する
In the information processing method according to one aspect of the present invention, the determination unit determines whether the user is looking inside or outside the first region of the touch screen based on the user's line of sight. , The mode switching unit can operate the operation mode of the first area based on the result of the determination by the determination unit by the operation of inputting the operation target displayed in the first area to the first area. The operation target displayed in the first mode in which the first area is made to function, or in the second area of the touch screen or a display device different from the first area but different from the first area. Is switched to a second mode in which the first area is operably functioned by an operation input to the first area, and the determination unit is acquired based on the line of sight of the user. Based on the viewpoint position of the user and the operation position in which the operation by the user is input in the first area, the user moves within either the first area or the second area. Determine if you are watching .

Claims (9)

ユーザの視線に基づき、タッチスクリーンにおける第1の領域内又は第1の領域外のいずれを前記ユーザが見ているかを判定する判定部と、
前記判定部による判定の結果に基づき、第1の領域の動作モードを、前記第1の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第1のモード、又は前記第1の領域とは異なる領域であって前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における第2の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第2のモードに切替えるモード切替部と、
を備える、情報処理装置。
A determination unit that determines whether the user is looking inside or outside the first area of the touch screen based on the user's line of sight.
Based on the result of the determination by the determination unit, the operation mode of the first region can be operated by the operation of inputting the operation target displayed in the first region to the first region. The operation target displayed in the first mode for functioning, or the second area in the touch screen or a display device different from the first area but different from the first area is the first area. A mode switching unit that switches to a second mode that makes the first area function so that it can be operated by the operation input to
An information processing device equipped with.
前記モード切替部は、前記動作モードが前記第1のモードである際に前記ユーザが前記第1の領域外を見ていると前記判定部によって判定された場合、前記動作モードを前記第2のモードに切替え、前記動作モードが前記第2のモードである際に前記ユーザが前記第1の領域内を見ていると前記判定部によって判定された場合、前記動作モードを前記第1のモードに切替える、
請求項1に記載の情報処理装置。
When the determination unit determines that the user is looking outside the first region when the operation mode is the first mode, the mode switching unit sets the operation mode to the second mode. When the mode is switched and the determination unit determines that the user is looking inside the first region when the operation mode is the second mode, the operation mode is changed to the first mode. Switch,
The information processing apparatus according to claim 1.
前記判定部は、前記ユーザの視線に基づき取得される前記ユーザの視点位置と、前記第1の領域にて前記ユーザによる操作が入力された操作位置とに基づき、前記ユーザが前記第1の領域内又は前記第2の領域内のいずれの領域内を見ているかを判定する、
請求項1又は請求項2に記載の情報処理装置。
The determination unit is based on the viewpoint position of the user acquired based on the line of sight of the user and the operation position in which the operation by the user is input in the first area, and the user is in the first area. To determine which area within or within the second area is being viewed.
The information processing apparatus according to claim 1 or 2.
前記判定部は、前記視点位置と前記操作位置とが略一致する場合、前記ユーザが前記第1の領域内を見ていると判定し、前記視点位置と前記操作位置とが略一致しない場合、前記ユーザが前記第2の領域内を見ていると判定する、
請求項3に記載の情報処理装置。
When the viewpoint position and the operation position substantially match, the determination unit determines that the user is looking inside the first region, and when the viewpoint position and the operation position do not substantially match, the determination unit determines that the user is looking inside the first region. Determining that the user is looking within the second area,
The information processing apparatus according to claim 3.
前記タッチスクリーンと、前記タッチスクリーンとは異なるタッチパッドとを含むハードウェアに関する情報を含む定義情報を記憶する記憶部と、
前記第1の領域の動作モードに応じた前記定義情報を含む信号を生成し、オペレーティングシステムへ出力するファームウェアと、
をさらに備える、請求項1から請求項4のいずれか1項に記載の情報処理装置。
A storage unit that stores definitional information including information about hardware including the touch screen and a touch pad different from the touch screen.
A firmware that generates a signal including the definition information according to the operation mode of the first region and outputs the signal to the operating system.
The information processing apparatus according to any one of claims 1 to 4, further comprising.
前記ファームウェアは、
前記動作モードが前記第1のモードである場合、前記タッチスクリーンの前記定義情報を含む第1の信号を生成して前記オペレーティングシステムへ出力し、
前記動作モードが前記第2のモードである場合、前記タッチパッドの前記定義情報を含む第2の信号を生成して前記オペレーティングシステムへ出力する、
請求項5に記載の情報処理装置。
The firmware is
When the operation mode is the first mode, a first signal including the definition information of the touch screen is generated and output to the operating system.
When the operation mode is the second mode, a second signal including the definition information of the touch pad is generated and output to the operating system.
The information processing apparatus according to claim 5.
判定部が、ユーザの視線に基づき、タッチスクリーンにおける第1の領域内又は第1の領域外のいずれを前記ユーザが見ているかを判定することと、
モード切替部が、前記判定部による判定の結果に基づき、第1の領域の動作モードを、前記第1の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第1のモード、又は前記第1の領域とは異なる領域であって前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における第2の領域に表示された操作対象を前記第1の領域に入力される操作によって操作可能に前記第1の領域を機能させる第2のモードに切替えることと、
を含む、情報処理方法。
The determination unit determines whether the user is looking inside or outside the first area of the touch screen based on the user's line of sight.
Based on the result of the determination by the determination unit, the mode switching unit can operate the operation mode of the first area by the operation of inputting the operation target displayed in the first area to the first area. The operation target displayed in the first mode in which the first area functions, or in the second area of the touch screen or a display device different from the first area but different from the first area. Switching to the second mode in which the first area is operably operated by the operation input to the first area, and
Information processing methods, including.
タッチスクリーンにおける第1の領域の動作モードを切替えるモード切替部を備える情報処理装置であって、
前記モード切替部は、
前記第1の領域に操作対象が表示されている場合に、前記第1の領域に入力される操作によって前記第1の領域に表示された操作対象を操作可能に前記第1の領域を機能させる第1のモードに切替え、
前記第1の領域とは異なる領域であって、前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における少なくとも1つの第2の領域に操作対象が表示されている場合に、前記第1の領域に入力される操作によって前記第2の領域に表示された操作対象を操作可能に前記第1の領域を機能させる第2のモードに切替える、
情報処理装置。
An information processing device provided with a mode switching unit for switching the operation mode of the first region of the touch screen.
The mode switching unit is
When the operation target is displayed in the first area, the operation target displayed in the first area can be operated by the operation input to the first area, and the first area is made to function. Switch to the first mode,
When the operation target is displayed in at least one second area of the touch screen or a display device different from the touch screen, which is a region different from the first region, the operation target is displayed in the first region. By the input operation, the operation target displayed in the second area is switched to the second mode in which the first area functions so that the operation target can be operated.
Information processing equipment.
モード切替部が、タッチスクリーンにおける第1の領域の動作モードを切替えることを含む情報処理方法であって、
前記モード切替部が、
前記第1の領域に操作対象が表示されている場合に、前記第1の領域に入力される操作によって前記第1の領域に表示された操作対象を操作可能に前記第1の領域を機能させる第1のモードに切替え、
前記第1の領域とは異なる領域であって、前記タッチスクリーン又は前記タッチスクリーンとは異なる表示装置における少なくとも1つの第2の領域に操作対象が表示されている場合に、前記第1の領域に入力される操作によって前記第2の領域に表示された操作対象を操作可能に前記第1の領域を機能させる第2のモードに切替える、
情報処理方法。
The mode switching unit is an information processing method including switching the operation mode of the first region on the touch screen.
The mode switching unit
When the operation target is displayed in the first area, the operation target displayed in the first area can be operated by the operation input to the first area, and the first area is made to function. Switch to the first mode,
When the operation target is displayed in at least one second area of the touch screen or a display device different from the touch screen, which is a region different from the first region, the operation target is displayed in the first region. By the input operation, the operation target displayed in the second area is switched to the second mode in which the first area functions so that the operation target can be operated.
Information processing method.
JP2020159754A 2020-09-24 2020-09-24 Information processing equipment and information processing method Active JP7014874B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020159754A JP7014874B1 (en) 2020-09-24 2020-09-24 Information processing equipment and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020159754A JP7014874B1 (en) 2020-09-24 2020-09-24 Information processing equipment and information processing method

Publications (2)

Publication Number Publication Date
JP7014874B1 JP7014874B1 (en) 2022-02-01
JP2022053121A true JP2022053121A (en) 2022-04-05

Family

ID=80774246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020159754A Active JP7014874B1 (en) 2020-09-24 2020-09-24 Information processing equipment and information processing method

Country Status (1)

Country Link
JP (1) JP7014874B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223494A (en) * 2008-03-14 2009-10-01 Ricoh Co Ltd Information processor
JP2009271851A (en) * 2008-05-09 2009-11-19 Lenovo Singapore Pte Ltd Information processor, pointer display method thereof, and program executable by computer
JP2011526396A (en) * 2008-06-27 2011-10-06 マイクロソフト コーポレーション Virtual touchpad
WO2012001749A1 (en) * 2010-06-28 2012-01-05 パナソニック株式会社 Image capturing device, control method for image capturing device, and program used for control method
JP2014021596A (en) * 2012-07-13 2014-02-03 Fujitsu Ltd Tablet terminal, operation receiving method, and operation receiving program
JP2014052864A (en) * 2012-09-07 2014-03-20 Lenovo Singapore Pte Ltd Information input device, input method of the same, and computer-executable program
JP6177482B1 (en) * 2016-12-26 2017-08-09 三菱電機株式会社 Touch panel input device, touch gesture determination device, touch gesture determination method, and touch gesture determination program
WO2020152849A1 (en) * 2019-01-25 2020-07-30 三菱電機株式会社 Touch panel control device and touch panel control method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223494A (en) * 2008-03-14 2009-10-01 Ricoh Co Ltd Information processor
JP2009271851A (en) * 2008-05-09 2009-11-19 Lenovo Singapore Pte Ltd Information processor, pointer display method thereof, and program executable by computer
JP2011526396A (en) * 2008-06-27 2011-10-06 マイクロソフト コーポレーション Virtual touchpad
WO2012001749A1 (en) * 2010-06-28 2012-01-05 パナソニック株式会社 Image capturing device, control method for image capturing device, and program used for control method
JP2014021596A (en) * 2012-07-13 2014-02-03 Fujitsu Ltd Tablet terminal, operation receiving method, and operation receiving program
JP2014052864A (en) * 2012-09-07 2014-03-20 Lenovo Singapore Pte Ltd Information input device, input method of the same, and computer-executable program
JP6177482B1 (en) * 2016-12-26 2017-08-09 三菱電機株式会社 Touch panel input device, touch gesture determination device, touch gesture determination method, and touch gesture determination program
WO2020152849A1 (en) * 2019-01-25 2020-07-30 三菱電機株式会社 Touch panel control device and touch panel control method

Also Published As

Publication number Publication date
JP7014874B1 (en) 2022-02-01

Similar Documents

Publication Publication Date Title
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
US20130145308A1 (en) Information Processing Apparatus and Screen Selection Method
JP2010145861A (en) Head mount display
JP2013242821A (en) Picture display device and picture operation method of the same
JP2010139686A (en) Projector, program, and information storage medium
JP5865615B2 (en) Electronic apparatus and control method
JP2021111011A (en) Information processing device and input control method thereof
US20150245447A1 (en) Electronic blackboard apparatus displaying an image in accordance with received operational input
JP6569794B1 (en) Information processing apparatus and program
JP2011159082A (en) Information processing apparatus and image display method
JP7014874B1 (en) Information processing equipment and information processing method
US20150067561A1 (en) Electronic apparatus, method and storage medium
JP2012146017A (en) Electronic blackboard system, electronic blackboard system control method, program and recording medium therefor
CN112783267A (en) Information processing apparatus, information processing method, and computer program
JP2019185114A (en) Information processing apparatus, display control method and program
JP6654722B2 (en) Image display device and image display method
US11762501B2 (en) Information processing apparatus and control method
JP5242748B2 (en) Information processing apparatus and screen selection method
JP7265048B1 (en) Information processing device and control method
US20160154487A1 (en) Electronic apparatus, method and storage medium
JP2020062376A (en) Information processor and program
JP7354643B2 (en) Control device, method, program, and information processing system
JP7473832B1 (en) Electronic devices and programs
JP6916339B1 (en) Information processing device and control method
JP2023179072A (en) Information processing apparatus and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220120

R150 Certificate of patent or registration of utility model

Ref document number: 7014874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350