JP2017068797A - Input support system and electronic apparatus - Google Patents

Input support system and electronic apparatus Download PDF

Info

Publication number
JP2017068797A
JP2017068797A JP2015197068A JP2015197068A JP2017068797A JP 2017068797 A JP2017068797 A JP 2017068797A JP 2015197068 A JP2015197068 A JP 2015197068A JP 2015197068 A JP2015197068 A JP 2015197068A JP 2017068797 A JP2017068797 A JP 2017068797A
Authority
JP
Japan
Prior art keywords
display
electronic device
pointer
displayed
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015197068A
Other languages
Japanese (ja)
Inventor
勝木 隆史
Takashi Katsuki
隆史 勝木
岡田 英夫
Hideo Okada
英夫 岡田
豊田 治
Osamu Toyoda
治 豊田
鈴木 誠
Makoto Suzuki
鈴木  誠
菅原 充
Mitsuru Sugawara
充 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
QD Laser Inc
Original Assignee
Fujitsu Ltd
QD Laser Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, QD Laser Inc filed Critical Fujitsu Ltd
Priority to JP2015197068A priority Critical patent/JP2017068797A/en
Publication of JP2017068797A publication Critical patent/JP2017068797A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input support system and an electronic apparatus with excellent operability.SOLUTION: An input support system comprises: an electronic apparatus including a first display unit which displays a GUI component to be an operation object of a first user, a first top panel which is disposed at the display surface side of the first display unit and which has a first operation surface, a first position detection unit of a capacitance type, which detects a first position of a part of the body of a first user approaching the first operation surface in a non-contact manner, and a first pointer control unit which, when a distance between the first position detected by the position detection unit and the first operation surface becomes a predetermined value or less, displays a first pointer at a first projection position where the first position out of a display area of the first display unit is projected on the first display unit; and a monitor provided independently of the electronic apparatus and connected to the electronic apparatus communicably, for displaying the GUI component and the first pointer displayed on the first display unit while keeping a relative positional relation.SELECTED DRAWING: Figure 5

Description

本発明は、入力支援システム、及び、電子機器に関する。   The present invention relates to an input support system and an electronic device.

従来より、ユーザーの頭部に装着され、ユーザーに画像を視認させる画像生成部と、ユーザーの身体に装着され、2次元である検出領域上のユーザーの記入操作の座標である記入操作座標を検出する記入操作検出手段と、を有するヘッドマウントディスプレイがある。ヘッドマウントディスプレイは、前記記入操作座標に基づいて、記入操作の軌跡画像を生成し、前記画像生成部に出力する記入軌跡画像生成手段をさらに有する。ヘッドマウントディスプレイは、前記記入操作座標に基づき、ユーザーによる記入操作の前記検出領域上の開始位置座標を検出するとともに、当該開始位置座標を前記画像生成部の表示領域上の初期位置座標に変換し、更に、前記初期位置座標と、前記記入操作座標と前記開始位置座標との位置関係を用いて、前記表示領域上の記入軌跡座標を決定する座標変換手段をさらに有する。前記記入軌跡画像生成手段は、前記記入軌跡座標に基づいて記入操作の軌跡画像を生成することを特徴とする(例えば、特許文献1参照)。   Conventionally, an image generation unit that is attached to the user's head and makes the user visually recognize the image, and an entry operation coordinate that is attached to the user's body and that is the coordinate of the user's entry operation on a two-dimensional detection area is detected. There is a head mounted display having an entry operation detecting means. The head-mounted display further includes an entry trajectory image generation means for generating a trajectory image of the entry operation based on the entry operation coordinates and outputting it to the image generator. The head mounted display detects the start position coordinate on the detection area of the entry operation by the user based on the entry operation coordinate, and converts the start position coordinate to the initial position coordinate on the display area of the image generation unit. Further, the image processing apparatus further includes coordinate conversion means for determining an entry trajectory coordinate on the display area using a positional relationship between the initial position coordinates and the entry operation coordinates and the start position coordinates. The entry trajectory image generation means generates a trajectory image of an entry operation based on the entry trajectory coordinates (see, for example, Patent Document 1).

特開2011−134054号公報JP 2011-134054 A

ところで、従来のヘッドマウントディスプレイは、ユーザーが手元の端末機で記入操作を行おうとするときに、記入前に記入を開始する位置を確認することが困難である。   By the way, it is difficult for the conventional head mounted display to confirm the position where the entry is started before the entry when the user tries to perform the entry operation with the terminal at hand.

また、記入操作を行っているときに、軌跡を少し戻す、あるいは、軌跡を少し延ばすというような微妙な位置調整を行うことが困難である。   In addition, it is difficult to perform a fine position adjustment such as returning the locus a little or extending the locus a little while performing the entry operation.

また、このような課題は、ヘッドマウントディスプレイを装着しているときに限らず、例えば、手元の端末機への入力内容を別のモニタに表示して操作する場合にも同様に生じる。   Such a problem occurs not only when the head-mounted display is mounted, but also occurs when, for example, the input content to the terminal at hand is displayed and operated on another monitor.

以上のように、従来の装置は、操作性が良好ではないという課題がある。   As described above, the conventional apparatus has a problem that the operability is not good.

そこで、操作性の良好な入力支援システム、及び、電子機器を提供することを目的とする。   Therefore, it is an object to provide an input support system and an electronic device with good operability.

本発明の実施の形態の入力支援システムは、第1利用者の操作対象になるGUI部品を表示する第1表示部と、前記第1表示部の表示面側に配設され、第1操作面を有する第1トップパネルと、前記第1操作面に非接触で近接する第1利用者の身体の一部の第1位置を検出する、静電容量式の第1位置検出部と、前記位置検出部によって検出される前記第1位置と前記第1操作面との間の距離が所定値以下になると、前記第1表示部の表示領域のうちの前記第1位置を前記第1表示部に投影した第1投影位置に、第1ポインタを表示する第1ポインタ制御部とを有する、電子機器と、前記電子機器とは独立して設けられるとともに、前記電子機器と通信可能に接続され、前記第1表示部に表示される前記GUI部品と前記第1ポインタとを相対位置関係を保持して表示するモニタとを含む。   An input support system according to an embodiment of the present invention includes a first display unit that displays a GUI component to be operated by a first user, a display surface side of the first display unit, and a first operation surface. A first top panel having a capacitance; a first position detection unit that detects a first position of a part of a first user's body that is in close contact with the first operation surface; and the position. When the distance between the first position detected by the detection unit and the first operation surface is equal to or less than a predetermined value, the first position in the display area of the first display unit is set to the first display unit. An electronic device having a first pointer control unit that displays a first pointer at the projected first projection position, and the electronic device are provided independently of each other and are communicably connected to the electronic device, The GUI component displayed on the first display unit and the first pointer Holding the positional relationship and a monitor for displaying.

操作性の良好な入力支援システム、及び、電子機器を提供することができる。   An input support system with good operability and an electronic device can be provided.

実施の形態1の入力支援システムに含まれる電子機器100を示す斜視図である。1 is a perspective view showing an electronic device 100 included in an input support system according to a first embodiment. 実施の形態1の電子機器100を示す平面図である。1 is a plan view showing an electronic device 100 according to a first embodiment. 図2に示す電子機器100のA−A矢視断面を示す図である。It is a figure which shows the AA arrow cross section of the electronic device 100 shown in FIG. 実施の形態1の入力支援システム300を示す図である。It is a figure which shows the input assistance system 300 of Embodiment 1. FIG. 入力支援システム300のより詳細なハードウェア構成を示す図である。2 is a diagram showing a more detailed hardware configuration of an input support system 300. FIG. 電子機器100及び表示装置200の動作を説明する図である。FIG. 6 is a diagram illustrating operations of the electronic device 100 and the display device 200. 電子機器100及び表示装置200の動作を説明する図である。FIG. 6 is a diagram illustrating operations of the electronic device 100 and the display device 200. アプリケーションプロセッサ141Aが実行する処理を示すフローチャートである。It is a flowchart which shows the process which application processor 141A performs. ヘッドマウントディスプレイ10を示す図である。1 is a diagram showing a head mounted display 10. FIG. 実施の形態2の入力支援システム300Aを示す図である。It is a figure which shows the input assistance system 300A of Embodiment 2. FIG. 実施の形態2の電子機器100AのRAM146が保持するデータの一部を示す図である。It is a figure which shows a part of data which RAM146 of 100 A of electronic devices of Embodiment 2 hold | maintains. 電子機器100A、100B、100Cの近接操作によるポインタ161A、161B、161Cを示す図である。It is a figure which shows pointer 161A, 161B, 161C by the proximity | contact operation of electronic devices 100A, 100B, 100C. 表示装置200のディスプレイパネル210に表示されるポインタ211A、211B、211Cを示す図である。4 is a diagram illustrating pointers 211A, 211B, and 211C displayed on a display panel 210 of the display device 200. FIG. 電子機器100Bのアプリケーションプロセッサ141Aが実行する処理を示すフローチャートである。It is a flowchart which shows the process which the application processor 141A of the electronic device 100B performs. 電子機器100Aのアプリケーションプロセッサ141Aが実行する処理を示すフローチャートである。It is a flowchart which shows the process which the application processor 141A of 100 A of electronic devices performs. 実施の形態2の変形例の入力支援システム300Bを示す図である。It is a figure which shows the input assistance system 300B of the modification of Embodiment 2. FIG. 実施の形態3の入力支援システムに含まれる電子機器100Dを示す図である。It is a figure which shows the electronic device 100D contained in the input assistance system of Embodiment 3. FIG. 実施の形態3の電子機器100Dのアプリケーションプロセッサ141Aが実行する処理を示すフローチャートである。14 is a flowchart illustrating processing executed by an application processor 141A of the electronic device 100D according to the third embodiment.

以下、本発明の入力支援システム、及び、電子機器を適用した実施の形態について説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments to which an input support system and electronic equipment according to the present invention are applied will be described below.

<実施の形態1>
図1は、実施の形態1の入力支援システムに含まれる電子機器100を示す斜視図である。
<Embodiment 1>
FIG. 1 is a perspective view showing an electronic device 100 included in the input support system according to the first embodiment.

電子機器100は、一例として、タッチパネルを入力操作部とする、スマートフォン端末機、又は、タブレット型コンピュータである。電子機器100は、タッチパネルを入力操作部とする機器であればよいため、例えば、携帯情報端末機、又は、PC(Personal Computer)であってもよい。   As an example, the electronic device 100 is a smartphone terminal or a tablet computer using a touch panel as an input operation unit. The electronic device 100 may be a device using a touch panel as an input operation unit, and may be, for example, a portable information terminal or a PC (Personal Computer).

電子機器100の入力操作部101は、タッチパネルの下にディスプレイパネルが配設されており、ディスプレイパネルにGUI(Graphic User Interface)による様々なボタン102A、又は、スライダー102B等(以下、GUI部品102と称す)が表示される。   The input operation unit 101 of the electronic device 100 is provided with a display panel below the touch panel. Various buttons 102A or a slider 102B or the like (hereinafter referred to as GUI component 102) using a GUI (Graphic User Interface) are provided on the display panel. Is displayed.

また、GUI部品は、上述のような操作用の部品に限らず、例えば、ゲームのアプリケーションを実行しているときに表示されるキャラクタ、又は、パズルゲームで表示されるパズルのピース等の様々な部品であってもよい。   In addition, the GUI parts are not limited to the above-described parts for operation, but include various characters such as a character displayed when a game application is executed or a puzzle piece displayed in a puzzle game. It may be a part.

電子機器100の利用者は、通常、GUI部品102を操作、移動、又は特定等するために、指先で入力操作部101に触れる。なお、電子機器100は、第1電子機器の一例であり、電子機器100の利用者は、第1利用者の一例である。   A user of the electronic device 100 usually touches the input operation unit 101 with a fingertip in order to operate, move, or specify the GUI component 102. The electronic device 100 is an example of a first electronic device, and the user of the electronic device 100 is an example of a first user.

次に、図2を用いて、電子機器100の具体的な構成について説明する。   Next, a specific configuration of the electronic device 100 will be described with reference to FIG.

図2は、実施の形態1の電子機器100を示す平面図であり、図3は、図2に示す電子機器100のA−A矢視断面を示す図である。なお、図2及び図3では、図示するように直交座標系であるXYZ座標系を定義する。   2 is a plan view showing electronic device 100 of the first embodiment, and FIG. 3 is a diagram showing a cross-section taken along line AA of electronic device 100 shown in FIG. 2 and 3, an XYZ coordinate system that is an orthogonal coordinate system is defined as shown.

電子機器100は、筐体110、トップパネル120、両面テープ130、タッチパネル150、ディスプレイパネル160、及び基板170を含む。   The electronic device 100 includes a housing 110, a top panel 120, a double-sided tape 130, a touch panel 150, a display panel 160, and a substrate 170.

筐体110は、例えば、樹脂製であり、図3に示すように凹部110Aに基板170、ディスプレイパネル160、及びタッチパネル150が配設されるとともに、両面テープ130によってトップパネル120が接着されている。   The housing 110 is made of, for example, resin, and as shown in FIG. 3, the substrate 170, the display panel 160, and the touch panel 150 are disposed in the recess 110 </ b> A, and the top panel 120 is bonded by the double-sided tape 130. .

トップパネル120は、平面視で長方形の薄い平板状の部材であり、透明なガラス、又は、ポリカーボネートのような強化プラスティックで作製される。トップパネル120の表面(Z軸正方向側の面)は、電子機器100の利用者が操作入力を行う操作面の一例である。   The top panel 120 is a thin flat plate member that is rectangular in plan view, and is made of transparent glass or a reinforced plastic such as polycarbonate. The surface of the top panel 120 (the surface on the Z-axis positive direction side) is an example of an operation surface on which the user of the electronic device 100 performs operation input.

トップパネル120は、平面視における四辺が両面テープ130によって筐体110に接着されている。なお、両面テープ130は、トップパネル120の四辺を筐体110に接着できればよく、図3に示すように矩形環状である必要はない。   The top panel 120 is bonded to the housing 110 with double-sided tape 130 on four sides in plan view. The double-sided tape 130 only needs to be able to bond the four sides of the top panel 120 to the housing 110, and does not have to be a rectangular ring as shown in FIG.

トップパネル120のZ軸負方向側にはタッチパネル150が配設される。トップパネル120は、タッチパネル150の表面を保護するために設けられている。なお、トップパネル120の表面に、さらに別なパネル又は保護膜等が設けられていてもよい。   A touch panel 150 is disposed on the Z-axis negative direction side of the top panel 120. The top panel 120 is provided to protect the surface of the touch panel 150. Further, another panel or a protective film may be provided on the surface of the top panel 120.

タッチパネル150は、ディスプレイパネル160の上(Z軸正方向側)で、トップパネル120の下(Z軸負方向側)に配設されている。タッチパネル150は、電子機器100の利用者がトップパネル120に触れる位置(以下、操作入力の位置と称す)と、利用者がトップパネル120に触れる前に、トップパネル120に近づける指先の位置とを検出する位置検出部の一例である。なお、ここでは、利用者が指先をトップパネル120に近づける形態について説明するが、指先には限らず、利用者の身体の一部であればよい。   The touch panel 150 is disposed on the display panel 160 (Z-axis positive direction side) and below the top panel 120 (Z-axis negative direction side). The touch panel 150 includes a position where the user of the electronic device 100 touches the top panel 120 (hereinafter referred to as an operation input position) and a position of a fingertip that approaches the top panel 120 before the user touches the top panel 120. It is an example of the position detection part to detect. In addition, although the form where a user brings a fingertip close to the top panel 120 is described here, it is not limited to the fingertip, and may be a part of the user's body.

タッチパネル150の下にあるディスプレイパネル160には、GUIによる様々なボタン等(以下、GUI部品と称す)が表示される。このため、電子機器100の利用者は、通常、GUI部品を操作するために、指先でトップパネル120に触れる。   On the display panel 160 below the touch panel 150, various buttons and the like (hereinafter referred to as GUI parts) by GUI are displayed. For this reason, the user of the electronic device 100 usually touches the top panel 120 with a fingertip in order to operate the GUI component.

タッチパネル150は、利用者のトップパネル120への操作入力の位置(又は座標)と、利用者がトップパネル120に触れる前に、トップパネル120に近づける指先の位置とを検出できる位置検出部であればよく、例えば、静電容量型の位置検出部であればよい。タッチパネル150とトップパネル120との間に隙間があっても、静電容量型のタッチパネル150は、トップパネル120への操作入力を検出できる。   The touch panel 150 may be a position detection unit that can detect the position (or coordinates) of the operation input to the user's top panel 120 and the position of the fingertip that approaches the top panel 120 before the user touches the top panel 120. What is necessary is just an electrostatic capacitance type position detection part, for example. Even if there is a gap between the touch panel 150 and the top panel 120, the capacitive touch panel 150 can detect an operation input to the top panel 120.

タッチパネル150は、利用者がトップパネル120に触れる前に、トップパネル120に近づける指先の位置を検出することができる。これは、タッチパネル150のホバリング機能によって実現される。人体は導電性を有するため、静電容量型のタッチパネル150は、指先が近づいて来ると、静電容量の変化を検出する。このため、タッチパネル150は、指先が接触する前において、指先の三次元的な位置を特定することができる。   The touch panel 150 can detect the position of the fingertip approaching the top panel 120 before the user touches the top panel 120. This is realized by the hovering function of the touch panel 150. Since the human body has conductivity, the capacitive touch panel 150 detects a change in capacitance when the fingertip approaches. For this reason, the touch panel 150 can specify the three-dimensional position of the fingertip before the fingertip contacts.

トップパネル120に触れる前の指先の位置は、図2及び図3に示すXYZ座標系の座標で表される。   The position of the fingertip before touching the top panel 120 is represented by the coordinates of the XYZ coordinate system shown in FIGS.

また、ここでは、タッチパネル150の入力面側にトップパネル120が配設される形態について説明するが、トップパネル120はタッチパネル150と一体的であってもよい。この場合、タッチパネル150の表面が図2及び図3に示すトップパネル120の表面になり、操作面を構築する。また、図2及び図3に示すトップパネル120を省いた構成であってもよい。この場合も、タッチパネル150の表面が操作面を構築する。   In addition, here, a form in which the top panel 120 is disposed on the input surface side of the touch panel 150 will be described, but the top panel 120 may be integrated with the touch panel 150. In this case, the surface of the touch panel 150 becomes the surface of the top panel 120 shown in FIGS. 2 and 3, and an operation surface is constructed. Moreover, the structure which excluded the top panel 120 shown in FIG.2 and FIG.3 may be sufficient. Also in this case, the surface of the touch panel 150 constructs the operation surface.

また、タッチパネル150が静電容量型の場合は、トップパネル120の上にタッチパネル150が配設されていてもよい。この場合も、タッチパネル150の表面が操作面を構築する。また、タッチパネル150が静電容量型の場合は、図2及び図3に示すトップパネル120を省いた構成であってもよい。この場合も、タッチパネル150の表面が操作面を構築する。   In the case where the touch panel 150 is a capacitive type, the touch panel 150 may be disposed on the top panel 120. Also in this case, the surface of the touch panel 150 constructs the operation surface. Moreover, when the touch panel 150 is a capacitance type, the structure which excluded the top panel 120 shown in FIG.2 and FIG.3 may be sufficient. Also in this case, the surface of the touch panel 150 constructs the operation surface.

ディスプレイパネル160は、例えば、液晶ディスプレイパネル又は有機EL(Electroluminescence)パネル等の画像を表示できる表示部であればよい。ディスプレイパネル160は、筐体110の凹部110Aの内部で、図示を省略するホルダ等によって基板170の上(Z軸正方向側)に設置される。   The display panel 160 may be a display unit that can display an image, such as a liquid crystal display panel or an organic EL (Electroluminescence) panel. The display panel 160 is installed on the substrate 170 (Z-axis positive direction side) by a holder or the like (not shown) inside the recess 110A of the housing 110.

ディスプレイパネル160は、後述するドライバIC(Integrated Circuit)によって駆動制御が行われ、電子機器100の動作状況に応じて、GUI部品、画像、文字、記号、図形等を表示する。   The display panel 160 is driven and controlled by a driver IC (Integrated Circuit), which will be described later, and displays GUI parts, images, characters, symbols, graphics, and the like according to the operation status of the electronic device 100.

基板170は、筐体110の凹部110Aの内部に配設される。基板170の上には、ディスプレイパネル160及びタッチパネル150が配設される。ディスプレイパネル160及びタッチパネル150は、図示を省略するホルダ等によって基板170及び筐体110に固定されている。   The substrate 170 is disposed inside the recess 110 </ b> A of the housing 110. A display panel 160 and a touch panel 150 are disposed on the substrate 170. The display panel 160 and the touch panel 150 are fixed to the substrate 170 and the housing 110 by a holder or the like (not shown).

基板170には、後述する駆動制御装置の他に、電子機器100の駆動に必要な種々の回路等が実装される。   In addition to the drive control device described later, various circuits necessary for driving the electronic device 100 are mounted on the substrate 170.

図4は、実施の形態1の入力支援システム300を示す図である。   FIG. 4 is a diagram illustrating the input support system 300 according to the first embodiment.

入力支援システム300は、電子機器100と表示装置200を含む。   The input support system 300 includes an electronic device 100 and a display device 200.

表示装置200は、一例として、液晶のディスプレイパネル210を有する、表示装置の一例である。ディスプレイパネル210のサイズは、一例として、100インチである。表示装置200は、電子機器100とは独立して設けられる。   The display device 200 is an example of a display device having a liquid crystal display panel 210 as an example. As an example, the size of the display panel 210 is 100 inches. The display device 200 is provided independently of the electronic device 100.

表示装置200のディスプレイパネル210には、電子機器100のディスプレイパネル160と同一の画像が表示される。   The same image as the display panel 160 of the electronic device 100 is displayed on the display panel 210 of the display device 200.

利用者は、ディスプレイパネル210を見ながら、手元の電子機器100のトップパネル120に触れた指先でフリック、タップ、又はスワイプ等の操作入力を行うことにより、電子機器100を操作することができる。   The user can operate the electronic device 100 by performing an operation input such as flick, tap, or swipe with a fingertip touching the top panel 120 of the electronic device 100 at hand while looking at the display panel 210.

なお、フリックは、指先をトップパネル120の表面に沿って、はじく(スナップする)ように比較的短い距離移動させる操作である。タップは、指先をトップパネル120の表面で移動させずに軽く触れる操作である。スワイプは、指先をトップパネル120の表面に沿って掃くように比較的長い距離移動させる操作である。   The flick is an operation of moving the fingertip along a surface of the top panel 120 for a relatively short distance so as to be repelled (snapped). The tap is an operation of lightly touching the fingertip without moving it on the surface of the top panel 120. Swipe is an operation of moving a fingertip relatively long distance so as to sweep along the surface of the top panel 120.

また、電子機器100は、トップパネル120に触れることなく近づけられた指先の位置をホバリング機能によって検出し、指先の位置をディスプレイパネル160に投影した位置に、ポインタを表示する。   In addition, the electronic device 100 detects the position of the fingertip that is brought close without touching the top panel 120 by the hovering function, and displays a pointer at a position where the position of the fingertip is projected on the display panel 160.

ポインタは、トップパネル120に触れることなく近づけられた指先の位置を表すものである。電子機器100は、トップパネル120に触れることなく近づけられた指先の位置の座標(X1,Y1,Z1)を検出することができる。ポインタが表示される位置の座標は(X1,Y1)である。   The pointer represents the position of the fingertip brought close without touching the top panel 120. The electronic device 100 can detect the coordinates (X1, Y1, Z1) of the position of the fingertip brought close without touching the top panel 120. The coordinates of the position where the pointer is displayed are (X1, Y1).

すなわち、ポインタが表示される位置の座標(X1,Y1)は、指先の位置の座標(X1,Y1,Z1)をディスプレイパネル160に投影した位置である。   That is, the coordinates (X1, Y1) of the position where the pointer is displayed are the positions where the coordinates (X1, Y1, Z1) of the position of the fingertip are projected on the display panel 160.

このようなポインタをディスプレイパネル160に表示すると、表示装置200のディスプレイパネル210には、ポインタ211が表示される。表示装置200のディスプレイパネル210は、電子機器100のディスプレイパネル160と同一内容の画像を表示する。このため、表示装置200のディスプレイパネル210が表示する画像の中におけるポインタ211の位置は、電子機器100のディスプレイパネル160が表示する画像の中におけるポインタの位置と等しい。   When such a pointer is displayed on the display panel 160, a pointer 211 is displayed on the display panel 210 of the display device 200. The display panel 210 of the display device 200 displays an image having the same content as the display panel 160 of the electronic device 100. For this reason, the position of the pointer 211 in the image displayed on the display panel 210 of the display device 200 is equal to the position of the pointer in the image displayed on the display panel 160 of the electronic device 100.

このため、利用者は、電子機器100のディスプレイパネル160を見ずに、表示装置200のディスプレイパネル210を見ながら、手元の電子機器100のトップパネル120に近づけた指先をトップパネル120に触れることなく移動させると、指先の位置をポインタ211で確認することができる。   For this reason, the user touches the top panel 120 with the fingertip close to the top panel 120 of the electronic device 100 at hand while looking at the display panel 210 of the display device 200 without looking at the display panel 160 of the electronic device 100. If it is moved without any change, the position of the fingertip can be confirmed with the pointer 211.

電子機器100のディスプレイパネル160に表示されるポインタは、指先の陰になって見えにくいが、利用者の眼前にある表示装置200のディスプレイパネル210に表示されるポインタ211は、利用者にとって非常に見えやすいものである。   The pointer displayed on the display panel 160 of the electronic device 100 is difficult to see behind the fingertip, but the pointer 211 displayed on the display panel 210 of the display device 200 in front of the user's eyes is very much for the user. It is easy to see.

なお、ディスプレイパネル210は、液晶のディスプレイパネルに限らず、有機EL(Electroluminescence)ディスプレイパネルであってもよく、プラズマディスプレイパネルであってもよい。また、表示装置200の代わりに、プロジェクター装置から画像が投影されるスクリーンを用いてもよく、電子機器100とは独立して設けられる、様々な形式の画像表示装置であってよい。   The display panel 210 is not limited to a liquid crystal display panel, and may be an organic EL (Electroluminescence) display panel or a plasma display panel. Instead of the display device 200, a screen on which an image is projected from the projector device may be used, and various types of image display devices provided independently of the electronic device 100 may be used.

また、ここでは、表示装置200のディスプレイパネル210が、電子機器100のディスプレイパネル160と同一内容の画像を表示する形態について説明する。ディスプレイパネル210が表示する画像の中におけるポインタ211の位置は、電子機器100のディスプレイパネル160が表示する画像の中におけるポインタの位置と等しい。   Here, a mode in which the display panel 210 of the display device 200 displays an image having the same content as the display panel 160 of the electronic device 100 will be described. The position of the pointer 211 in the image displayed on the display panel 210 is equal to the position of the pointer in the image displayed on the display panel 160 of the electronic device 100.

しかしながら、ディスプレイパネル210が表示する画像は、電子機器100のディスプレイパネル160と完全に同一の画像ではなくてもよい。例えば、ディスプレイパネル160が表示する画像の一部をディスプレイパネル210に表示してもよい。   However, the image displayed on the display panel 210 may not be the same image as the display panel 160 of the electronic device 100. For example, a part of an image displayed on the display panel 160 may be displayed on the display panel 210.

また、ディスプレイパネル160が表示する画像に含まれる一部のデータを省いてもよい。例えば、ディスプレイパネル160に表示される時刻等のデータを省いてディスプレイパネル210に表示してもよい。   Further, some data included in the image displayed on the display panel 160 may be omitted. For example, data such as time displayed on the display panel 160 may be omitted and displayed on the display panel 210.

また、これとは逆に、ディスプレイパネル160が表示する画像に対して、データを追加した画像をディスプレイパネル210に表示してもよい。例えば、電子機器100の利用者の名前(実名)、ハンドルネーム、又はID(Identification)等を表すデータ追加した画像をディスプレイパネル210に表示してもよい。   Conversely, an image obtained by adding data to the image displayed on the display panel 160 may be displayed on the display panel 210. For example, an image to which data representing the name (real name), handle name, or ID (Identification) of the user of the electronic device 100 is added may be displayed on the display panel 210.

ディスプレイパネル210は、ディスプレイパネル160に表示されるGUI部品とポインタとの相対位置関係を保持して、GUI部品とポインタ211を表示することができるものであればよい。   The display panel 210 may be any display panel that can display the GUI component and the pointer 211 while maintaining the relative positional relationship between the GUI component displayed on the display panel 160 and the pointer.

次に、図5を用いて、入力支援システム300のより詳細なハードウェア構成について説明する。   Next, a more detailed hardware configuration of the input support system 300 will be described with reference to FIG.

図5は、入力支援システム300のより詳細なハードウェア構成を示す図である。電子機器100及び表示装置200は、入力支援システム300を構築する。   FIG. 5 is a diagram showing a more detailed hardware configuration of the input support system 300. The electronic device 100 and the display device 200 construct an input support system 300.

電子機器100は、制御部140を含む。図5では電子機器100の構成要素のうちの制御部140以外を省略して示す。制御部140は、図3に示す筐体110の内部に配設される。   Electronic device 100 includes a control unit 140. In FIG. 5, components other than the control unit 140 among the components of the electronic device 100 are omitted. The control unit 140 is disposed inside the housing 110 shown in FIG.

制御部140は、第1制御部の一例であり、CPU(Central Processing Unit)141、ディスプレイインターフェース142、タッチパネルインターフェース143、無線通信インターフェース144、バス145、RAM(Random Access Memory)146、内蔵ストレージ147、及び記憶媒体148を含む。   The control unit 140 is an example of a first control unit, and includes a CPU (Central Processing Unit) 141, a display interface 142, a touch panel interface 143, a wireless communication interface 144, a bus 145, a RAM (Random Access Memory) 146, a built-in storage 147, And a storage medium 148.

CPU141は、電子機器100の動作に伴う処理を行う演算処理部である。CPU141は、バス145によって、ディスプレイインターフェース142、タッチパネルインターフェース143、無線通信インターフェース144、バス145、RAM146、内蔵ストレージ147、及び記憶媒体148に接続されている。   The CPU 141 is an arithmetic processing unit that performs processing associated with the operation of the electronic device 100. The CPU 141 is connected to the display interface 142, the touch panel interface 143, the wireless communication interface 144, the bus 145, the RAM 146, the built-in storage 147, and the storage medium 148 through the bus 145.

CPU141は、アプリケーションプロセッサ141Aを有する。アプリケーションプロセッサ141Aは、オペレーティングシステム(OS:Operating System)を実行するとともに、電子機器100の種々のアプリケーションを実行する処理を行う。また、アプリケーションプロセッサ141Aは、ポインタ制御部141Bを有する。なお、CPU141は、アプリケーションプロセッサ141Aの他に、ベースバンドプロセッサ及びメモリコントローラ等を含むが、ここでは省略する。   The CPU 141 has an application processor 141A. The application processor 141A executes an operating system (OS) and performs processing for executing various applications of the electronic device 100. In addition, the application processor 141A includes a pointer control unit 141B. In addition to the application processor 141A, the CPU 141 includes a baseband processor, a memory controller, and the like, which are omitted here.

ポインタ制御部141Bは、タッチパネル150のホバリング機能による出力に応じて、ディスプレイパネル160に表示するポインタの位置を制御する。このようなポインタ制御部141Bは、例えば、OSの1つの機能として実現される。   The pointer control unit 141B controls the position of the pointer displayed on the display panel 160 according to the output from the hovering function of the touch panel 150. Such a pointer control unit 141B is realized as one function of the OS, for example.

ポインタ制御部141Bは、トップパネル120に触れることなく近づけられた指先の位置を検出し、指先の位置をディスプレイパネル160に投影した位置に、ポインタを表示する。   The pointer control unit 141B detects the position of the fingertip that is brought close without touching the top panel 120, and displays the pointer at a position where the position of the fingertip is projected on the display panel 160.

タッチパネル150がホバリング機能によって検出する指先の位置の座標(X1,Y1,Z1)であるときに、ポインタ制御部141Bは、ディスプレイパネル160の座標(X1,Y1)にポインタを表示する。   When the touch panel 150 has the coordinates (X1, Y1, Z1) of the position of the fingertip detected by the hovering function, the pointer control unit 141B displays the pointer at the coordinates (X1, Y1) of the display panel 160.

利用者の指先がトップパネル120に非接触で近接しているときにタッチパネル150がホバリング機能によって検出する指先の位置の座標(X1,Y1,Z1)を表すデータと、利用者の指先がトップパネル120に接触しているときにタッチパネル150が検出する指先の位置の座標を表すデータとは、静電容量の変化の度合が異なる。   Data representing the coordinates (X1, Y1, Z1) of the position of the fingertip detected by the touch panel 150 by the hovering function when the user's fingertip is in close contact with the top panel 120, and the user's fingertip is the top panel The degree of change in capacitance is different from the data representing the coordinates of the position of the fingertip detected by the touch panel 150 when touching 120.

このため、例えば、電子機器100にインストールされるOSが静電容量の変化の度合の閾値を用いれば、ホバリング機能によって検出する指先の位置の座標を表すデータと、利用者の指先がトップパネル120に接触しているときにタッチパネル150が検出する指先の位置の座標を表すデータとを区別することができる。   For this reason, for example, if the OS installed in the electronic device 100 uses a threshold value of the degree of change in capacitance, the data representing the coordinates of the position of the fingertip detected by the hovering function and the fingertip of the user are displayed on the top panel 120. It can be distinguished from data representing the coordinates of the position of the fingertip detected by the touch panel 150 when touching.

ポインタ制御部141Bは、タッチパネル150がホバリング機能によって検出する指先の位置の座標(X1,Y1,Z1)を表すデータを用いて、Z座標が所定値以下になったときに、ディスプレイパネル160にポインタを表示する。すなわち、ポインタ制御部141Bによってディスプレイパネル160にポインタが表示されるのは、指先がトップパネル120にある程度近づいた(Z座標が所定値以下になった)ときである。   The pointer control unit 141B uses the data representing the coordinates (X1, Y1, Z1) of the position of the fingertip detected by the touch panel 150 by the hovering function, and displays a pointer on the display panel 160 when the Z coordinate becomes a predetermined value or less. Is displayed. That is, the pointer is displayed on the display panel 160 by the pointer control unit 141B when the fingertip approaches the top panel 120 to some extent (Z coordinate becomes equal to or less than a predetermined value).

ここで、トップパネル120に触れることなく(非接触で)指先を近づけることは、ディスプレイパネル160にポインタを表示するための操作になるため、近接操作と称す。近接操作による指先の位置の座標(X,Y,Z)は、タッチパネル150のホバリング機能によって検出される。   Here, bringing the fingertip close without touching the top panel 120 (without touching) is an operation for displaying a pointer on the display panel 160, and hence is referred to as a proximity operation. The coordinates (X, Y, Z) of the position of the fingertip by the proximity operation are detected by the hovering function of the touch panel 150.

近接操作によってディスプレイパネル160に表示されるポインタについては、図6を用いて後述する。   The pointer displayed on the display panel 160 by the proximity operation will be described later with reference to FIG.

ディスプレイインターフェース142には、図2及び図3に示すディスプレイパネル160が接続される。タッチパネルインターフェース143には、図2及び図3に示すタッチパネル150が接続される。また、無線通信インターフェース144には、RF(Radio Frequency)トランシーバ等の通信系のデバイス等が接続される。   A display panel 160 shown in FIGS. 2 and 3 is connected to the display interface 142. The touch panel 150 shown in FIGS. 2 and 3 is connected to the touch panel interface 143. The wireless communication interface 144 is connected to a communication device such as an RF (Radio Frequency) transceiver.

RAM146は、CPU141のメインメモリである。RAM146には、例えば、CPU141が実行するプログラムが展開される。内蔵ストレージ147は、電子機器100の動作に必要なデータ又はプログラムを格納するメモリであり、書き換え可能な記憶媒体である。記憶媒体148は、電子機器100の動作に必要なオペレーティングシステム(OS)、アプリケーションプログラム、及びデータファイル等を格納するメモリである。   A RAM 146 is a main memory of the CPU 141. For example, a program executed by the CPU 141 is expanded in the RAM 146. The built-in storage 147 is a memory that stores data or programs necessary for the operation of the electronic device 100, and is a rewritable storage medium. The storage medium 148 is a memory that stores an operating system (OS), application programs, data files, and the like necessary for the operation of the electronic device 100.

表示装置200は、ディスプレイパネル210、CPUチップ221、無線通信インターフェース222、及びバス223を含む。CPUチップ221は、バス223を通じて、ディスプレイパネル210と無線通信インターフェース222に接続される。   The display device 200 includes a display panel 210, a CPU chip 221, a wireless communication interface 222, and a bus 223. The CPU chip 221 is connected to the display panel 210 and the wireless communication interface 222 through the bus 223.

このようなハードウェア構成を有する電子機器100と表示装置200は、無線通信インターフェース144及び222を介してデータ通信を行う。なお、ここでは、電子機器100と表示装置200が、無線通信インターフェース144及び222を介してデータ通信を行う形態について説明するが、電子機器100と表示装置200は、例えば、USB(Universal Serial Bus)ケーブルを介して接続されることにより、有線でのデータ通信を行う構成であってもよい。   The electronic device 100 and the display device 200 having such a hardware configuration perform data communication via the wireless communication interfaces 144 and 222. Here, a mode in which the electronic device 100 and the display device 200 perform data communication via the wireless communication interfaces 144 and 222 will be described. However, the electronic device 100 and the display device 200 are, for example, a USB (Universal Serial Bus). It may be configured to perform wired data communication by being connected via a cable.

CPUチップ221は、無線通信インターフェース222を介して電子機器100から受信する画像データをディスプレイパネル210に表示する。これにより、表示装置200のディスプレイパネル210には、電子機器100のディスプレイパネル160と同一の画像が表示される。   The CPU chip 221 displays image data received from the electronic device 100 via the wireless communication interface 222 on the display panel 210. Thereby, the same image as the display panel 160 of the electronic device 100 is displayed on the display panel 210 of the display device 200.

次に、図6及び図7を用いて、電子機器100のディスプレイパネル160に表示されるポインタ161と、表示装置200のディスプレイパネル210に表示されるポインタ211について説明する。   Next, the pointer 161 displayed on the display panel 160 of the electronic device 100 and the pointer 211 displayed on the display panel 210 of the display device 200 will be described with reference to FIGS. 6 and 7.

図6及び図7は、電子機器100及び表示装置200の動作を説明する図である。   6 and 7 are diagrams for explaining operations of the electronic device 100 and the display device 200. FIG.

図6には、利用者の指先がトップパネル120に非接触で近づいており、平面視でアイコン181と182の間に位置している状態を示す。このとき、指先がトップパネル120にある程度近づく(Z座標が所定値以下になる)と、ポインタ制御部141Bは、ディスプレイパネル160にポインタ161を表示する。図6には、ポインタ161の大部分が指先に隠れて左端の一部分のみが見えている状態を示す。   FIG. 6 illustrates a state in which the user's fingertip is approaching the top panel 120 without contact and is positioned between the icons 181 and 182 in a plan view. At this time, when the fingertip approaches the top panel 120 to some extent (Z coordinate becomes a predetermined value or less), the pointer control unit 141B displays the pointer 161 on the display panel 160. FIG. 6 shows a state where most of the pointer 161 is hidden behind the fingertip and only a part of the left end is visible.

図6に示すように電子機器100のディスプレイパネル160にポインタ161が表示されているときに、表示装置200のディスプレイパネル210の表示は、図7に示すようになる。   When the pointer 161 is displayed on the display panel 160 of the electronic device 100 as shown in FIG. 6, the display on the display panel 210 of the display device 200 is as shown in FIG.

図7に示すように、表示装置200のディスプレイパネル210には、電子機器100のディスプレイパネル160に表示される画像と同一の画像が表示される。アイコン281と282は、それぞれ、電子機器100のディスプレイパネル160に表示されるアイコン181と182と同一である。アイコン181と182以外のアイコンについても、同一のものが表示される。そして、アイコン281と282の間には、ポインタ211が表示される。ポインタ211は、ディスプレイパネル160に表示されるポインタ161と同一である。   As shown in FIG. 7, the same image as that displayed on the display panel 160 of the electronic device 100 is displayed on the display panel 210 of the display device 200. The icons 281 and 282 are the same as the icons 181 and 182 displayed on the display panel 160 of the electronic device 100, respectively. The same icons are also displayed for icons other than the icons 181 and 182. A pointer 211 is displayed between the icons 281 and 282. The pointer 211 is the same as the pointer 161 displayed on the display panel 160.

表示装置200のディスプレイパネル210に表示されるアイコン281、282、その他のアイコン、及びポインタ211の位置関係は、すべて、電子機器100のディスプレイパネル160に表示されるアイコン181、182、その他のアイコン、及びポインタ161の位置関係と同一である。   The positional relationship between the icons 281 and 282 displayed on the display panel 210 of the display device 200, other icons, and the pointer 211 are all icons 181, 182 displayed on the display panel 160 of the electronic device 100, other icons, And the positional relationship of the pointer 161 is the same.

すなわち、表示装置200のディスプレイパネル210には、電子機器100のディスプレイパネル160に表示されるアイコン181、182、その他のアイコン、及びポインタ161の相対位置関係を保持して、アイコン281、282、その他のアイコン、及びポインタ211が表示される。   That is, the display panel 210 of the display device 200 holds the icons 281 and 182 displayed on the display panel 160 of the electronic device 100, other icons, and the relative positional relationship between the pointer 161, the icons 281 and 282, and the like. And the pointer 211 are displayed.

従って、図4に示すように電子機器100を手に持っている利用者が、指先をトップパネル120に接触させずに近づけると、ポインタ制御部141Bがディスプレイパネル160にポインタ161を表示し、表示装置200がディスプレイパネル210にポインタ211を表示する。   Therefore, when the user holding the electronic device 100 as shown in FIG. 4 approaches the fingertip without touching the top panel 120, the pointer control unit 141B displays the pointer 161 on the display panel 160, and the display The device 200 displays a pointer 211 on the display panel 210.

このため、利用者が、電子機器100のディスプレイパネル160を見ずに、表示装置200のディスプレイパネル210を見ながら、手元の電子機器100のトップパネル120に指先を近づけると、利用者は、トップパネル120に接触していない指先の位置をディスプレイパネル210に表示されるポインタ211の位置で認識することができる。   For this reason, when the user brings his fingertip close to the top panel 120 of the electronic device 100 at hand while looking at the display panel 210 of the display device 200 without looking at the display panel 160 of the electronic device 100, the user is The position of the fingertip not touching the panel 120 can be recognized by the position of the pointer 211 displayed on the display panel 210.

そして、利用者がトップパネル120に指先を接触させて操作入力を行うと、アプリケーションプロセッサ141Aがタッチパネル150によって検出される操作入力の位置の座標に基づいて、操作入力(タッチ)によって指定されたアプリケーションを実行する。例えば、ゲームのアイコンがタッチされた場合は、ゲームのアプリケーションが実行される。   When the user makes an operation input by bringing the fingertip into contact with the top panel 120, the application processor 141 </ b> A is an application designated by the operation input (touch) based on the coordinates of the position of the operation input detected by the touch panel 150. Execute. For example, when a game icon is touched, a game application is executed.

次に、図8を用いて、アプリケーションプロセッサ141Aによって実行される処理について説明する。   Next, processing executed by the application processor 141A will be described with reference to FIG.

図8は、アプリケーションプロセッサ141Aが実行する処理を示すフローチャートである。   FIG. 8 is a flowchart showing processing executed by the application processor 141A.

アプリケーションプロセッサ141Aは、無線通信インターフェース144を介して、表示装置200と無線通信で接続する(ステップS1)。   The application processor 141A is connected to the display device 200 through wireless communication via the wireless communication interface 144 (step S1).

アプリケーションプロセッサ141Aは、ディスプレイパネル160に表示している画像のデータを表示装置200に送信する(ステップS2)。   The application processor 141A transmits image data displayed on the display panel 160 to the display device 200 (step S2).

アプリケーションプロセッサ141Aは、近接操作による指先の位置の座標(X,Y,Z)を表すデータがタッチパネル150から入力されたかどうかを判定する(ステップS3)。利用者の指先がトップパネル120に近づいているかどうかを判定するためである。ステップS3の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   The application processor 141A determines whether data representing the coordinates (X, Y, Z) of the position of the fingertip by the proximity operation has been input from the touch panel 150 (step S3). This is to determine whether the user's fingertip is approaching the top panel 120. The process in step S3 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、近接操作による座標(X,Y,Z)のデータがタッチパネル150から入力された(S3:YES)と判定すると、Z座標が所定値以下であるかどうかを判定する(ステップS4)。所定値は、例えば、5mmである。ステップS4の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   If the application processor 141A determines that the coordinate (X, Y, Z) data by the proximity operation is input from the touch panel 150 (S3: YES), the application processor 141A determines whether the Z coordinate is equal to or less than a predetermined value (step S4). ). The predetermined value is, for example, 5 mm. The process in step S4 is executed by the pointer controller 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、Z座標が所定値以下である(S4:YES)と判定すると、ディスプレイパネル160にポインタ161を表示する(ステップS5)。なお、既にポインタ161をディスプレイパネル160に表示している場合は、アプリケーションプロセッサ141Aは、ステップS5において、ポインタ161をディスプレイパネル160に表示している状態を保持する。ステップS5の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   If the application processor 141A determines that the Z coordinate is equal to or smaller than the predetermined value (S4: YES), the application processor 141A displays the pointer 161 on the display panel 160 (step S5). If the pointer 161 is already displayed on the display panel 160, the application processor 141A holds the state where the pointer 161 is displayed on the display panel 160 in step S5. The process in step S5 is executed by the pointer controller 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、タッチパネル150の出力に基づき、操作入力(タッチ)が行われているかどうかを判定する(ステップS6)。アプリケーションプロセッサ141Aは、タッチパネル150の出力が、利用者の指先がトップパネル120に接触しているときにタッチパネル150が検出する指先の位置の座標を表すデータであるかどうかを判定することによってステップS6の判定を行う。   The application processor 141A determines whether an operation input (touch) is performed based on the output of the touch panel 150 (step S6). The application processor 141A determines whether the output of the touch panel 150 is data representing the coordinates of the position of the fingertip detected by the touch panel 150 when the user's fingertip is in contact with the top panel 120 (step S6). Judgment is made.

アプリケーションプロセッサ141Aは、操作入力(タッチ)が行われている(S6:YES)と判定すると、操作入力(タッチ)が行われた位置の座標に基づいて、所定の処理を行い、ディスプレイパネル160に表示する画像を更新する(ステップS7)。   If the application processor 141A determines that an operation input (touch) has been performed (S6: YES), the application processor 141A performs a predetermined process based on the coordinates of the position at which the operation input (touch) has been performed. The image to be displayed is updated (step S7).

所定の処理は、例えば、アプリケーションの実行、又は、実行中のアプリケーションにおける操作入力(タッチ)に対応する処理(GUI部品の表示又は移動等)である。   The predetermined process is, for example, a process (such as display or movement of a GUI component) corresponding to an execution of an application or an operation input (touch) in the application being executed.

アプリケーションプロセッサ141Aは、すべての処理が終了したかどうかを判定する(ステップS8)。   The application processor 141A determines whether all the processes have been completed (step S8).

すべての処理が終了したかどうかは、例えば、電源ボタンの操作によって、あるいは、近接操作及び操作入力が所定時間以上行われないことによって、電子機器100がスリープモードになるかどうかで判定すればよい。また、電源ボタンの長押しによって電子機器100の電源がオフにされた場合にも、すべての処理が終了したと判定してよい。   Whether or not all the processes have been completed may be determined, for example, by whether or not the electronic device 100 enters the sleep mode by operating the power button or by not performing the proximity operation and the operation input for a predetermined time or longer. . Further, even when the power of the electronic device 100 is turned off by long-pressing the power button, it may be determined that all processing has been completed.

アプリケーションプロセッサ141Aは、すべての処理が終了した(S8:YES)と判定すると、表示装置200との無線通信を切断する(ステップS9)。   If the application processor 141A determines that all the processes have been completed (S8: YES), the application processor 141A disconnects wireless communication with the display device 200 (step S9).

アプリケーションプロセッサ141Aは、ステップS9の処理を終えると、一連の処理を終了する(エンド)。   After finishing the process of step S9, the application processor 141A ends a series of processes (end).

なお、アプリケーションプロセッサ141Aは、ステップS3において、近接操作による座標(X,Y,Z)のデータがタッチパネル150から入力されていない(S3:NO)と判定すると、フローをステップS2にリターンする。ディスプレイパネル160に表示している画像のデータを表示装置200に送信するためである。   If the application processor 141A determines in step S3 that the coordinate (X, Y, Z) data by the proximity operation is not input from the touch panel 150 (S3: NO), the flow returns to step S2. This is because the image data displayed on the display panel 160 is transmitted to the display device 200.

また、アプリケーションプロセッサ141Aは、ステップS4において、Z座標が所定値以下ではない(S4:NO)と判定すると、ディスプレイパネル160にポインタ161を表示しているかどうかを判定する(ステップS10)。ポインタ161を表示している場合にZ座標が所定値以下ではないときには、ポインタ161を非表示にするためである。ステップS10の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   If the application processor 141A determines in step S4 that the Z coordinate is not less than or equal to the predetermined value (S4: NO), it determines whether or not the pointer 161 is displayed on the display panel 160 (step S10). This is because the pointer 161 is not displayed when the Z coordinate is not less than or equal to the predetermined value when the pointer 161 is displayed. The processing in step S10 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、ポインタ161を表示している(S10:YES)と判定すると、ポインタ161を非表示にする(ステップS11)。Z座標が所定値よりも大きい位置に指先が遠ざかったので、ポインタ161を非表示にする。ステップS11の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   If the application processor 141A determines that the pointer 161 is displayed (S10: YES), the application processor 141A hides the pointer 161 (step S11). Since the fingertip has moved away from the position where the Z coordinate is larger than the predetermined value, the pointer 161 is hidden. The processing in step S11 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、ステップS11の処理を終えると、フローをステップS2にリターンする。ディスプレイパネル160に表示している画像のデータを表示装置200に送信するためである。   After finishing the process of step S11, the application processor 141A returns the flow to step S2. This is because the image data displayed on the display panel 160 is transmitted to the display device 200.

また、アプリケーションプロセッサ141Aは、ディスプレイパネル160にポインタ161を表示していない(S10:NO)と判定すると、フローをステップS2にリターンする。   If the application processor 141A determines that the pointer 161 is not displayed on the display panel 160 (S10: NO), the flow returns to step S2.

アプリケーションプロセッサ141Aは、ステップS6において、操作入力(タッチ)が行われていない(S6:NO)と判定すると、フローをステップS2にリターンする。ディスプレイパネル160に表示している画像のデータを表示装置200に送信するためである。   If the application processor 141A determines in step S6 that no operation input (touch) has been performed (S6: NO), the flow returns to step S2. This is because the image data displayed on the display panel 160 is transmitted to the display device 200.

アプリケーションプロセッサ141Aは、ステップS8において、すべての処理が終了していない(S8:NO)と判定すると、フローをステップS2にリターンする。ディスプレイパネル160に表示している画像のデータを表示装置200に送信するためである。   If the application processor 141A determines in step S8 that all processing has not been completed (S8: NO), the flow returns to step S2. This is because the image data displayed on the display panel 160 is transmitted to the display device 200.

以上、実施の形態1によれば、利用者が指先をトップパネル120に接触させずに近づけると、ディスプレイパネル160にポインタ161が表示され、表示装置200のディスプレイパネル210にポインタ211が表示される。ディスプレイパネル210の表示内容は、ディスプレイパネル160の表示内容と同一であり、ポインタ211は、ディスプレイパネル160のポインタ161をディスプレイパネル210に表示したものである。   As described above, according to the first embodiment, when the user brings the fingertip close to the top panel 120 without touching, the pointer 161 is displayed on the display panel 160 and the pointer 211 is displayed on the display panel 210 of the display device 200. . The display content of the display panel 210 is the same as the display content of the display panel 160, and the pointer 211 is a display of the pointer 161 of the display panel 160 on the display panel 210.

ポインタ161は、手の陰になるため利用者にとって見えにくいが、利用者の眼前に配置される表示装置200のディスプレイパネル210に表示されるポインタ211は、利用者にとっては非常に見えやすいものである。   Although the pointer 161 is behind the hand, it is difficult for the user to see, but the pointer 211 displayed on the display panel 210 of the display device 200 arranged in front of the user's eyes is very easy for the user to see. is there.

このため、利用者が手元の電子機器100に操作入力を行う前に、トップパネル120に指先を接触させずに近づけているときに、指先の位置をポインタ211で容易かつ正確に認識することができる。   For this reason, the user can easily and accurately recognize the position of the fingertip with the pointer 211 when the user brings the fingertip close to the top panel 120 before performing an operation input to the electronic device 100 at hand. it can.

従って、実施の形態1によれば、操作性の良好な入力支援システム300、及び、電子機器100を提供することができる。   Therefore, according to the first embodiment, it is possible to provide the input support system 300 and the electronic device 100 with good operability.

例えば、電子機器100でゲームのアプリケーションを実行する場合に入力支援システム300を利用すれば、電子機器100を入力装置として利用し、非接触の状態でトップパネル120に近づけた指先の位置を表示装置200で認識できるので、非常に新しい感覚でゲームを楽しむことができる。   For example, if the input support system 300 is used when a game application is executed on the electronic device 100, the electronic device 100 is used as an input device, and the position of the fingertip close to the top panel 120 in a non-contact state is displayed on the display device. Since it can be recognized by 200, the game can be enjoyed with a very new feeling.

また、ゲーム以外の用途で電子機器100を利用するときでも、操作入力(タッチ)を行う前に、指先の位置を把握できるので、ミスタッチを抑制することができ、より簡単かつ確実な操作入力(タッチ)が可能になる。   Even when the electronic device 100 is used for purposes other than games, the position of the fingertip can be grasped before performing operation input (touch), so that mistouch can be suppressed, and simpler and more reliable operation input ( Touch).

なお、以上では、表示装置200のディスプレイパネル210が非常に大きい形態について説明したが、ディスプレイパネル210の大きさは、電子機器100のディスプレイパネル160と等しくてもよく、どのようなサイズであってもよい。   In the above, the display panel 210 of the display device 200 has been described as having a very large form. However, the size of the display panel 210 may be equal to the display panel 160 of the electronic device 100, and what size is it? Also good.

また、以上では、電子機器100と表示装置200を無線通信で接続する形態について説明したが、電子機器100と表示装置200を有線通信で接続してもよい。   In the above description, the electronic device 100 and the display device 200 are connected by wireless communication. However, the electronic device 100 and the display device 200 may be connected by wired communication.

また、以上では、入力支援システム300が電子機器100と表示装置200を含む形態について説明した。表示装置200は、一例として、100インチのディスプレイパネル210を含む大画面モニタである。   In the above description, the input support system 300 includes the electronic device 100 and the display device 200. The display device 200 is, for example, a large screen monitor including a 100-inch display panel 210.

しかしながら、表示装置200の代わりに、利用者が頭部に装着するヘッドマウントディスプレイを用いてもよい。   However, instead of the display device 200, a head mounted display that a user wears on the head may be used.

図9は、ヘッドマウントディスプレイ10を示す図である。ヘッドマウントディスプレイ10は、フレーム11及びディスプレイパネル12を有する。ヘッドマウントディスプレイ10を装着している利用者は、頭部にフレーム11を装着し、眼前に配置されるディスプレイパネル12を見る。   FIG. 9 is a diagram showing the head mounted display 10. The head mounted display 10 includes a frame 11 and a display panel 12. A user wearing the head mounted display 10 wears the frame 11 on the head and looks at the display panel 12 arranged in front of the eyes.

ディスプレイパネル12には、利用者の手元にある電子機器100のディスプレイパネル160に表示される画像と同一の画像が表示される。ヘッドマウントディスプレイ10を装着した状態では、利用者は、手元の電子機器100のディスプレイパネル160を見ることはできず、電子機器100に対して近接操作又を行いながら、ディスプレイパネル12に表示されるポインタを見て、操作入力を行う。   On the display panel 12, the same image as that displayed on the display panel 160 of the electronic device 100 at hand of the user is displayed. When the head mounted display 10 is mounted, the user cannot see the display panel 160 of the electronic device 100 at hand, and is displayed on the display panel 12 while performing a proximity operation on the electronic device 100. Look at the pointer and input the operation.

利用者が手元の電子機器100に操作入力を行う前に、トップパネル120に指先を接触させずに近づけているときに、指先の位置をディスプレイパネル12に表示されるポインタで容易かつ正確に認識することができる。   The user can easily and accurately recognize the position of the fingertip with the pointer displayed on the display panel 12 when the user is approaching the top panel 120 without touching it before operating the electronic device 100 at hand. can do.

従って、実施の形態1の変形例によれば、表示装置200の代わりに、利用者が頭部に装着するヘッドマウントディスプレイを用いることにより、操作性の良好な入力支援システム、及び、電子機器100を提供することができる。   Therefore, according to the modification of the first embodiment, by using a head-mounted display that a user wears on the head instead of the display device 200, the input support system with good operability and the electronic device 100 Can be provided.

<実施の形態2>
図10は、実施の形態2の入力支援システム300Aを示す図である。入力支援システム300Aは、電子機器100A、100B、100Cと、表示装置200とを含む。なお、図10では、電子機器100A、100B、100Cと、表示装置200とのブロック図で示す。
<Embodiment 2>
FIG. 10 is a diagram illustrating an input support system 300A according to the second embodiment. The input support system 300A includes electronic devices 100A, 100B, 100C, and a display device 200. 10 is a block diagram of the electronic devices 100A, 100B, and 100C and the display device 200.

電子機器100Aは、実施の形態1の電子機器100と基本的に同様であるが、電子機器100B、100Cを従属化させるための機能が追加されている。   The electronic device 100A is basically the same as the electronic device 100 of the first embodiment, but a function for making the electronic devices 100B and 100C subordinate is added.

電子機器100B、100Cは、電子機器100Aと同様の電子機器であるが、ここでは、電子機器100B、100Cは電子機器100Aに従属し、サブの電子機器として利用される。   The electronic devices 100B and 100C are the same electronic devices as the electronic device 100A. Here, the electronic devices 100B and 100C are subordinate to the electronic device 100A and are used as sub-electronic devices.

電子機器100Aは、実施の形態1の電子機器100と同様に、表示装置200と無線通信で接続される。また、電子機器100Aは、電子機器100B、100Cとも無線通信で接続される。電子機器100Aの無線通信インターフェース144と、電子機器100B、100Cの無線通信インターフェース144とを無線通信で接続することにより、電子機器100Aと、電子機器100B、100Cとが無線通信で接続される。   Electronic device 100A is connected to display device 200 by wireless communication, similarly to electronic device 100 of the first embodiment. The electronic device 100A is also connected to the electronic devices 100B and 100C by wireless communication. By connecting the wireless communication interface 144 of the electronic device 100A and the wireless communication interfaces 144 of the electronic devices 100B and 100C by wireless communication, the electronic device 100A and the electronic devices 100B and 100C are connected by wireless communication.

電子機器100Aは、電子機器100Aのディスプレイパネル160に表示される画像を電子機器100B、100Cに送信する。電子機器100B、100Cのディスプレイパネル160には、電子機器100Aのディスプレイパネル160に表示される画像と同一の画像が表示される。   The electronic device 100A transmits an image displayed on the display panel 160 of the electronic device 100A to the electronic devices 100B and 100C. The same image as the image displayed on the display panel 160 of the electronic device 100A is displayed on the display panel 160 of the electronic devices 100B and 100C.

電子機器100B、100Cのタッチパネル150がホバリング機能によって検出する指先の位置の座標を表すデータは、電子機器100Aに送信される。電子機器100Aのアプリケーションプロセッサ141Aは、電子機器100B、100Cに行われる近接操作の指先の位置の座標を表すデータのZ座標が所定値以下であれば、電子機器100Aのディスプレイパネル160に、電子機器100B、100Cのポインタを表示する。   Data representing the coordinates of the fingertip position detected by the touch panel 150 of the electronic devices 100B and 100C by the hovering function is transmitted to the electronic device 100A. The application processor 141A of the electronic device 100A displays the electronic device on the display panel 160 of the electronic device 100A if the Z coordinate of the data representing the coordinates of the fingertip position of the proximity operation performed on the electronic devices 100B and 100C is equal to or less than a predetermined value. The pointers 100B and 100C are displayed.

また、電子機器100Aは、電子機器100B、100Cのポインタを含む画像のデータを電子機器100B、100Cに送信する。この結果、電子機器100B、100Cのディスプレイパネル160に、電子機器100B、100Cに対して行われる近接操作による指先の位置に対応するポインタが表示される。   Also, the electronic device 100A transmits image data including the pointers of the electronic devices 100B and 100C to the electronic devices 100B and 100C. As a result, a pointer corresponding to the position of the fingertip by the proximity operation performed on the electronic devices 100B and 100C is displayed on the display panels 160 of the electronic devices 100B and 100C.

ここで、例えば、電子機器100Bに対して近接操作が行われて、電子機器100Cに対して近接操作が行われていない場合には、電子機器100Bに行われている近接操作による指先の位置を表すデータが電子機器100Aに送信される。   Here, for example, when the proximity operation is performed on the electronic device 100B and the proximity operation is not performed on the electronic device 100C, the position of the fingertip by the proximity operation performed on the electronic device 100B is determined. The representing data is transmitted to the electronic device 100A.

そして、電子機器100Aは、電子機器100Bに行われている近接操作の位置のZ座標が所定値以下であれば、電子機器100Aのディスプレイパネル160に、電子機器100Bに行われている近接操作の位置を表すポインタを表示する。   Then, if the Z coordinate of the position of the proximity operation performed on the electronic device 100B is equal to or less than a predetermined value, the electronic device 100A displays the proximity operation performed on the electronic device 100B on the display panel 160 of the electronic device 100A. Displays a pointer that represents the position.

また、電子機器100Aは、自己のディスプレイパネル160に表示されている画像のデータを電子機器100B、100Cに送信する。この結果、電子機器100B、100Cのディスプレイパネル160にも、電子機器100Bに行われている近接操作の位置を表すポインタが表示される。   Also, the electronic device 100A transmits image data displayed on the display panel 160 of the electronic device 100A to the electronic devices 100B and 100C. As a result, a pointer indicating the position of the proximity operation performed on the electronic device 100B is also displayed on the display panels 160 of the electronic devices 100B and 100C.

また、電子機器100Cに対して近接操作が行われて、電子機器100Bに対して近接操作が行われていない場合においても、同様の処理が行われ、電子機器100A、100B、100Cのディスプレイパネル160に、電子機器100Cに行われている近接操作の位置を表すポインタが表示される。   Further, when the proximity operation is performed on the electronic device 100C and the proximity operation is not performed on the electronic device 100B, the same processing is performed, and the display panels 160 of the electronic devices 100A, 100B, and 100C are performed. In addition, a pointer indicating the position of the proximity operation performed on the electronic device 100C is displayed.

なお、電子機器100Aについては、トップパネル120は第1トップパネルの一例であり、タッチパネル150は第1位置検出部の一例であり、ディスプレイパネル160は第1表示部の一例である。電子機器100Aの利用者は、第1利用者の一例である。   For electronic device 100A, top panel 120 is an example of a first top panel, touch panel 150 is an example of a first position detection unit, and display panel 160 is an example of a first display unit. The user of electronic device 100A is an example of a first user.

電子機器100Bについては、トップパネル120は第2トップパネルの一例であり、タッチパネル150は第2位置検出部の一例であり、ディスプレイパネル160は第2表示部の一例である。電子機器100Bの利用者は、第2利用者の一例である。   Regarding the electronic device 100B, the top panel 120 is an example of a second top panel, the touch panel 150 is an example of a second position detection unit, and the display panel 160 is an example of a second display unit. The user of electronic device 100B is an example of a second user.

電子機器100Cについては、トップパネル120は第2トップパネルの一例であり、タッチパネル150は第2位置検出部の一例であり、ディスプレイパネル160は第2表示部の一例である。電子機器100Cの利用者は、第2利用者の一例である。   Regarding the electronic device 100C, the top panel 120 is an example of a second top panel, the touch panel 150 is an example of a second position detection unit, and the display panel 160 is an example of a second display unit. The user of electronic device 100C is an example of a second user.

図11は、実施の形態2の電子機器100AのRAM146が保持するデータの一部を示す図である。   FIG. 11 is a diagram illustrating a part of data stored in the RAM 146 of the electronic device 100A according to the second embodiment.

図11に示すデータは、電子機器100B、100Cの近接操作の指先の位置の座標を表すデータであり、電子機器100AのRAM146が保持するデータである。   The data shown in FIG. 11 is data representing the coordinates of the position of the fingertip of the proximity operation of the electronic devices 100B and 100C, and is data held in the RAM 146 of the electronic device 100A.

ID(Identification)は、電子機器100Aが電子機器100B、100Cに割り当てる識別子である。電子機器100Aは、従属化する電子機器100B、100CにIDを割り当てる。ここでは、一例として、電子機器100B、100CのIDは、それぞれ、0、1である。電子機器100Aは、従属化するサブの電子機器がn(nは1以上の任意の自然数)台ある場合は、IDを0から順番に割り当てる。サブの電子機器がn台ある場合のIDの値iは、i=0〜n−1である。   ID (Identification) is an identifier that the electronic device 100A assigns to the electronic devices 100B and 100C. The electronic device 100A assigns an ID to the subordinate electronic devices 100B and 100C. Here, as an example, the IDs of the electronic devices 100B and 100C are 0 and 1, respectively. When there are n subordinate electronic devices (n is an arbitrary natural number equal to or greater than 1), electronic device 100A assigns IDs in order from 0. The ID value i when there are n sub electronic devices is i = 0 to n−1.

また、電子機器100Aは、電子機器100B、100Cの近接操作の位置の座標を表すデータをIDと関連付けて保持する。ここでは、一例として、電子機器100B、100Cの近接操作の位置の座標は、それぞれ、(X2,Y2,Z2)、(X3,Y3,Z3)である。   Also, the electronic device 100A holds data representing the coordinates of the proximity operation position of the electronic devices 100B and 100C in association with the ID. Here, as an example, the coordinates of the positions of the proximity operations of the electronic devices 100B and 100C are (X2, Y2, Z2) and (X3, Y3, Z3), respectively.

電子機器100Aは、電子機器100B、100Cの近接操作の位置の座標を表すデータを電子機器100B、100Cから受信する度に更新する。電子機器100B、100Cの近接操作の位置の座標のうちのZ座標が所定値以下であれば、電子機器100Aのディスプレイパネル160にポインタを表示し、自己のディスプレイパネル160に表示する画像のデータを電子機器100B、100Cに送信する。   The electronic device 100A is updated every time data representing the coordinates of the position of the proximity operation of the electronic devices 100B and 100C is received from the electronic devices 100B and 100C. If the Z coordinate of the coordinates of the proximity operation positions of the electronic devices 100B and 100C is equal to or smaller than a predetermined value, a pointer is displayed on the display panel 160 of the electronic device 100A, and image data to be displayed on its own display panel 160 is displayed. It transmits to the electronic devices 100B and 100C.

図12は、電子機器100A、100B、100Cの近接操作によるポインタ161A、161B、161Cを示す図である。図13は、表示装置200のディスプレイパネル210に表示されるポインタ211A、211B、211Cを示す図である。   FIG. 12 is a diagram illustrating pointers 161A, 161B, and 161C by the proximity operation of electronic devices 100A, 100B, and 100C. FIG. 13 is a diagram illustrating pointers 211A, 211B, and 211C displayed on the display panel 210 of the display device 200.

図12及び図13には、電子機器100A、100B、100Cを利用する3人の利用者が、自分の操作するキャラクタを風景のどこに設置しようか近接操作で検討している状態の画像を示す。   FIGS. 12 and 13 show images in a state where three users who use the electronic devices 100A, 100B, and 100C are considering the location in the landscape where the character that they operate is being examined by the proximity operation.

図12に示すように、例えば、ゲームのアプリケーションを実行しているときに、ポインタ161A、161B、161Cを表示すれば、電子機器100A、100B、100Cをそれぞれ利用する3人の利用者は、お互いに近接操作でどの辺りに操作入力(タッチ)を行おうとしているのかが分かる。このため、電子機器100A、100B、100Cの利用価値が飛躍的に高まる。   As shown in FIG. 12, for example, when the pointers 161A, 161B, and 161C are displayed while a game application is being executed, the three users who use the electronic devices 100A, 100B, and 100C, respectively, It can be seen where the operation input (touch) is to be performed by the proximity operation. For this reason, the utility value of the electronic devices 100A, 100B, and 100C is dramatically increased.

次に、図14を用いて、電子機器100Bのアプリケーションプロセッサ141Aによって実行される処理について説明する。電子機器100Bのアプリケーションプロセッサ141Aと、電子機器100Cのアプリケーションプロセッサ141Aとは同一の処理を実行するため、ここでは、電子機器100Bのアプリケーションプロセッサ141Aが実行する処理について説明する。   Next, processing executed by the application processor 141A of the electronic device 100B will be described using FIG. Since the application processor 141A of the electronic device 100B and the application processor 141A of the electronic device 100C execute the same processing, the processing executed by the application processor 141A of the electronic device 100B will be described here.

図14は、電子機器100Bのアプリケーションプロセッサ141Aが実行する処理を示すフローチャートである。   FIG. 14 is a flowchart illustrating processing executed by the application processor 141A of the electronic device 100B.

アプリケーションプロセッサ141Aは、無線通信インターフェース144を介して、電子機器100Aと無線で接続する(ステップS21)。   The application processor 141A wirelessly connects to the electronic device 100A via the wireless communication interface 144 (step S21).

アプリケーションプロセッサ141Aは、電子機器100Aから、電子機器100Aのディスプレイパネル160に表示している画像のデータを受信し、自己のディスプレイパネル160に表示する(ステップS22)。   The application processor 141A receives data of an image displayed on the display panel 160 of the electronic device 100A from the electronic device 100A, and displays it on its display panel 160 (step S22).

アプリケーションプロセッサ141Aは、タッチパネル150がホバリング機能によって検出する指先の位置の座標(X2,Y2,Z2)を表すデータがタッチパネル150から入力されたかどうかを判定する(ステップS23)。利用者が近接操作を行っているかどうかを判定するためである。ステップS23の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   The application processor 141A determines whether data representing the coordinates (X2, Y2, Z2) of the fingertip position detected by the touch panel 150 by the hovering function is input from the touch panel 150 (step S23). This is to determine whether the user is performing a proximity operation. The process in step S23 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、近接操作による指先の位置の座標(X2,Y2,Z2)のデータがタッチパネル150から入力された(S23:YES)と判定すると、座標(X2,Y2,Z2)を表すデータを電子機器100Aに送信する(ステップS24)。   If the application processor 141A determines that the data of the coordinates (X2, Y2, Z2) of the fingertip position by the proximity operation are input from the touch panel 150 (S23: YES), the data representing the coordinates (X2, Y2, Z2) is obtained. It transmits to the electronic device 100A (step S24).

アプリケーションプロセッサ141Aは、無線通信が切断されたかどうかを判定する(ステップS25)。   The application processor 141A determines whether the wireless communication is disconnected (step S25).

アプリケーションプロセッサ141Aは、無線通信が切断された(S25:YES)と判定すると、一連のフローを終了する(エンド)。   If the application processor 141A determines that the wireless communication is disconnected (S25: YES), the application processor 141A ends the series of flows (end).

アプリケーションプロセッサ141Aは、無線通信が切断されてない(S25:NO)と判定すると、フローをステップS22にリターンする。電子機器100Aのディスプレイパネル160に表示している画像のデータを自己のディスプレイパネル160に表示するためである。   If the application processor 141A determines that the wireless communication is not disconnected (S25: NO), the flow returns to step S22. This is because the image data displayed on the display panel 160 of the electronic device 100A is displayed on the display panel 160 of the electronic apparatus 100A.

また、アプリケーションプロセッサ141Aは、ステップS23において、座標(X2,Y2,Z2)のデータがタッチパネル150から入力されていない(S23:NO)と判定すると、フローをステップS22にリターンする。電子機器100Aのディスプレイパネル160に表示している画像のデータを自己のディスプレイパネル160に表示するためである。   If the application processor 141A determines in step S23 that the data of the coordinates (X2, Y2, Z2) has not been input from the touch panel 150 (S23: NO), the flow returns to step S22. This is because the image data displayed on the display panel 160 of the electronic device 100A is displayed on the display panel 160 of the electronic apparatus 100A.

以上のような処理により、電子機器100Bのアプリケーションプロセッサ141Aは、近接操作による指先の位置の座標(X2,Y2,Z2)のデータを取得し、電子機器100Aに送信する。   Through the processing as described above, the application processor 141A of the electronic device 100B acquires the data of the coordinates (X2, Y2, Z2) of the fingertip position by the proximity operation and transmits the data to the electronic device 100A.

次に、図15を用いて、電子機器100Aのアプリケーションプロセッサ141Aによって実行される処理について説明する。   Next, processing executed by the application processor 141A of the electronic device 100A will be described with reference to FIG.

図15は、電子機器100Aのアプリケーションプロセッサ141Aが実行する処理を示すフローチャートである。   FIG. 15 is a flowchart illustrating processing executed by the application processor 141A of the electronic device 100A.

アプリケーションプロセッサ141Aは、無線通信インターフェース144を介して、表示装置200と無線通信で接続する(ステップS31)。   The application processor 141A connects to the display device 200 through wireless communication via the wireless communication interface 144 (step S31).

アプリケーションプロセッサ141Aは、無線通信インターフェース144を介して、サブの電子機器と無線通信で接続する(ステップS32)。ここでは、電子機器100B、100Cと接続されたこととする。なお、サブの電子機器の数は、幾つであってもよい。   The application processor 141A connects to the sub electronic device by wireless communication via the wireless communication interface 144 (step S32). Here, it is assumed that the electronic devices 100B and 100C are connected. Note that the number of sub electronic devices may be any number.

アプリケーションプロセッサ141Aは、サブの電子機器にIDを割り当て、サブの電子機器にIDを表すデータを送信する(ステップS33)。ここでは、電子機器100B、100Cに、IDとして001、002をそれぞれ割り当てて、IDを表すデータを電子機器100B、100Cに送信したこととする。   The application processor 141A assigns an ID to the sub electronic device, and transmits data representing the ID to the sub electronic device (step S33). Here, it is assumed that IDs 001 and 002 are assigned to the electronic devices 100B and 100C, respectively, and data representing the ID is transmitted to the electronic devices 100B and 100C.

なお、電子機器100B、100CにIDを割り当てる前に無線通信を行う段階では、電子機器100B、100Cの固有の識別子を利用して、電子機器100Bと100Cの違いを認識することができる。電子機器100B、100Cに割り当てるIDと、電子機器100B、100Cの固有の識別子とを関連付けたデータを、電子機器100Aの内部メモリに補間しておけばよい。   Note that, in the stage of performing wireless communication before assigning IDs to the electronic devices 100B and 100C, the difference between the electronic devices 100B and 100C can be recognized using the unique identifiers of the electronic devices 100B and 100C. Data that associates the IDs assigned to the electronic devices 100B and 100C with the unique identifiers of the electronic devices 100B and 100C may be interpolated in the internal memory of the electronic device 100A.

アプリケーションプロセッサ141Aは、ディスプレイパネル160に表示している画像のデータを表示装置200と電子機器100B、100Cに送信する(ステップS34)。   The application processor 141A transmits the image data displayed on the display panel 160 to the display device 200 and the electronic devices 100B and 100C (step S34).

アプリケーションプロセッサ141Aは、タッチパネル150がホバリング機能によって検出する指先の位置の座標(X,Y,Z)を表すデータがタッチパネル150から入力されたかどうかを判定する(ステップS35)。利用者の指先がトップパネル120に近づいているかどうかを判定するためである。ステップS35の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   The application processor 141A determines whether data representing the coordinates (X, Y, Z) of the position of the fingertip detected by the touch panel 150 by the hovering function has been input from the touch panel 150 (step S35). This is to determine whether the user's fingertip is approaching the top panel 120. The process in step S35 is executed by the pointer controller 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、ホバリング機能による座標(X,Y,Z)のデータがタッチパネル150から入力された(S35:YES)と判定すると、Z座標が所定値以下であるかどうかを判定する(ステップS36)。所定値は、例えば、5mmである。ステップS4の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   If the application processor 141A determines that the coordinate (X, Y, Z) data by the hovering function is input from the touch panel 150 (S35: YES), the application processor 141A determines whether the Z coordinate is equal to or less than a predetermined value (step S36). ). The predetermined value is, for example, 5 mm. The process in step S4 is executed by the pointer controller 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、Z座標が所定値以下である(S36:YES)と判定すると、ディスプレイパネル160にポインタ161Aを表示する(ステップS37)。なお、既にポインタ161Aをディスプレイパネル160に表示している場合は、アプリケーションプロセッサ141Aは、ステップS37において、ポインタ161Aをディスプレイパネル160に表示している状態を保持する。ステップS37の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   If the application processor 141A determines that the Z coordinate is equal to or smaller than the predetermined value (S36: YES), the application processor 141A displays the pointer 161A on the display panel 160 (step S37). If the pointer 161A is already displayed on the display panel 160, the application processor 141A maintains the state where the pointer 161A is displayed on the display panel 160 in step S37. The process in step S37 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、タッチパネル150の出力に基づき、操作入力(タッチ)が行われているかどうかを判定する(ステップS38)。アプリケーションプロセッサ141Aは、タッチパネル150の出力が、利用者の指先がトップパネル120に接触しているときにタッチパネル150が検出する指先の位置の座標を表すデータであるかどうかを判定することによってステップS38の判定を行う。   The application processor 141A determines whether an operation input (touch) is performed based on the output of the touch panel 150 (step S38). The application processor 141A determines whether the output of the touch panel 150 is data representing the coordinates of the position of the fingertip detected by the touch panel 150 when the user's fingertip is in contact with the top panel 120 (step S38). Judgment is made.

アプリケーションプロセッサ141Aは、操作入力(タッチ)が行われている(S38:YES)と判定すると、操作入力(タッチ)が行われた位置の座標に基づいて、所定の処理を行い、ディスプレイパネル160に表示する画像を更新する(ステップS39)。   If the application processor 141A determines that an operation input (touch) has been performed (S38: YES), the application processor 141A performs a predetermined process based on the coordinates of the position at which the operation input (touch) has been performed, and displays it on the display panel 160. The image to be displayed is updated (step S39).

所定の処理は、例えば、アプリケーションの実行、又は、実行中のアプリケーションにおける操作入力(タッチ)に対応する処理(GUI部品の表示又は移動等)である。   The predetermined process is, for example, a process (such as display or movement of a GUI component) corresponding to an execution of an application or an operation input (touch) in the application being executed.

なお、アプリケーションプロセッサ141Aは、ステップS35において、近接操作による座標(X,Y,Z)のデータがタッチパネル150から入力されていない(S35:NO)と判定すると、フローをステップS40に進行させる。   If the application processor 141A determines in step S35 that the coordinate (X, Y, Z) data by the proximity operation is not input from the touch panel 150 (S35: NO), the flow proceeds to step S40.

また、アプリケーションプロセッサ141Aは、ステップS36において、Z座標が所定値以下ではない(S36:NO)と判定した場合と、ステップS38において、操作入力(タッチ)が行われていない(S38:YES)と判定した場合にも、フローをステップS40に進行させる。   The application processor 141A determines that the Z coordinate is not less than or equal to the predetermined value (S36: NO) in step S36, and that no operation input (touch) has been performed in step S38 (S38: YES). Also when it determines, a flow is advanced to step S40.

これらの場合に、フローをステップS40に進行させるのは、サブの電子機器100B、100Cから受信する近接操作の位置の座標に基づいて、ポインタ161B、161Cを表示するための処理を行うためである。   In these cases, the flow proceeds to step S40 in order to perform processing for displaying the pointers 161B and 161C based on the coordinates of the position of the proximity operation received from the sub electronic devices 100B and 100C. .

アプリケーションプロセッサ141Aは、近接操作の座標のデータを受信する電子機器のIDの値iを0に設定する(ステップS40)。IDが0のサブの電子機器から順番に近接操作の座標のデータを受信するためである。   The application processor 141A sets the ID value i of the electronic device that receives the proximity operation coordinate data to 0 (step S40). This is because the coordinate data of the proximity operation is received in order from the sub electronic device whose ID is 0.

アプリケーションプロセッサ141Aは、IDがiのサブの電子機器から、近接操作の指先の座標(X,Y,Z)を表すデータを受信したかどうかを判定する(ステップS41)。   The application processor 141A determines whether or not data representing the coordinates (X, Y, Z) of the fingertip of the proximity operation has been received from the sub-electronic device whose ID is i (step S41).

利用者の指先がトップパネル120に近づいているかどうかを判定するためである。ステップS41の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   This is to determine whether the user's fingertip is approaching the top panel 120. The process in step S41 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、近接操作の指先の座標(X,Y,Z)を表すデータを受信した(S41:YES)と判定すると、Z座標の値が所定値以下であるかどうかを判定する(ステップS42)。ここでは、所定値は、一例として、5mmである。ステップS41の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   If the application processor 141A determines that the data representing the coordinates (X, Y, Z) of the fingertip of the proximity operation has been received (S41: YES), the application processor 141A determines whether the value of the Z coordinate is equal to or less than a predetermined value (step S41). S42). Here, the predetermined value is 5 mm as an example. The process in step S41 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、Z座標が所定値以下である(S42:YES)と判定すると、ディスプレイパネル160にIDがiのサブの電子機器のポインタを表示する(ステップS43)。   If the application processor 141A determines that the Z coordinate is equal to or smaller than the predetermined value (S42: YES), the application processor 141A displays a pointer of the sub-electronic device whose ID is i on the display panel 160 (step S43).

なお、例えば、既に電子機器100Bのポインタ161Bをディスプレイパネル160に表示している場合に、ステップS43でポインタ161Bを表示すると判定した場合は、アプリケーションプロセッサ141Aは、ポインタ161Bをディスプレイパネル160に表示している状態を保持する。ステップS43の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   For example, when the pointer 161B of the electronic device 100B is already displayed on the display panel 160, if it is determined in step S43 that the pointer 161B is displayed, the application processor 141A displays the pointer 161B on the display panel 160. Hold the state. The process of step S43 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、IDがiのサブの電子機器のタッチパネル150の出力に基づき、操作入力(タッチ)が行われているかどうかを判定する(ステップS44)。アプリケーションプロセッサ141Aは、IDがiのサブの電子機器のタッチパネル150の出力が、利用者の指先がトップパネル120に接触しているときにタッチパネル150が検出する指先の位置の座標を表すデータであるかどうかを判定することによってステップS44の判定を行う。   The application processor 141A determines whether or not an operation input (touch) has been performed based on the output of the touch panel 150 of the sub electronic device whose ID is i (step S44). The application processor 141 </ b> A is data representing the coordinates of the position of the fingertip detected by the touch panel 150 when the output of the touch panel 150 of the sub-electronic device whose ID is i is in contact with the top panel 120. The determination of step S44 is performed by determining whether or not.

アプリケーションプロセッサ141Aは、操作入力(タッチ)が行われている(S44:YES)と判定すると、操作入力(タッチ)が行われた位置の座標に基づいて、所定の処理を行い、ディスプレイパネル160に表示する画像を更新する(ステップS45)。   If the application processor 141A determines that an operation input (touch) has been performed (S44: YES), the application processor 141A performs a predetermined process based on the coordinates of the position at which the operation input (touch) has been performed. The image to be displayed is updated (step S45).

所定の処理は、例えば、IDがiのサブの電子機器100Bの操作に基づくアプリケーションの実行、又は、実行中のアプリケーションにおける操作入力(タッチ)に対応する処理(GUI部品の表示又は移動等)である。   The predetermined process is, for example, a process (such as display or movement of a GUI component) corresponding to an execution of an application based on an operation of the sub electronic device 100B whose ID is i, or an operation input (touch) in the application being executed. is there.

アプリケーションプロセッサ141Aは、IDの値iをインクリメントする(i=i+1)(ステップS46)。次のIDのサブの電子機器について処理を行うためである。   The application processor 141A increments the ID value i (i = i + 1) (step S46). This is because the processing is performed for the sub-electronic device having the next ID.

アプリケーションプロセッサ141Aは、IDの値iがnに到達したかどうかを判定する(ステップS47)。すべてのサブの電子機器について処理を行ったかどうかを判定するためである。   The application processor 141A determines whether or not the ID value i has reached n (step S47). This is for determining whether or not processing has been performed for all the sub-electronic devices.

アプリケーションプロセッサ141Aは、IDの値iがnに到達した(S47:YES)と判定すると、すべての処理が終了したかどうかを判定する(ステップS48)。   When the application processor 141A determines that the ID value i has reached n (S47: YES), the application processor 141A determines whether all the processes have been completed (step S48).

アプリケーションプロセッサ141Aは、すべての処理が終了した(S48:YES)と判定すると、サブの電子機器との無線通信を切断する(ステップS49)。   If the application processor 141A determines that all the processes have been completed (S48: YES), the application processor 141A disconnects the wireless communication with the sub electronic device (step S49).

次いで、アプリケーションプロセッサ141Aは、表示装置200との無線通信を切断する(ステップS50)。   Next, the application processor 141A disconnects wireless communication with the display device 200 (step S50).

アプリケーションプロセッサ141Aは、ステップS50の処理を終えると、一連の処理を終了する(エンド)。   After finishing the process of step S50, the application processor 141A ends a series of processes (end).

なお、アプリケーションプロセッサ141Aは、ステップS41において、近接操作による座標(X,Y,Z)のデータをIDがiのサブの電子機器から受信していない(S41:NO)と判定すると、フローをステップS46に進行させる。   If the application processor 141A determines in step S41 that the coordinate (X, Y, Z) data by the proximity operation has not been received from the sub electronic device with ID i (S41: NO), the flow proceeds to step S41. Proceed to S46.

また、アプリケーションプロセッサ141Aは、ステップS42において、Z座標が所定値以下ではない(S42:NO)と判定した場合と、ステップS44において、操作入力(タッチ)が行われていない(S44:YES)と判定した場合にも、フローをステップS46に進行させる。   The application processor 141A determines that the Z coordinate is not less than or equal to the predetermined value (S42: NO) in step S42, and that no operation input (touch) has been performed in step S44 (S44: YES). Also when it determines, a flow is advanced to step S46.

これらの場合に、フローをステップS46に進行させるのは、サブの電子機器から受信する近接操作の位置の座標に基づいて、ポインタを表示するための処理を行うためである。   In these cases, the flow proceeds to step S46 in order to perform processing for displaying the pointer based on the coordinates of the position of the proximity operation received from the sub electronic device.

また、アプリケーションプロセッサ141Aは、IDの値iがnに到達していない(S47:NO)と判定すると、フローをステップS41にリターンする。ステップS46でインクリメントしたIDの値iを有するサブの電子機器について、ステップS42〜S45の処理を実行するためである。   If the application processor 141A determines that the ID value i has not reached n (S47: NO), the flow returns to step S41. This is because the processing of steps S42 to S45 is executed for the sub electronic device having the ID value i incremented in step S46.

以上の処理を実行することにより、電子機器100Aのアプリケーションプロセッサ141Aが電子機器100A、100B、100Cに行われる近接操作に基づいてポインタ161A、161B、161Cを表示する処理を行うことにより、図12に示すようにポインタ161A、161B、161Cが表示される。また、表示装置200には、図13に示すように、ポインタ211A、211B、211Cが表示される。   By executing the above processing, the application processor 141A of the electronic device 100A performs the process of displaying the pointers 161A, 161B, and 161C based on the proximity operation performed on the electronic devices 100A, 100B, and 100C. As shown, pointers 161A, 161B, and 161C are displayed. Further, pointers 211A, 211B, and 211C are displayed on the display device 200 as shown in FIG.

そして、電子機器100A、100B、100Cに操作入力が行われると、入力内容に応じて、アプリケーションの実行、又は、実行中のアプリケーションにおける操作入力(タッチ)に対応する処理(GUI部品の表示又は移動等)が行われる。   When an operation input is performed on the electronic devices 100A, 100B, and 100C, processing corresponding to the execution of the application or the operation input (touch) in the application being executed (display or movement of the GUI component) is performed according to the input content. Etc.) is performed.

例えば、3人の利用者が電子機器100A、100B、100Cを用いてゲーム等を行えば、お互いの近接操作による指先の位置をポインタ161A、161B、161Cで知ることができる。また、お互いの操作入力がどこで行われるかをポインタ161A、161B、161Cで予想することができる。   For example, if three users play a game or the like using the electronic devices 100A, 100B, and 100C, the positions of the fingertips by the proximity operations can be known by the pointers 161A, 161B, and 161C. Further, the pointers 161A, 161B, and 161C can predict where the mutual operation input is performed.

以上、実施の形態2によれば、複数の利用者がそれぞれの電子機器100A、100B、100Cに近接操作を行うと、ディスプレイパネル160にポインタ161A、161B、161Cが表示され、表示装置200のディスプレイパネル210にポインタ211A、211B、211Cが表示される。   As described above, according to the second embodiment, when a plurality of users perform proximity operations on the respective electronic devices 100A, 100B, and 100C, the pointers 161A, 161B, and 161C are displayed on the display panel 160, and the display of the display device 200 is displayed. Pointers 211A, 211B, and 211C are displayed on the panel 210.

ディスプレイパネル210の表示内容は、電子機器100A、100B、100Cの各々のディスプレイパネル160の表示内容と同一であり、ポインタ211A、211B、211Cは、ディスプレイパネル160のポインタ161A、161B、161Cをディスプレイパネル210に表示したものである。   The display content of the display panel 210 is the same as the display content of the display panel 160 of each of the electronic devices 100A, 100B, and 100C. The pointers 211A, 211B, and 211C display the pointers 161A, 161B, and 161C of the display panel 160 as display panels. 210 is displayed.

ポインタ161A、161B、161Cは、それぞれ、手の陰になるため3人の利用者にとって見えにくいが、利用者の眼前に配置される表示装置200のディスプレイパネル210に表示されるポインタ211A、211B、211Cは、利用者にとっては非常に見えやすいものである。   The pointers 161A, 161B, and 161C are each hidden behind the hand and are difficult for the three users to see. However, the pointers 211A, 211B, and 211B displayed on the display panel 210 of the display device 200 disposed in front of the user's eyes. 211C is very easy for the user to see.

このため、3人の利用者がそれぞれ手元の電子機器100A、100B、100Cに操作入力を行う前に、トップパネル120に指先を接触させずに近づけているときに、指先の位置をポインタ211A、211B、211Cで容易かつ正確に認識することができる。   For this reason, when the three users approach the top panel 120 without touching the fingertips before performing operation input to the electronic devices 100A, 100B, and 100C at hand, the positions of the fingertips 211A, It can be easily and accurately recognized by 211B and 211C.

従って、実施の形態2によれば、操作性の良好な入力支援システム300A、及び、電子機器100A、100B、100Cを提供することができる。   Therefore, according to the second embodiment, it is possible to provide the input support system 300A with good operability and the electronic devices 100A, 100B, and 100C.

例えば、電子機器100A、100B、100Cでゲームのアプリケーションを実行する場合に入力支援システム300Aを利用すれば、電子機器100A、100B、100Cを入力装置として利用し、非接触の状態でトップパネル120に近づけた指先の位置を表示装置200で認識できるので、非常に新しい感覚でゲームを楽しむことができる。   For example, if the input support system 300A is used when a game application is executed on the electronic devices 100A, 100B, and 100C, the electronic devices 100A, 100B, and 100C are used as input devices, and the top panel 120 is contactless. Since the close fingertip position can be recognized by the display device 200, the game can be enjoyed in a very new sense.

また、ゲーム以外の用途で電子機器100A、100B、100Cを利用するときでも、操作入力(タッチ)を行う前に、指先の位置を把握できるので、ミスタッチを抑制することができ、より簡単かつ確実な操作入力(タッチ)が可能になる。   In addition, even when using the electronic devices 100A, 100B, and 100C for purposes other than games, it is possible to grasp the position of the fingertip before performing an operation input (touch), so that mistouch can be suppressed, making it easier and more reliable. Operation input (touch) becomes possible.

なお、以上では、表示装置200のディスプレイパネル210が非常に大きい形態について説明したが、ディスプレイパネル210の大きさは、電子機器100A、100B、100Cのディスプレイパネル160と等しくてもよく、どのようなサイズであってもよい。   In the above description, the display panel 210 of the display device 200 is very large. However, the size of the display panel 210 may be equal to the display panel 160 of the electronic devices 100A, 100B, and 100C. It may be a size.

また、以上では、一例として、3人の利用者がそれぞれ電子機器100A、100B、100Cを利用する形態について説明したが、実施の形態2では、利用者は2人以上いればよい。   In the above description, an example in which three users use electronic devices 100A, 100B, and 100C, respectively, has been described as an example. However, in the second embodiment, two or more users may be used.

また、実施の形態2では、3つの電子機器100A、100B、100Cのうちの電子機器100Aをメインの電子機器として機能させ、電子機器100B、100Cをサブの電子機器として機能させている。   In the second embodiment, among the three electronic devices 100A, 100B, and 100C, the electronic device 100A functions as a main electronic device, and the electronic devices 100B and 100C function as sub electronic devices.

3つの電子機器100A、100B、100Cのディスプレイパネル160に表示する内容は、すべてメインの電子機器100Aのアプリケーションプロセッサ141Aの処理によって決定される。また、表示装置200のディスプレイパネル210に表示する内容も、メインの電子機器100Aのアプリケーションプロセッサ141Aの処理によって決定される。   The contents displayed on the display panels 160 of the three electronic devices 100A, 100B, and 100C are all determined by the processing of the application processor 141A of the main electronic device 100A. The content displayed on the display panel 210 of the display device 200 is also determined by the processing of the application processor 141A of the main electronic device 100A.

このため、電子機器100Aが処理を統括することにより、複数の電子機器100A、100B、100Cへの近接操作に基づくポインタ161A、161B、161Cの表示と、操作入力に基づく処理の実行とを効率的かつ正確に行うことができる。また、サブとしての電子機器100B、100Cのアプリケーションプロセッサ141Aの処理の負担を軽減することができる。   For this reason, the electronic device 100A controls the processing to efficiently display the pointers 161A, 161B, and 161C based on the proximity operation to the plurality of electronic devices 100A, 100B, and 100C and execute the processing based on the operation input. And can be done accurately. In addition, it is possible to reduce the processing burden on the application processor 141A of the electronic devices 100B and 100C as subs.

あるいは、高速化および電子機器100Aの処理負担軽減のために、電子機器100Aのアプリケーションプロセッサ141Aが更新した画像を無線送信するのは、表示装置200に対してのみに行ってもよい。   Alternatively, the image transmitted by the application processor 141A of the electronic device 100A may be wirelessly transmitted only to the display device 200 in order to increase the speed and reduce the processing load on the electronic device 100A.

また、以上では、電子機器100A、100B、100Cと、表示装置200とを無線通信で接続する形態について説明したが、図16に示すように、電子機器100A、100B、100Cと、表示装置200とを有線通信で接続してもよい。   In the above description, the electronic devices 100A, 100B, and 100C and the display device 200 are connected by wireless communication. However, as shown in FIG. 16, the electronic devices 100A, 100B, and 100C, and the display device 200 are connected. May be connected by wired communication.

図16は、実施の形態2の変形例の入力支援システム300Bを示す図である。入力支援システム300Bは、電子機器100A1、100B1、100C1と、表示装置200Aと、有線通信ハブ20とを含む。   FIG. 16 is a diagram illustrating an input support system 300B according to a modification of the second embodiment. The input support system 300B includes electronic devices 100A1, 100B1, and 100C1, a display device 200A, and a wired communication hub 20.

電子機器100A1、100B1、100C1は、それぞれ、図10に示す電子機器100A、100B、100Cの無線通信インターフェース144を有線通信インターフェース144Aに変更したものである。その他の構成は、図10に示す電子機器100A、100B、100Cと同様である。   Electronic devices 100A1, 100B1, and 100C1 are obtained by changing the wireless communication interface 144 of the electronic devices 100A, 100B, and 100C illustrated in FIG. 10 to a wired communication interface 144A, respectively. Other configurations are the same as those of the electronic devices 100A, 100B, and 100C shown in FIG.

表示装置200Aは、図10に示す表示装置200の無線通信インターフェース222を有線通信インターフェース222Aに変更したものである。その他の構成は、図10に示す表示装置200と同様である。   The display device 200A is obtained by changing the wireless communication interface 222 of the display device 200 shown in FIG. 10 to a wired communication interface 222A. Other configurations are the same as those of the display device 200 shown in FIG.

電子機器100A1、100B1、100C1の有線通信インターフェース144Aと、表示装置200Aの有線通信インターフェース222Aとは、有線通信ハブ20で接続されている。   The wired communication interface 144A of the electronic devices 100A1, 100B1, and 100C1 and the wired communication interface 222A of the display device 200A are connected by the wired communication hub 20.

図16に示すように、電子機器100A1、100B1、100C1と、表示装置200Aとを有線通信ハブ20を介して、有線通信で接続してもよい。なお、有線通信ハブ20を用いなくても接続できる場合は、電子機器100A1、100B1、100C1と、表示装置200Aとを直接的に接続してもよい。   As illustrated in FIG. 16, the electronic devices 100A1, 100B1, and 100C1 may be connected to the display device 200A via a wired communication hub 20 by wired communication. In addition, when connection is possible without using the wired communication hub 20, the electronic devices 100A1, 100B1, and 100C1 may be directly connected to the display device 200A.

<実施の形態3>
図17は、実施の形態3の入力支援システムに含まれる電子機器100Dを示す図である。
<Embodiment 3>
FIG. 17 is a diagram illustrating an electronic device 100D included in the input support system according to the third embodiment.

電子機器100Dは、図6に示す実施の形態1の電子機器100に、ボリュームボタン103A、103Bを追加した構成を有する。ボリュームボタン103Aはボリューム(音量)を下げるためのボタンであり、ボリュームボタン103Bはボリュームを上げるためのボタンである。   Electronic device 100D has a configuration in which volume buttons 103A and 103B are added to electronic device 100 of the first embodiment shown in FIG. The volume button 103A is a button for decreasing the volume (volume), and the volume button 103B is a button for increasing the volume.

また、電子機器100Dは、実施の形態1の電子機器100と同様の構成を有するが、アプリケーションプロセッサ141A(図5参照)の機能が異なる。アプリケーションプロセッサ141Aの機能が異なることと、ボリュームボタン103A、103Bを追加したこと以外は、電子機器100Dは、実施の形態1の電子機器100と同様のハードウェア構成を有するため、以下では図5を援用して説明する。   The electronic device 100D has the same configuration as the electronic device 100 of the first embodiment, but the function of the application processor 141A (see FIG. 5) is different. Since the electronic device 100D has the same hardware configuration as the electronic device 100 of the first embodiment except that the function of the application processor 141A is different and the volume buttons 103A and 103B are added, FIG. This is explained with the aid of it.

実施の形態3の電子機器100Dでは、アプリケーションプロセッサ141Aは、ボリュームボタン103A、103Bが両方とも押されているかどうかを判定することができる。   In electronic device 100D of the third embodiment, application processor 141A can determine whether both of volume buttons 103A and 103B are pressed.

アプリケーションプロセッサ141Aは、ボリュームボタン103A、103Bが両方とも押されているときに、トップパネル120に操作入力(タッチ)が行われると、ポインタ162を表示する。ポインタ162は、ボリュームボタン103A、103Bが両方とも押されている間に操作入力(タッチ)が行われると、利用者の指先がトップパネル120に触れている位置(操作入力(タッチ)の位置)において、ディスプレイパネル160に表示される。   The application processor 141A displays a pointer 162 when an operation input (touch) is performed on the top panel 120 when both the volume buttons 103A and 103B are pressed. When an operation input (touch) is performed while the volume buttons 103A and 103B are both pressed, the pointer 162 is a position where the user's fingertip touches the top panel 120 (position of the operation input (touch)). Are displayed on the display panel 160.

このため、実施の形態3の電子機器100Dでは、ボリュームボタン103A、103Bを両方とも押しながらスワイプ操作を行うと、スワイプ操作でポインタ162を移動することができる。例えば、図17に示すように、位置Aでスワイプ操作を開始して、トップパネル120に触れている指先を位置Bまで移動させると、ポインタ162は、位置Aで表示が開始され、位置Bまで移動する。   For this reason, in electronic device 100D of Embodiment 3, if swipe operation is performed while pressing both volume buttons 103A and 103B, pointer 162 can be moved by swipe operation. For example, as shown in FIG. 17, when the swipe operation is started at the position A and the fingertip touching the top panel 120 is moved to the position B, the pointer 162 starts to be displayed at the position A and reaches the position B. Moving.

そして、位置Bで指先をトップパネル120から離すと、ポインタ162は表示されなくなる。   When the fingertip is released from the top panel 120 at the position B, the pointer 162 is not displayed.

図18は、実施の形態3の電子機器100Dのアプリケーションプロセッサ141Aが実行する処理を示すフローチャートである。   FIG. 18 is a flowchart illustrating processing executed by the application processor 141A of the electronic device 100D according to the third embodiment.

アプリケーションプロセッサ141Aは、無線通信インターフェース144を介して、表示装置200と無線通信で接続する(ステップS61)。   The application processor 141A is connected to the display device 200 through wireless communication via the wireless communication interface 144 (step S61).

アプリケーションプロセッサ141Aは、ディスプレイパネル160に表示している画像のデータを表示装置200に送信する(ステップS62)。   The application processor 141A transmits image data displayed on the display panel 160 to the display device 200 (step S62).

アプリケーションプロセッサ141Aは、ボリュームボタン103A、103Bが両方とも押されているかどうかを判定する(ステップS63)。   The application processor 141A determines whether or not both of the volume buttons 103A and 103B are pressed (step S63).

アプリケーションプロセッサ141Aは、ボリュームボタン103A、103Bが両方とも押されている(S63:YES)と判定すると、操作入力(タッチ)が行われているかどうかを判定する(ステップS64)。   If the application processor 141A determines that both the volume buttons 103A and 103B are pressed (S63: YES), the application processor 141A determines whether or not an operation input (touch) is being performed (step S64).

アプリケーションプロセッサ141Aは、操作入力(タッチ)が行われている(S64:YES)と判定すると、ディスプレイパネル160にポインタ162を表示する(ステップS65)。なお、既にポインタ162をディスプレイパネル160に表示している場合は、アプリケーションプロセッサ141Aは、ステップS65において、ポインタ162をディスプレイパネル160に表示している状態を保持する。ステップS65の処理は、アプリケーションプロセッサ141Aの中のポインタ制御部141Bによって実行される。   If the application processor 141A determines that an operation input (touch) has been performed (S64: YES), the application processor 141A displays a pointer 162 on the display panel 160 (step S65). If the pointer 162 is already displayed on the display panel 160, the application processor 141A maintains the state where the pointer 162 is displayed on the display panel 160 in step S65. The process in step S65 is executed by the pointer control unit 141B in the application processor 141A.

アプリケーションプロセッサ141Aは、すべての処理が終了したかどうかを判定する(ステップS66)。   The application processor 141A determines whether all the processes have been completed (step S66).

アプリケーションプロセッサ141Aは、すべての処理が終了した(S66:YES)と判定すると、無線通信を切断する(ステップS67)。   If the application processor 141A determines that all the processes have been completed (S66: YES), the application processor 141A disconnects the wireless communication (step S67).

以上、実施の形態3によれば、ボリュームボタン103A、103Bが両方とも押されている間に操作入力(タッチ)が行われると、利用者の指先がトップパネル120に触れている位置(操作入力(タッチ)の位置)において、ポインタ162がディスプレイパネル160に表示される電子機器100Dを提供することができる。   As described above, according to the third embodiment, when an operation input (touch) is performed while both of the volume buttons 103A and 103B are pressed, a position where the user's fingertip touches the top panel 120 (operation input). The electronic device 100D in which the pointer 162 is displayed on the display panel 160 at the (touch) position) can be provided.

そして、表示装置200のディスプレイパネル210には、ポインタ162に対応するポインタが表示される。   A pointer corresponding to the pointer 162 is displayed on the display panel 210 of the display device 200.

ポインタ162は、手の陰になるため利用者にとって見えにくいが、利用者の眼前に配置される表示装置200のディスプレイパネル210に表示されるポインタは、利用者にとっては非常に見えやすいものである。   Although the pointer 162 is behind the hand, it is difficult for the user to see, but the pointer displayed on the display panel 210 of the display device 200 arranged in front of the user's eyes is very easy for the user to see. .

このため、利用者が手元の電子機器100Dに対して、ボリュームボタン103A、103Bが両方を押すとともに、操作入力(タッチ)を行えば、指先の位置をディスプレイパネル210に表示されるポインタで容易かつ正確に認識することができる。   For this reason, if the user presses both of the volume buttons 103A and 103B and performs an operation input (touch) on the electronic device 100D at hand, the position of the fingertip can be easily and with the pointer displayed on the display panel 210. It can be recognized accurately.

また、実施の形態3の電子機器100Dでは、ボリュームボタン103A、103Bを両方とも押しながらスワイプ操作を行うと、スワイプ操作でポインタ162を移動することができる。   In electronic device 100D of the third embodiment, when swipe operation is performed while pressing both volume buttons 103A and 103B, pointer 162 can be moved by swipe operation.

例えば、従来の電子機器では、アイコンに触れた指先をスワイプ操作で意図的に動かした場合と、アイコンに触れてから、そのアイコンに触れたことによる操作入力をキャンセルするために指先を離さずに移動させたこととの違いをうまく認識できない場合がある。後者も指先の動きはスワイプ操作と同様である。   For example, in a conventional electronic device, when a fingertip touching an icon is intentionally moved by a swipe operation, and after touching the icon, the fingertip is not released to cancel the operation input by touching the icon. There may be cases where the difference from moving is not recognized well. In the latter case, the movement of the fingertip is the same as that of the swipe operation.

このような場合に、両方のボリュームボタン103A、103Bを押しながらスワイプ操作を行った場合を有効な操作入力として受け付け、両方のボリュームボタン103A、103Bを押さずにスワイプ操作を行った場合を操作入力として受け付けないようにすればよい。   In such a case, a case where a swipe operation is performed while pressing both volume buttons 103A and 103B is accepted as an effective operation input, and a case where a swipe operation is performed without pressing both volume buttons 103A and 103B is input. As long as it is not accepted.

こうすることにより、実施の形態3によれば、スワイプ操作による操作入力を行いやすい電子機器100Dを提供することができる。また、両方のボリュームボタン103A、103Bを押しながらスワイプ操作を行えば、表示装置200のディスプレイパネル210にスワイプ操作の位置を表すポインタが表示されるため、操作性も向上させることができる。   Thus, according to the third embodiment, it is possible to provide the electronic device 100D that can easily perform an operation input by a swipe operation. Further, if a swipe operation is performed while pressing both volume buttons 103A and 103B, a pointer indicating the position of the swipe operation is displayed on the display panel 210 of the display device 200, so that the operability can be improved.

従って、実施の形態3によれば、操作性の良好な入力支援システム、及び、電子機器100Dを提供することができる。   Therefore, according to the third embodiment, it is possible to provide an input support system with good operability and the electronic device 100D.

なお、以上では、ボリュームボタン103A、103Bが両方とも押されている間に操作入力(タッチ)が行われると、ポインタ162をディスプレイパネル160に表示する形態について説明した。すなわち、ボリュームボタン103A、103Bが両方とも押されることにより、ポインタ162を表示することが可能になる特定の動作モードになる形態について説明した。   In the above description, the mode in which the pointer 162 is displayed on the display panel 160 when an operation input (touch) is performed while both the volume buttons 103A and 103B are pressed has been described. That is, a mode has been described in which a specific operation mode in which the pointer 162 can be displayed by pressing both of the volume buttons 103A and 103B has been described.

しかしながら、このような特定の動作モードを選択するための操作は、ボリュームボタン103A、103Bを両方とも押す操作に限られない。例えば、カメラを操作するためのボタン(GUI部品ではない電気機械式のボタン)がある場合には、カメラを動作させていないときに、カメラを操作するためのボタンを押すことによって、特定の動作モードを選択できるようにしてもよい。その他、電子機器100Dの様々な操作によって、上述のような特定の動作モードを選択できるようにしてもよい。   However, the operation for selecting such a specific operation mode is not limited to the operation of pressing both of the volume buttons 103A and 103B. For example, when there is a button for operating the camera (an electromechanical button that is not a GUI component), a specific operation can be performed by pressing the button for operating the camera when the camera is not operating. A mode may be selected. In addition, the specific operation mode as described above may be selected by various operations of the electronic device 100D.

以上、本発明の例示的な実施の形態の入力支援システム、及び、電子機器について説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
第1利用者の操作対象になるGUI部品を表示する第1表示部と、
前記第1表示部の表示面側に配設され、第1操作面を有する第1トップパネルと、
前記第1操作面に非接触で近接する第1利用者の身体の一部の第1位置を検出する、静電容量式の第1位置検出部と、
前記第1位置検出部によって検出される前記第1位置と前記第1操作面との間の距離が所定値以下になると、前記第1表示部の表示領域のうちの前記第1位置を前記第1表示部に投影した第1投影位置に、第1ポインタを表示する第1ポインタ制御部と
を有する、電子機器と、
前記電子機器とは独立して設けられるとともに、前記電子機器と通信可能に接続され、前記第1表示部に表示される前記GUI部品と前記第1ポインタとを相対位置関係を保持して表示する表示装置と
を含む、入力支援システム。
(付記2)
前記第1位置検出部は、ホバリング機能によって前記第1位置を検出する、付記1記載の入力支援システム。
(付記3)
前記表示装置は、第1利用者の眼前に配置されるディスプレイパネルを有する装置、又は、第1利用者が装着するヘッドマウントディスプレイである、付記1又は2記載の入力支援システム。
(付記4)
前記電子機器と通信可能に接続されるサブ電子機器をさらに含み、
前記サブ電子機器は、
第2利用者の操作対象として前記GUI部品を表示する第2表示部と、
前記第2表示部の表示面側に配設され、第2操作面を有する第2トップパネルと、
前記第2操作面に非接触で近接する第2利用者の身体の一部の第2位置を検出する、静電容量式の第2位置検出部と、
前記第2位置検出部によって検出される前記第2位置と前記第2操作面との間の距離が所定値以下になると、前記第2表示部の表示領域のうちの前記第2位置を前記第2表示部に投影した第2投影位置に、第2ポインタを表示する第2ポインタ制御部と、
前記第2表示部における前記第2投影位置を表すデータを前記電子機器に送信する送信部と
を有し、
前記電子機器は、前記サブ電子機器から受信する前記第2投影位置に前記第1表示部の中で対応する位置に、前記第2ポインタを表示し、
前記表示装置は、さらに、前記第1表示部に表示される前記第2ポインタを、前記GUI部品と前記第2ポインタとの相対位置関係を保持して表示する、付記1乃至3のいずれか一項記載の入力支援システム。
(付記5)
第1利用者の操作対象になるGUI部品を表示する第1表示部と、
前記第1表示部の表示面側に配設され、第1操作面を有する第1トップパネルと、
前記第1操作面に非接触で近接する第1利用者の身体の一部の第1位置を検出する、静電容量式の第1位置検出部と、
前記第1位置検出部によって検出される前記第1位置と前記第1操作面との間の距離が所定値以下になると、前記第1表示部の表示領域のうちの前記第1位置を前記第1表示部に投影した第1投影位置に、第1ポインタを表示する第1ポインタ制御部と、
前記電子機器とは独立して設けられる表示装置に、前記GUI部品及び前記第1ポインタの画像データと、前記第1表示部に表示される前記GUI部品と前記第1ポインタとの相対位置を表すデータとを送信する送信部と
を含む、電子機器。
(付記6)
第1利用者の操作対象になるGUI部品を表示する第1表示部と、
前記第1表示部の表示面側に配設され、第1操作面を有する第1トップパネルと、
前記第1操作面に行われる操作入力の第1位置を検出する第1位置検出部と、
前記第1表示部に表示される第1ポインタのスワイプ操作を可能にする特定の動作モードにおいて、前記位置検出部によって検出される前記第1位置に第1ポインタを表示し、前記操作入力によるスワイプ操作が行われると、前記第1ポインタを移動させる第1ポインタ制御部と
を有する、電子機器と、
前記電子機器とは独立して設けられるとともに、前記電子機器と通信可能に接続され、前記第1表示部に表示される前記GUI部品と前記第1ポインタとを相対位置関係を保持して表示する表示装置と
を含む、入力支援システム。
(付記7)
前記表示装置は、第1利用者の眼前に配置されるディスプレイパネルを有する装置、又は、第1利用者が装着するヘッドマウントディスプレイである、付記6記載の入力支援システム。
(付記8)
前記電子機器と通信可能に接続されるサブ電子機器をさらに含み、
前記サブ電子機器は、
第2利用者の操作対象になるGUI部品を表示する第2表示部と、
前記第2表示部の表示面側に配設され、第2操作面を有する第2トップパネルと、
前記第2操作面に行われる操作入力の第2位置を検出する第2位置検出部と、
前記第2表示部に表示される第2ポインタのスワイプ操作を可能にする特定の動作モードにおいて、前記位置検出部によって検出される前記第2位置に第2ポインタを表示し、前記操作入力によるスワイプ操作が行われると、前記第2ポインタを移動させる第2ポインタ制御部と、
前記第2表示部における前記第2位置を表すデータを前記電子機器に送信する送信部と
を有し、
前記電子機器は、前記サブ電子機器から受信する前記第2位置に前記第1表示部の中で対応する位置に、前記第2ポインタを表示し、
前記表示装置は、さらに、前記第1表示部に表示される前記第2ポインタを、前記GUI部品と前記第2ポインタとの相対位置関係を保持して表示する、付記6又は7記載の入力支援システム。
(付記9)
第1利用者の操作対象になるGUI部品を表示する第1表示部と、
前記第1表示部の表示面側に配設され、第1操作面を有する第1トップパネルと、
前記第1操作面に行われる操作入力の第1位置を検出する第1位置検出部と、
前記第1表示部に表示される第1ポインタのスワイプ操作を可能にする特定の動作モードにおいて、前記位置検出部によって検出される前記第1位置に第1ポインタを表示し、前記操作入力によるスワイプ操作が行われると、前記第1ポインタを移動させる第1ポインタ制御部と、
前記電子機器とは独立して設けられる表示装置に、前記GUI部品及び前記第1ポインタの画像データと、前記第1表示部に表示される前記GUI部品と前記第1ポインタとの相対位置を表すデータとを送信する送信部と
を含む、電子機器。
The input support system and the electronic device according to the exemplary embodiment of the present invention have been described above, but the present invention is not limited to the specifically disclosed embodiment, and is not limited to the claims. Various modifications and changes can be made without departing from the above.
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
A first display unit for displaying a GUI component to be operated by the first user;
A first top panel disposed on a display surface side of the first display unit and having a first operation surface;
A first position detection unit of a capacitance type that detects a first position of a part of the body of the first user that is close to the first operation surface without contact;
When the distance between the first position detected by the first position detection unit and the first operation surface becomes a predetermined value or less, the first position in the display area of the first display unit is changed to the first position. An electronic device having a first pointer control unit that displays a first pointer at a first projection position projected on one display unit;
The GUI component is provided independently of the electronic device and is communicably connected to the electronic device, and displays the GUI component displayed on the first display unit and the first pointer while maintaining a relative positional relationship. An input support system including a display device.
(Appendix 2)
The input support system according to appendix 1, wherein the first position detection unit detects the first position by a hovering function.
(Appendix 3)
The input support system according to appendix 1 or 2, wherein the display device is a device having a display panel arranged in front of the first user or a head-mounted display worn by the first user.
(Appendix 4)
A sub-electronic device that is communicably connected to the electronic device;
The sub-electronic device is
A second display unit that displays the GUI component as an operation target of the second user;
A second top panel disposed on the display surface side of the second display unit and having a second operation surface;
A capacitance-type second position detection unit that detects a second position of a part of the body of the second user that is in close contact with the second operation surface;
When the distance between the second position detected by the second position detection unit and the second operation surface is equal to or less than a predetermined value, the second position in the display area of the second display unit is changed to the second position. A second pointer control unit that displays a second pointer at a second projection position projected on the two display units;
A transmission unit that transmits data representing the second projection position in the second display unit to the electronic device,
The electronic device displays the second pointer at a position corresponding to the second projection position received from the sub electronic device in the first display unit,
The display device further displays the second pointer displayed on the first display unit while maintaining a relative positional relationship between the GUI component and the second pointer. The input support system described in the section.
(Appendix 5)
A first display unit for displaying a GUI component to be operated by the first user;
A first top panel disposed on a display surface side of the first display unit and having a first operation surface;
A first position detection unit of a capacitance type that detects a first position of a part of the body of the first user that is close to the first operation surface without contact;
When the distance between the first position detected by the first position detection unit and the first operation surface becomes a predetermined value or less, the first position in the display area of the first display unit is changed to the first position. A first pointer control unit that displays a first pointer at a first projection position projected on one display unit;
The display device provided independently from the electronic device represents the GUI component and the image data of the first pointer, and the relative position of the GUI component and the first pointer displayed on the first display unit. An electronic device including a transmitter that transmits data.
(Appendix 6)
A first display unit for displaying a GUI component to be operated by the first user;
A first top panel disposed on a display surface side of the first display unit and having a first operation surface;
A first position detector for detecting a first position of an operation input performed on the first operation surface;
In a specific operation mode that enables swipe operation of the first pointer displayed on the first display unit, the first pointer is displayed at the first position detected by the position detection unit, and swipe by the operation input is performed. An electronic device having a first pointer control unit that moves the first pointer when an operation is performed;
The GUI component is provided independently of the electronic device and is communicably connected to the electronic device, and displays the GUI component displayed on the first display unit and the first pointer while maintaining a relative positional relationship. An input support system including a display device.
(Appendix 7)
The input support system according to appendix 6, wherein the display device is a device having a display panel arranged in front of the first user's eyes or a head mounted display worn by the first user.
(Appendix 8)
A sub-electronic device that is communicably connected to the electronic device;
The sub-electronic device is
A second display unit for displaying a GUI part to be operated by the second user;
A second top panel disposed on the display surface side of the second display unit and having a second operation surface;
A second position detection unit for detecting a second position of an operation input performed on the second operation surface;
In a specific operation mode that enables swipe operation of the second pointer displayed on the second display unit, the second pointer is displayed at the second position detected by the position detection unit, and swipe by the operation input A second pointer control unit that moves the second pointer when an operation is performed;
A transmission unit that transmits data representing the second position in the second display unit to the electronic device,
The electronic device displays the second pointer at a position corresponding to the second position received from the sub electronic device in the first display unit,
The input support according to appendix 6 or 7, wherein the display device further displays the second pointer displayed on the first display unit while maintaining a relative positional relationship between the GUI component and the second pointer. system.
(Appendix 9)
A first display unit for displaying a GUI component to be operated by the first user;
A first top panel disposed on a display surface side of the first display unit and having a first operation surface;
A first position detector for detecting a first position of an operation input performed on the first operation surface;
In a specific operation mode that enables swipe operation of the first pointer displayed on the first display unit, the first pointer is displayed at the first position detected by the position detection unit, and swipe by the operation input is performed. A first pointer control unit that moves the first pointer when an operation is performed;
The display device provided independently from the electronic device represents the GUI component and the image data of the first pointer, and the relative position of the GUI component and the first pointer displayed on the first display unit. An electronic device including a transmitter that transmits data.

100、100A、100B、100C 電子機器
101 入力操作部
102 GUI部品
110 筐体
120 トップパネル
130 両面テープ
140 制御部
141 CPU
142 ディスプレイインターフェース
143 タッチパネルインターフェース
144 無線通信インターフェース
145 バス
146 RAM
147 内蔵ストレージ
148 記憶媒体
150 タッチパネル
160 ディスプレイパネル
161A、161B、161C ポインタ
170 基板
200 表示装置
210 ディスプレイパネル
211A、211B、211C ポインタ
300、300A 入力支援システム
100, 100A, 100B, 100C Electronic device 101 Input operation unit 102 GUI component 110 Case 120 Top panel 130 Double-sided tape 140 Control unit 141 CPU
142 Display Interface 143 Touch Panel Interface 144 Wireless Communication Interface 145 Bus 146 RAM
147 Built-in storage 148 Storage medium 150 Touch panel 160 Display panel 161A, 161B, 161C Pointer 170 Substrate 200 Display device 210 Display panel 211A, 211B, 211C Pointer 300, 300A Input support system

ディスプレイパネル12には、利用者の手元にある電子機器100のディスプレイパネル160に表示される画像と同一の画像が表示される。ヘッドマウントディスプレイ10を装着した状態では、利用者は、手元の電子機器100のディスプレイパネル160を見ることはできず、電子機器100に対して近接操作を行いながら、ディスプレイパネル12に表示されるポインタを見て、操作入力を行う。
On the display panel 12, the same image as that displayed on the display panel 160 of the electronic device 100 at hand of the user is displayed. When the head mounted display 10 is mounted, the user cannot see the display panel 160 of the electronic device 100 at hand, and a pointer displayed on the display panel 12 while performing a proximity operation on the electronic device 100. To input the operation.

Claims (6)

第1利用者の操作対象になるGUI部品を表示する第1表示部と、
前記第1表示部の表示面側に配設され、第1操作面を有する第1トップパネルと、
前記第1操作面に非接触で近接する第1利用者の身体の一部の第1位置を検出する、静電容量式の第1位置検出部と、
前記第1位置検出部によって検出される前記第1位置と前記第1操作面との間の距離が所定値以下になると、前記第1表示部の表示領域のうちの前記第1位置を前記第1表示部に投影した第1投影位置に、第1ポインタを表示する第1ポインタ制御部と
を有する、電子機器と、
前記電子機器とは独立して設けられるとともに、前記電子機器と通信可能に接続され、前記第1表示部に表示される前記GUI部品と前記第1ポインタとを相対位置関係を保持して表示する表示装置と
を含む、入力支援システム。
A first display unit for displaying a GUI component to be operated by the first user;
A first top panel disposed on a display surface side of the first display unit and having a first operation surface;
A first position detection unit of a capacitance type that detects a first position of a part of the body of the first user that is close to the first operation surface without contact;
When the distance between the first position detected by the first position detection unit and the first operation surface becomes a predetermined value or less, the first position in the display area of the first display unit is changed to the first position. An electronic device having a first pointer control unit that displays a first pointer at a first projection position projected on one display unit;
The GUI component is provided independently of the electronic device and is communicably connected to the electronic device, and displays the GUI component displayed on the first display unit and the first pointer while maintaining a relative positional relationship. An input support system including a display device.
前記第1位置検出部は、ホバリング機能によって前記第1位置を検出する、請求項1記載の入力支援システム。   The input support system according to claim 1, wherein the first position detection unit detects the first position by a hovering function. 前記表示装置は、第1利用者の眼前に配置されるディスプレイパネル、又は、第1利用者が装着するヘッドマウントディスプレイである、請求項1又は2記載の入力支援システム。   The input support system according to claim 1, wherein the display device is a display panel disposed in front of the first user's eyes or a head mounted display worn by the first user. 前記電子機器と通信可能に接続されるサブ電子機器をさらに含み、
前記サブ電子機器は、
第2利用者の操作対象として前記GUI部品を表示する第2表示部と、
前記第2表示部の表示面側に配設され、第2操作面を有する第2トップパネルと、
前記第2操作面に非接触で近接する第2利用者の身体の一部の第2位置を検出する、静電容量式の第2位置検出部と、
前記第2位置検出部によって検出される前記第2位置と前記第2操作面との間の距離が所定値以下になると、前記第2表示部の表示領域のうちの前記第2位置を前記第2表示部に投影した第2投影位置に、第2ポインタを表示する第2ポインタ制御部と、
前記第2表示部における前記第2投影位置を表すデータを前記電子機器に送信する送信部と
を有し、
前記電子機器は、前記サブ電子機器から受信する前記第2投影位置に前記第1表示部の中で対応する位置に、前記第2ポインタを表示し、
前記表示装置は、さらに、前記第1表示部に表示される前記第2ポインタを、前記GUI部品と前記第2ポインタとの相対位置関係を保持して表示する、請求項1乃至3のいずれか一項記載の入力支援システム。
A sub-electronic device that is communicably connected to the electronic device;
The sub-electronic device is
A second display unit that displays the GUI component as an operation target of the second user;
A second top panel disposed on the display surface side of the second display unit and having a second operation surface;
A capacitance-type second position detection unit that detects a second position of a part of the body of the second user that is in close contact with the second operation surface;
When the distance between the second position detected by the second position detection unit and the second operation surface is equal to or less than a predetermined value, the second position in the display area of the second display unit is changed to the second position. A second pointer control unit that displays a second pointer at a second projection position projected on the two display units;
A transmission unit that transmits data representing the second projection position in the second display unit to the electronic device,
The electronic device displays the second pointer at a position corresponding to the second projection position received from the sub electronic device in the first display unit,
4. The display device according to claim 1, wherein the display device further displays the second pointer displayed on the first display unit while maintaining a relative positional relationship between the GUI component and the second pointer. 5. The input support system according to one item.
第1利用者の操作対象になるGUI部品を表示する第1表示部と、
前記第1表示部の表示面側に配設され、第1操作面を有する第1トップパネルと、
前記第1操作面に非接触で近接する第1利用者の身体の一部の第1位置を検出する、静電容量式の位置検出部と、
前記位置検出部によって検出される前記第1位置と前記第1操作面との間の距離が所定値以下になると、前記第1表示部の表示領域のうちの前記第1位置を前記第1表示部に投影した第1投影位置に、第1ポインタを表示する第1ポインタ制御部と、
独立して設けられる表示装置に、前記GUI部品及び前記第1ポインタの画像データと、前記第1表示部に表示される前記GUI部品と前記第1ポインタとの相対位置を表すデータとを送信する送信部と
を含む、電子機器。
A first display unit for displaying a GUI component to be operated by the first user;
A first top panel disposed on a display surface side of the first display unit and having a first operation surface;
A capacitance-type position detection unit that detects a first position of a part of the body of the first user that is in close contact with the first operation surface;
When the distance between the first position detected by the position detection unit and the first operation surface is equal to or less than a predetermined value, the first position in the display area of the first display unit is displayed in the first display. A first pointer control unit that displays a first pointer at a first projection position projected onto the unit;
The GUI component and the image data of the first pointer, and data representing the relative position of the GUI component and the first pointer displayed on the first display unit are transmitted to an independent display device. An electronic device including a transmitter.
第1利用者の操作対象になるGUI部品を表示する第1表示部と、
前記第1表示部の表示面側に配設され、第1操作面を有する第1トップパネルと、
前記第1操作面に行われる操作入力の第1位置を検出する第1位置検出部と、
前記第1表示部に表示される第1ポインタのスワイプ操作を可能にする特定の動作モードにおいて、前記第1位置検出部によって検出される前記第1位置に第1ポインタを表示し、前記操作入力によるスワイプ操作が行われると、前記第1ポインタを移動させる第1ポインタ制御部と
を有する、電子機器と、
前記電子機器とは独立して設けられるとともに、前記電子機器と通信可能に接続され、前記第1表示部に表示される前記GUI部品と前記第1ポインタとを相対位置関係を保持して表示する表示装置と
を含む、入力支援システム。
A first display unit for displaying a GUI component to be operated by the first user;
A first top panel disposed on a display surface side of the first display unit and having a first operation surface;
A first position detector for detecting a first position of an operation input performed on the first operation surface;
In a specific operation mode that enables swipe operation of the first pointer displayed on the first display unit, the first pointer is displayed at the first position detected by the first position detection unit, and the operation input is performed. An electronic device having a first pointer control unit that moves the first pointer when a swipe operation is performed by
The GUI component is provided independently of the electronic device and is communicably connected to the electronic device, and displays the GUI component displayed on the first display unit and the first pointer while maintaining a relative positional relationship. An input support system including a display device.
JP2015197068A 2015-10-02 2015-10-02 Input support system and electronic apparatus Pending JP2017068797A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015197068A JP2017068797A (en) 2015-10-02 2015-10-02 Input support system and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015197068A JP2017068797A (en) 2015-10-02 2015-10-02 Input support system and electronic apparatus

Publications (1)

Publication Number Publication Date
JP2017068797A true JP2017068797A (en) 2017-04-06

Family

ID=58492649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015197068A Pending JP2017068797A (en) 2015-10-02 2015-10-02 Input support system and electronic apparatus

Country Status (1)

Country Link
JP (1) JP2017068797A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193423A (en) * 2008-02-15 2009-08-27 Panasonic Corp Input device for electronic equipment
JP2013073412A (en) * 2011-09-28 2013-04-22 Kddi Corp User interface device for generating projection image signal for pointer projection and image projection method and program
JP2013125247A (en) * 2011-12-16 2013-06-24 Sony Corp Head-mounted display and information display apparatus
JP2013242742A (en) * 2012-05-22 2013-12-05 Nec Casio Mobile Communications Ltd Portable terminal apparatus, input method for portable terminal apparatus, and computer program
JP2014112398A (en) * 2010-10-26 2014-06-19 Ricoh Co Ltd Screen sharing service providing system, information processing device, projection device, screen sharing service providing method, and screen sharing service providing program
US20150009143A1 (en) * 2013-07-08 2015-01-08 Funai Electric Co., Ltd. Operating system
JP2015510211A (en) * 2012-03-15 2015-04-02 ノキア コーポレイション Touch screen hover input processing

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193423A (en) * 2008-02-15 2009-08-27 Panasonic Corp Input device for electronic equipment
JP2014112398A (en) * 2010-10-26 2014-06-19 Ricoh Co Ltd Screen sharing service providing system, information processing device, projection device, screen sharing service providing method, and screen sharing service providing program
JP2013073412A (en) * 2011-09-28 2013-04-22 Kddi Corp User interface device for generating projection image signal for pointer projection and image projection method and program
JP2013125247A (en) * 2011-12-16 2013-06-24 Sony Corp Head-mounted display and information display apparatus
US20140320383A1 (en) * 2011-12-16 2014-10-30 Sony Corporaton Head-mounted display and information display apparatus
JP2015510211A (en) * 2012-03-15 2015-04-02 ノキア コーポレイション Touch screen hover input processing
JP2013242742A (en) * 2012-05-22 2013-12-05 Nec Casio Mobile Communications Ltd Portable terminal apparatus, input method for portable terminal apparatus, and computer program
US20150009143A1 (en) * 2013-07-08 2015-01-08 Funai Electric Co., Ltd. Operating system
JP2015014998A (en) * 2013-07-08 2015-01-22 船井電機株式会社 Operation system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
飯田 成康: "触ってわかった使い心地! 新OSのポイントを徹底チェック!! Mountain Lionパワーリポー", MAC PEOPLE, vol. 18, no. 12, JPN6020017933, 28 July 2012 (2012-07-28), JP, pages 32 - 39, ISSN: 0004274137 *
飯田 成康: "触ってわかった使い心地! 新OSのポイントを徹底チェック!! Mountain Lionパワーリポー", MAC PEOPLE, vol. 第18巻第12号通巻294号, JPN6019041980, 28 July 2012 (2012-07-28), JP, pages 32 - 39, ISSN: 0004143883 *

Similar Documents

Publication Publication Date Title
Lee et al. Interaction methods for smart glasses: A survey
US8830189B2 (en) Device and method for monitoring the object&#39;s behavior
JP6073782B2 (en) Display device, display control method and display control program, and input device, input support method and program
EP2975497B1 (en) Terminal device, terminal device control method, and program
WO2017177006A1 (en) Head mounted display linked to a touch sensitive input device
WO2016079774A1 (en) System and method for data and command input
US20090213081A1 (en) Portable Electronic Device Touchpad Input Controller
US9395816B2 (en) Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
US20100328209A1 (en) Input device for electronic apparatus
US9721365B2 (en) Low latency modification of display frames
JP2016513832A (en) Mechanical actuator device for touch screen
JP2014509768A (en) Cursor control and input device that can be worn on the thumb
KR20140078180A (en) Touch sensitive device and controlling method for providing mini-map of tactile user interface
JP6386897B2 (en) Electronic blackboard, information processing program, and information processing method
US20120075202A1 (en) Extending the touchable area of a touch screen beyond the borders of the screen
GB2509651A (en) Object designation method, device and computer program
KR20160008890A (en) Apparatus and method for providing touch inputs by using human body
US20150009136A1 (en) Operation input device and input operation processing method
CN108595010B (en) Interaction method and device for virtual objects in virtual reality
TW201325101A (en) Distant multipoint remote control device and system
US11392237B2 (en) Virtual input devices for pressure sensitive surfaces
Yeo et al. WristLens: Enabling Single-Handed Surface Gesture Interaction for Wrist-Worn Devices Using Optical Motion Sensor
JP2017068797A (en) Input support system and electronic apparatus
JP3211484U (en) Tactile controller
KR20080017194A (en) Wireless mouse and driving method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151007

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20151016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151016

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602