JP2021140232A - Operating position determination device, application execution device, operating position determination method, and operating position determination program - Google Patents

Operating position determination device, application execution device, operating position determination method, and operating position determination program Download PDF

Info

Publication number
JP2021140232A
JP2021140232A JP2020034879A JP2020034879A JP2021140232A JP 2021140232 A JP2021140232 A JP 2021140232A JP 2020034879 A JP2020034879 A JP 2020034879A JP 2020034879 A JP2020034879 A JP 2020034879A JP 2021140232 A JP2021140232 A JP 2021140232A
Authority
JP
Japan
Prior art keywords
user
mark image
touch
hand
hand touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020034879A
Other languages
Japanese (ja)
Inventor
いち子 佐田
Ichiko Sada
いち子 佐田
雄貴 土井
Yuki Doi
雄貴 土井
仁志 廣畑
Hitoshi Hirohata
仁志 廣畑
理絵子 戸田
Rieko Toda
理絵子 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2020034879A priority Critical patent/JP2021140232A/en
Publication of JP2021140232A publication Critical patent/JP2021140232A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide an operating position determination device, an application execution device, an operating position determination method, and an operating position determination program capable of making the operating position of a user to a touch panel display device appropriate by using a function of the touch panel display device.SOLUTION: In an operating position determination device 1, a control unit 30 includes a touch detection unit 311 for detecting touch of a user to a touch panel 111, a display control unit 312 which causes a left hand touch position mark image and a right hand touch position mark image to be displayed at prescribed positions of a display unit 112, a touch determination unit 313 which determines whether or not either of the left hand touch position mark image and the right hand touch position mark image is touched by the user, and an operating position determination unit 314 which determines that the operating position of the user is appropriate when it is determined that the user has touched either of the left hand touch position mark image and the right hand touch position mark image.SELECTED DRAWING: Figure 1

Description

本発明は、タッチパネル表示装置を用いた操作位置判定装置、アプリケーション実行装置、操作位置判定方法、及び操作位置判定プログラムに関する。 The present invention relates to an operation position determination device using a touch panel display device, an application execution device, an operation position determination method, and an operation position determination program.

従来、タッチパネルと表示装置を組み合わせたタッチパネル表示装置であって、ユーザがタッチパネル表示装置の前に位置した状態でタッチパネル表示装置に対して操作を行うことにより使用されるものが知られている。 Conventionally, there is known a touch panel display device that is a combination of a touch panel and a display device, which is used by a user operating the touch panel display device while being positioned in front of the touch panel display device.

特許文献1には、操作者の身長を検出する身長検出部を備え、タッチ画面の表示位置を、身長検出部が検出した操作者の身長に対応する位置に移動させるタッチパネル表示装置が開示されている。 Patent Document 1 discloses a touch panel display device including a height detection unit that detects the height of an operator and moves the display position of the touch screen to a position corresponding to the height of the operator detected by the height detection unit. There is.

特開2001−117684号公報Japanese Unexamined Patent Publication No. 2001-117648

しかし、従来の技術では、タッチパネル表示装置に対するユーザの操作位置が適切でない場合に、タッチパネル表示装置のタッチ操作部に対してユーザの手が届きにくくなってしまうなど、適切な状態でタッチパネル表示装置が使用されないという問題が生じ得る。 However, in the conventional technology, when the user's operation position with respect to the touch panel display device is not appropriate, the touch panel display device is placed in an appropriate state, such as making it difficult for the user to reach the touch operation unit of the touch panel display device. The problem of not being used can arise.

本発明の目的は、タッチパネル表示装置の機能を用いて、タッチパネル表示装置に対するユーザの操作位置を適切化することが可能な操作位置判定装置、アプリケーション実行装置、操作位置判定方法、及び操作位置判定プログラムを提供することにある。 An object of the present invention is an operation position determination device, an application execution device, an operation position determination method, and an operation position determination program capable of optimizing a user's operation position with respect to the touch panel display device by using the function of the touch panel display device. Is to provide.

本発明の一の態様に係る操作位置判定装置は、画像を表示する表示画面と、前記表示画面に対するユーザによるタッチを検出するタッチ検出部と、前記ユーザの左手によりタッチすべき位置を示す左手タッチ位置目印画像と、前記ユーザの右手によりタッチすべき位置を示す右手タッチ位置目印画像とを、それぞれ前記表示画面の所定の位置に表示させる表示制御部と、前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して、前記ユーザによりタッチされたか否かを判定するタッチ判定部と、前記タッチ判定部により前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して前記ユーザによりタッチされたと判定された場合に、前記ユーザの操作位置が適切であると判定する操作位置判定部と、を備える。 The operation position determination device according to one aspect of the present invention includes a display screen for displaying an image, a touch detection unit for detecting a user's touch on the display screen, and a left-handed touch indicating a position to be touched by the user's left hand. A display control unit that displays a position mark image and a right hand touch position mark image indicating a position to be touched by the user's right hand at a predetermined position on the display screen, a left hand touch position mark image, and a right hand touch. It is said that the touch determination unit that determines whether or not the position mark image is touched by the user, and the user touches the left hand touch position mark image and the right hand touch position mark image by the touch determination unit. It is provided with an operation position determination unit that determines that the operation position of the user is appropriate when the determination is made.

本発明の他の態様に係るアプリケーション実行装置は、前記操作位置判定装置において前記ユーザの操作位置が適切であると判定された場合に、所定のアプリケーションの実行を有効化する。 The application execution device according to another aspect of the present invention enables execution of a predetermined application when the operation position determination device of the user determines that the operation position of the user is appropriate.

本発明の他の態様に係る操作位置判定方法は、ユーザの左手によりタッチすべき位置を示す左手タッチ位置目印画像と、ユーザの右手によりタッチすべき位置を示す右手タッチ位置目印画像とを、それぞれ表示画面の所定の位置に表示させる表示ステップと、前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して、前記ユーザによりタッチされたか否かを判定するタッチ判定ステップと、前記タッチ判定ステップにおいて前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して前記ユーザによりタッチされたと判定された場合に、前記ユーザの操作位置が適切であると判定する操作位置判定ステップと、を一又は複数のプロセッサーにより実行する方法である。 In the operation position determination method according to another aspect of the present invention, a left-hand touch position mark image indicating a position to be touched by the user's left hand and a right-hand touch position mark image indicating a position to be touched by the user's right hand are obtained, respectively. A display step for displaying at a predetermined position on the display screen, a touch determination step for determining whether or not the left-hand touch position mark image and the right-hand touch position mark image have been touched by the user, and the touch determination step. When it is determined that the left-hand touch position mark image and the right-hand touch position mark image are touched by the user, the operation position determination step of determining that the operation position of the user is appropriate is one or more. This is a method of executing by multiple processors.

本発明の他の態様に係る操作位置判定プログラムは、ユーザの左手によりタッチすべき位置を示す左手タッチ位置目印画像と、ユーザの右手によりタッチすべき位置を示す右手タッチ位置目印画像とを、それぞれ表示画面の所定の位置に表示させる表示ステップと、前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して、前記ユーザによりタッチされたか否かを判定するタッチ判定ステップと、前記タッチ判定ステップにおいて前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して前記ユーザによりタッチされたと判定された場合に、前記ユーザの操作位置が適切であると判定する操作位置判定ステップと、を一又は複数のプロセッサーに実行させるためのプログラムである。 The operation position determination program according to another aspect of the present invention provides a left-hand touch position mark image indicating a position to be touched by the user's left hand and a right-hand touch position mark image indicating a position to be touched by the user's right hand, respectively. A display step for displaying at a predetermined position on the display screen, a touch determination step for determining whether or not the left-hand touch position mark image and the right-hand touch position mark image have been touched by the user, and the touch determination step. When it is determined that the left-hand touch position mark image and the right-hand touch position mark image are touched by the user, the operation position determination step of determining that the operation position of the user is appropriate is performed. It is a program to be executed by multiple processors.

本発明によれば、タッチパネル表示装置の機能を用いて、タッチパネル表示装置に対するユーザの操作位置を適切化することが可能である。 According to the present invention, it is possible to optimize the user's operation position with respect to the touch panel display device by using the function of the touch panel display device.

図1は、本発明の実施形態に係る操作位置判定装置の概略構成を示す外観図である。FIG. 1 is an external view showing a schematic configuration of an operation position determination device according to an embodiment of the present invention. 図2は、本発明の実施形態に係る操作位置判定装置の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of an operation position determination device according to an embodiment of the present invention. 図3は、本発明の実施形態に係る操作位置判定装置に記憶される目印画像情報の一例を示す図である。FIG. 3 is a diagram showing an example of mark image information stored in the operation position determination device according to the embodiment of the present invention. 図4は、本発明の実施形態に係る操作位置判定装置に記憶される表示情報の一例を示す図である。FIG. 4 is a diagram showing an example of display information stored in the operation position determination device according to the embodiment of the present invention. 図5は、本発明の実施形態に係る操作位置判定装置に記憶されるユーザ情報の一例を示す図である。FIG. 5 is a diagram showing an example of user information stored in the operation position determination device according to the embodiment of the present invention. 図6は、本発明の実施形態に係る操作位置判定装置に記憶されるタッチ検出情報の一例を示す図である。FIG. 6 is a diagram showing an example of touch detection information stored in the operation position determination device according to the embodiment of the present invention. 図7は、本発明の実施形態に係る操作位置判定装置に記憶される登録位置情報の一例を示す図である。FIG. 7 is a diagram showing an example of registered position information stored in the operation position determination device according to the embodiment of the present invention. 図8は、本発明の実施形態に係る操作位置判定装置に表示される目印画像の一例を示す図である。FIG. 8 is a diagram showing an example of a mark image displayed on the operation position determination device according to the embodiment of the present invention. 図9は、本発明の実施形態に係る操作位置判定装置に表示される目印画像の一例を示す図である。FIG. 9 is a diagram showing an example of a mark image displayed on the operation position determination device according to the embodiment of the present invention. 図10は、本発明の実施形態に係る操作位置判定装置で検出されるタッチ位置の一例を示す図である。FIG. 10 is a diagram showing an example of a touch position detected by the operation position determination device according to the embodiment of the present invention. 図11は、本発明の実施形態に係る操作位置判定装置で検出されるタッチ位置の一例を示す図である。FIG. 11 is a diagram showing an example of a touch position detected by the operation position determination device according to the embodiment of the present invention. 図12は、本発明の実施形態に係る操作位置判定装置で生成される輪郭画像の一例を示す図である。FIG. 12 is a diagram showing an example of a contour image generated by the operation position determination device according to the embodiment of the present invention. 図13は、本発明の実施形態に係る操作位置判定装置で実行される操作位置判定処理の手順の一例を説明するためのフローチャートである。FIG. 13 is a flowchart for explaining an example of the procedure of the operation position determination process executed by the operation position determination device according to the embodiment of the present invention. 図14は、本発明の実施形態に係る操作位置判定装置に表示される目印画像の一例を示す図である。FIG. 14 is a diagram showing an example of a mark image displayed on the operation position determination device according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。尚、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格を有さない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the following embodiment is an example embodying the present invention and does not have a character that limits the technical scope of the present invention.

[操作位置判定装置1]
図1に示すように、本発明の実施形態に係る操作位置判定装置1は、ユーザの指又はタッチペンによりタッチ入力が可能なタッチパネルディスプレイ10(タッチパネル表示装置)を備えている。タッチパネルディスプレイ10は、例えば脚部11に支持されて自立可能に配置される。ユーザは、タッチパネルディスプレイ10を、垂直置きの姿勢の状態で使用することが可能である。タッチパネルディスプレイ10は、大型のディスプレイであり、画像を表示する表示画面10aの全領域においてタッチ操作が可能となっている。
[Operating position determination device 1]
As shown in FIG. 1, the operation position determination device 1 according to the embodiment of the present invention includes a touch panel display 10 (touch panel display device) capable of touch input by a user's finger or a touch pen. The touch panel display 10 is supported by, for example, the legs 11 and is arranged so as to be self-supporting. The user can use the touch panel display 10 in a vertically placed posture. The touch panel display 10 is a large-sized display, and a touch operation is possible in the entire area of the display screen 10a for displaying an image.

例えば大型のタッチパネルディスプレイ10を用いて、表示画面10aにおいてユーザがタッチ操作を行いながら進行するゲーム(本発明のアプリケーションの一例)を実施する場合、ユーザの手が届きにくい領域が生じると、適切なタッチ操作を行うことが困難になる。そこで、本実施形態に係る操作位置判定装置1は、タッチパネルディスプレイ10を使用するユーザの操作位置を適切化することが可能な構成を備えている。 For example, when a large touch panel display 10 is used to play a game (an example of an application of the present invention) in which a user advances while performing a touch operation on the display screen 10a, it is appropriate if an area that is difficult for the user to reach occurs. It becomes difficult to perform touch operation. Therefore, the operation position determination device 1 according to the present embodiment has a configuration capable of optimizing the operation position of the user who uses the touch panel display 10.

具体的には、図2に示すように、操作位置判定装置1は、タッチパネルディスプレイ10、記憶部20、及び制御部30を備えている。タッチパネルディスプレイ10は、操作位置判定装置1の外部に配置され、ネットワークを介して操作位置判定装置1に接続されてもよい。操作位置判定装置1は、例えばパーソナルコンピューターなどの情報処理装置である。尚、操作位置判定装置1は、1台のコンピュータに限らず、複数台のコンピュータが協働して動作するコンピューターシステムであってもよい。また、操作位置判定装置1で実行される各種の処理は、一又は複数のプロセッサーによって分散して実行されてもよい。操作位置判定装置1は、本発明の操作位置判定装置の一例である。 Specifically, as shown in FIG. 2, the operation position determination device 1 includes a touch panel display 10, a storage unit 20, and a control unit 30. The touch panel display 10 may be arranged outside the operation position determination device 1 and may be connected to the operation position determination device 1 via a network. The operation position determination device 1 is an information processing device such as a personal computer. The operation position determination device 1 is not limited to one computer, and may be a computer system in which a plurality of computers operate in cooperation with each other. Further, various processes executed by the operation position determination device 1 may be distributed and executed by one or a plurality of processors. The operation position determination device 1 is an example of the operation position determination device of the present invention.

タッチパネルディスプレイ10は、タッチパネル111と表示部112とを備えている。タッチパネル111は、静電容量方式のタッチパネルであってもよいし、感圧式又は赤外線遮断方式のタッチパネルであってもよい。すなわち、タッチパネル111は、ユーザの指又はタッチペン等によるタッチ操作等、ユーザの操作入力を適宜受け付けることが可能な装置であればよい。表示部112は、例えば液晶ディスプレイである。尚、表示部112は、液晶ディスプレイに限定されず、LED(Light Emitting Diode)ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等であってもよい。タッチパネル111及び表示部112は一体に形成されていてもよい。 The touch panel display 10 includes a touch panel 111 and a display unit 112. The touch panel 111 may be a capacitance type touch panel, or may be a pressure sensitive type or an infrared ray blocking type touch panel. That is, the touch panel 111 may be a device capable of appropriately accepting user's operation input such as touch operation with a user's finger or a touch pen. The display unit 112 is, for example, a liquid crystal display. The display unit 112 is not limited to the liquid crystal display, and may be an LED (Light Emitting Diode) display, an organic EL (Electro-Luminescence) display, or the like. The touch panel 111 and the display unit 112 may be integrally formed.

記憶部20は、各種の情報を記憶する半導体メモリ、HDD(Hard Disk Drive)又はSSD(Solid State Drive)などを含む不揮発性の記憶部である。例えば、記憶部20には、制御部30に後述の操作位置判定処理(図13参照)を実行させるための操作位置判定プログラムなどの制御プログラムが記憶されている。例えば、前記制御プログラムは、USB、CD又はDVD(何れも登録商標)などのコンピュータ読取可能な記録媒体に非一時的に記録されており、操作位置判定装置1に電気的に接続されるUSBドライブ、CDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部20に記憶される。前記制御プログラムは、ネットワークを介して外部機器からダウンロードされて記憶部20に記憶されてもよい。 The storage unit 20 is a non-volatile storage unit including a semiconductor memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like that stores various types of information. For example, the storage unit 20 stores a control program such as an operation position determination program for causing the control unit 30 to execute an operation position determination process (see FIG. 13) described later. For example, the control program is non-temporarily recorded on a computer-readable recording medium such as USB, CD, or DVD (all of which are registered trademarks), and is electrically connected to the operation position determination device 1. , A reading device (not shown) such as a CD drive or a DVD drive, and stored in the storage unit 20. The control program may be downloaded from an external device via a network and stored in the storage unit 20.

また、記憶部20には、後述の操作位置判定処理において表示部112に表示される目印画像の情報である目印画像情報211と、当該目印画像を表示部112に表示させるための情報である表示情報212と、タッチパネルディスプレイ10を使用するユーザの情報であるユーザ情報213と、前記目印画像に対するユーザのタッチを検出した情報であるタッチ検出情報214と、ユーザに対応する登録位置の情報である登録位置情報215とが記憶される。 Further, the storage unit 20 has the mark image information 211 which is the information of the mark image displayed on the display unit 112 in the operation position determination process described later, and the display which is the information for displaying the mark image on the display unit 112. Information 212, user information 213 which is information of a user who uses the touch panel display 10, touch detection information 214 which is information which detects a user's touch on the mark image, and registration which is information of a registration position corresponding to the user. The position information 215 and the like are stored.

図3に示すように、目印画像情報211には、目印画像ごとに、「目印画像ID」、「目印画像名」、「目印画像」などの情報が含まれる。ここで、前記目印画像には、ユーザの左手によりタッチすべき位置を示す左手タッチ位置目印画像と、ユーザの右手によりタッチすべき位置を示す右手タッチ位置目印画像とが含まれる。「目印画像ID」には、左手タッチ位置目印画像の識別情報「PL」、右手タッチ位置目印画像の識別情報「PR」が登録される。「目印画像名」には、左手タッチ位置目印画像PL、右手タッチ位置目印画像PRが登録される。「目印画像」には、左手タッチ位置目印画像PLのオブジェクト画像(画像データ)、右手タッチ位置目印画像PRのオブジェクト画像(画像データ)が登録される。左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRはそれぞれ、手のひらを広げた状態(手の指を伸ばした状態)を手の形状を模式的に描画した画像である。制御部30は、目印画像情報211の目印画像を表示部112に表示させる。 As shown in FIG. 3, the mark image information 211 includes information such as "mark image ID", "mark image name", and "mark image" for each mark image. Here, the mark image includes a left-hand touch position mark image showing a position to be touched by the user's left hand and a right-hand touch position mark image showing a position to be touched by the user's right hand. In the "mark image ID", the identification information "PL" of the left-hand touch position mark image and the identification information "PR" of the right-hand touch position mark image are registered. The left-hand touch position mark image PL and the right-hand touch position mark image PR are registered in the "mark image name". An object image (image data) of the left-hand touch position mark image PL and an object image (image data) of the right-hand touch position mark image PR are registered in the "mark image". The left-hand touch position mark image PL and the right-hand touch position mark image PR are images in which the shape of the hand is schematically drawn in a state in which the palm is spread (a state in which the fingers of the hand are extended). The control unit 30 causes the display unit 112 to display the mark image of the mark image information 211.

なお、各目印画像は、写真画像、イラスト画像などであってもよい。また、目印画像情報211には、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRが、各々一つずつ登録されてもよいし、大きさが異なる複数の種類が各々登録されてもよい。例えば、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRのそれぞれについて、大・中・小の3種類の目印画像が登録されてもよい。この場合、制御部30は、例えばユーザの属性(図5参照)に対応した大きさの目印画像を表示部112に表示させてもよい。 The marker image may be a photographic image, an illustration image, or the like. Further, in the mark image information 211, one left-hand touch position mark image PL and one right-hand touch position mark image PR may be registered, or a plurality of types having different sizes may be registered. For example, three types of mark images, large, medium, and small, may be registered for each of the left-hand touch position mark image PL and the right-hand touch position mark image PR. In this case, the control unit 30 may display, for example, a mark image having a size corresponding to the user's attribute (see FIG. 5) on the display unit 112.

図4に示すように、表示情報212には、表示画面10aに表示される前記目印画像ごとに、「目印画像ID」、「表示位置」などの情報が含まれる。「表示位置」は、表示画面10aにおいて前記目印画像が表示される位置座標である。前記表示位置には、表示画面10aの所定の位置が登録される。例えば、前記表示位置には、表示画面10aの中心に対して左右対称となる位置であって、左右方向に所定の間隔(例えばユーザの肩幅)を隔てた位置が登録される。また、例えば、前記表示位置には、ユーザの属性(図5参照)に対応した位置が登録される。制御部30は、表示情報212の表示位置に基づいて目印画像を表示部112に表示させる。 As shown in FIG. 4, the display information 212 includes information such as "mark image ID" and "display position" for each mark image displayed on the display screen 10a. The "display position" is a position coordinate at which the mark image is displayed on the display screen 10a. A predetermined position of the display screen 10a is registered in the display position. For example, in the display position, a position symmetrical with respect to the center of the display screen 10a and separated by a predetermined interval (for example, the shoulder width of the user) in the left-right direction is registered. Further, for example, a position corresponding to a user's attribute (see FIG. 5) is registered in the display position. The control unit 30 causes the display unit 112 to display the mark image based on the display position of the display information 212.

図5に示すように、ユーザ情報213には、タッチパネルディスプレイ10を使用するユーザごとに、「ユーザID」、「ユーザ名」、「年齢」、「性別」、「身長」などの情報が含まれる。「ユーザID」は、ユーザの識別情報であり、例えばタッチパネルディスプレイ10を使用する際に入力するログインID又はパスワードである。ユーザ情報213には、ユーザの年齢、性別、身長などの属性が登録される。図4に示す表示情報212の前記表示位置には、例えばユーザの身長に応じた位置が登録されてもよい。 As shown in FIG. 5, the user information 213 includes information such as "user ID", "user name", "age", "gender", and "height" for each user who uses the touch panel display 10. .. The "user ID" is user identification information, and is, for example, a login ID or password to be input when using the touch panel display 10. Attributes such as the user's age, gender, and height are registered in the user information 213. For example, a position corresponding to the height of the user may be registered in the display position of the display information 212 shown in FIG.

図6に示すように、タッチ検出情報214には、ユーザのタッチ操作ごとに、「タッチ順」、「タッチ対象目印画像ID」、「タッチ位置」、「タッチ時刻」などの情報が含まれる。「タッチ順」は、表示画面10aにおいてユーザがタッチした順番である。「タッチ対象目印画像ID」は、ユーザのタッチ操作の対象となる前記目印画像を識別するための識別情報である。「タッチ位置」は、表示画面10aにおいて前記目印画像に対してユーザがタッチした位置を示す位置座標である。「タッチ時刻」は、表示画面10aにおいて前記目印画像に対してユーザがタッチした時刻である。例えば、ユーザが左手及び右手の全ての指で、表示部112に表示された左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRをタッチした場合、制御部30は、10点のタッチを検出して各タッチに関する情報をタッチ検出情報214に登録する。 As shown in FIG. 6, the touch detection information 214 includes information such as "touch order", "touch target mark image ID", "touch position", and "touch time" for each touch operation of the user. The "touch order" is the order in which the user touches the display screen 10a. The "touch target mark image ID" is identification information for identifying the mark image that is the target of the user's touch operation. The "touch position" is a position coordinate indicating a position touched by the user with respect to the mark image on the display screen 10a. The "touch time" is the time when the user touches the mark image on the display screen 10a. For example, when the user touches the left hand touch position mark image PL and the right hand touch position mark image PR displayed on the display unit 112 with all the fingers of the left hand and the right hand, the control unit 30 detects 10 touch points. Information about each touch is registered in the touch detection information 214.

図7に示すように、登録位置情報215には、ユーザごとに、「ユーザID」、「ユーザ名」、「登録位置」などの情報が含まれる。「登録位置」は、ユーザの操作位置が適切であると判定された場合の位置座標である。例えば、制御部30は、表示画面10aに表示された前記目印画像(左手タッチ位置目印画像PL及び右手タッチ位置目印画像PR)に対してユーザが適切にタッチしたと判定した場合に、前記目印画像の表示位置を前記登録位置に登録する。例えば、左手タッチ位置目印画像PLの中心座標及び右手タッチ位置目印画像PRの中心座標が前記登録位置に登録される。 As shown in FIG. 7, the registered position information 215 includes information such as "user ID", "user name", and "registered position" for each user. The "registered position" is a position coordinate when it is determined that the operation position of the user is appropriate. For example, when the control unit 30 determines that the user has appropriately touched the mark image (left hand touch position mark image PL and right hand touch position mark image PR) displayed on the display screen 10a, the mark image The display position of is registered in the registered position. For example, the center coordinates of the left-hand touch position mark image PL and the center coordinates of the right-hand touch position mark image PR are registered in the registered position.

制御部30は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の演算処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶された不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリ(作業領域)として使用される。そして、制御部30は、前記ROM又は記憶部20に予め記憶された各種の制御プログラムを前記CPUで実行することにより操作位置判定装置1を制御する。 The control unit 30 includes control devices such as a CPU, a ROM, and a RAM. The CPU is a processor that executes various arithmetic processes. The ROM is a non-volatile storage unit in which control programs such as a BIOS and an OS for causing the CPU to execute various arithmetic processes are stored in advance. The RAM is a volatile or non-volatile storage unit that stores various types of information, and is used as a temporary storage memory (work area) for various processes executed by the CPU. Then, the control unit 30 controls the operation position determination device 1 by executing various control programs stored in advance in the ROM or the storage unit 20 on the CPU.

具体的には、制御部30は、タッチ検出部311、表示制御部312、タッチ判定部313、操作位置判定部314などの処理部を備えている。尚、制御部30、前記CPUで前記操作位置判定プログラムに従った各種の処理を実行することによって前記各種の処理部として機能する。また、制御部30に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。尚、前記操作位置判定プログラムは、複数のプロセッサーを前記各種の処理部として機能させるためのプログラムであってもよい。 Specifically, the control unit 30 includes processing units such as a touch detection unit 311, a display control unit 312, a touch determination unit 313, and an operation position determination unit 314. The control unit 30 and the CPU function as the various processing units by executing various processing according to the operation position determination program. Further, a part or all of the processing units included in the control unit 30 may be composed of an electronic circuit. The operation position determination program may be a program for causing a plurality of processors to function as the various processing units.

タッチ検出部311は、タッチパネル111に対するユーザの入力操作(タッチ)を検出する。タッチ検出部311は、本発明のタッチ検出部の一例である。具体的には、タッチ検出部311は、入力面(例えば表示画面10a)においてユーザの指又はタッチペンによって入力(タッチ、スワイプなど)された位置座標(例えばタッチ位置)を検出する。例えば、タッチ検出部311は、指又はタッチペンと前記入力面との間の静電容量の変化を検出することにより前記タッチ位置を検出する。 The touch detection unit 311 detects a user's input operation (touch) on the touch panel 111. The touch detection unit 311 is an example of the touch detection unit of the present invention. Specifically, the touch detection unit 311 detects the position coordinates (for example, the touch position) input (touch, swipe, etc.) by the user's finger or the touch pen on the input surface (for example, the display screen 10a). For example, the touch detection unit 311 detects the touch position by detecting a change in capacitance between the finger or the touch pen and the input surface.

また、タッチ検出部311は、表示画面10aに表示される左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRのそれぞれに対して、表示画面10aにおいてユーザの指によりタッチされたタッチ位置を検出する。なお、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRはそれぞれ、手の指を伸ばした状態の画像であるため、ユーザは自身の手の指を伸ばして各目印画像に重なるようにタッチする。ユーザが各目印画像に適切にタッチした場合、タッチ検出部311は、各指に対応する10点のタッチを検出する。タッチ検出部311は、検出した前記タッチの情報(タッチ位置、タッチ時刻など)をタッチ検出情報214(図6参照)に記録する。 Further, the touch detection unit 311 detects the touch position touched by the user's finger on the display screen 10a for each of the left hand touch position mark image PL and the right hand touch position mark image PR displayed on the display screen 10a. .. Since the left hand touch position mark image PL and the right hand touch position mark image PR are images in a state where the fingers of the hand are extended, the user stretches the fingers of his / her hand and touches them so as to overlap each mark image. .. When the user appropriately touches each mark image, the touch detection unit 311 detects 10 touches corresponding to each finger. The touch detection unit 311 records the detected touch information (touch position, touch time, etc.) in the touch detection information 214 (see FIG. 6).

表示制御部312は、各種情報をタッチパネルディスプレイ10の表示部112の表示画面10aに表示させる。表示制御部312は、本発明の表示制御部の一例である。具体的には、表示制御部312は、ユーザの左手によりタッチすべき位置を示す左手タッチ位置目印画像PLと、ユーザの右手によりタッチすべき位置を示す右手タッチ位置目印画像PRとを、それぞれ表示画面10aの所定の位置に表示させる。例えば図8に示すように、表示制御部312は、表示画面10aの中心C1に対して左右対称となるように、左右方向に所定の間隔(例えばユーザの肩幅)を隔てて、左側に左手タッチ位置目印画像PLを、右側に右手タッチ位置目印画像PRをそれぞれ表示させる。 The display control unit 312 displays various information on the display screen 10a of the display unit 112 of the touch panel display 10. The display control unit 312 is an example of the display control unit of the present invention. Specifically, the display control unit 312 displays a left-hand touch position mark image PL indicating a position to be touched by the user's left hand and a right-hand touch position mark image PR indicating a position to be touched by the user's right hand, respectively. It is displayed at a predetermined position on the screen 10a. For example, as shown in FIG. 8, the display control unit 312 touches the left hand on the left side with a predetermined interval (for example, the shoulder width of the user) in the left-right direction so as to be symmetrical with respect to the center C1 of the display screen 10a. The position mark image PL is displayed, and the right hand touch position mark image PR is displayed on the right side.

また、表示制御部312は、ユーザの属性(図5参照)に対応した位置に、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを表示させてもよい。例えば、ユーザの身長が平均身長よりも高い場合、表示制御部312は、中心C1(図8参照)よりも高い位置を中心として、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを表示させる。なお、表示制御部312は、ユーザが椅子(車椅子を含む)に着席している場合には、着席状態を考慮して左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを表示させる。 Further, the display control unit 312 may display the left-hand touch position mark image PL and the right-hand touch position mark image PR at positions corresponding to the user's attributes (see FIG. 5). For example, when the height of the user is higher than the average height, the display control unit 312 displays the left-hand touch position mark image PL and the right-hand touch position mark image PR centering on a position higher than the center C1 (see FIG. 8). .. When the user is seated in a chair (including a wheelchair), the display control unit 312 displays the left-hand touch position mark image PL and the right-hand touch position mark image PR in consideration of the seated state.

また、表示制御部312は、ユーザの属性(図5参照)に対応した大きさで、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを表示させてもよい。例えば、ユーザが女性でかつ身長が平均身長よりも低い場合、表示制御部312は、中心C1(図8参照)よりも低い位置を中心として、小さいサイズの左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを狭い間隔表示させる。 Further, the display control unit 312 may display the left-hand touch position mark image PL and the right-hand touch position mark image PR in a size corresponding to the user's attribute (see FIG. 5). For example, when the user is a woman and the height is shorter than the average height, the display control unit 312 has a small size left hand touch position marker image PL and a right hand touch position centered on a position lower than the center C1 (see FIG. 8). The landmark image PR is displayed at narrow intervals.

表示制御部312により前記目印画像が表示されると、ユーザは目印画像に対してタッチ操作を行う。ここで、表示制御部312は、ユーザに対して目印画像に対するタッチ操作を促すメッセージを表示画面10aに表示させてもよい。例えば図9に示すように、表示制御部312は、「肘を伸ばして目印画像にタッチしてください」のメッセージを表示させる。これにより、ユーザを目印画像の位置に誘導してタッチ操作を実行させることができる。 When the mark image is displayed by the display control unit 312, the user performs a touch operation on the mark image. Here, the display control unit 312 may display a message prompting the user to perform a touch operation on the mark image on the display screen 10a. For example, as shown in FIG. 9, the display control unit 312 displays the message "Please extend your elbow and touch the mark image". As a result, the user can be guided to the position of the mark image to execute the touch operation.

タッチ判定部313は、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対して、ユーザによりタッチされたか否かを判定する。具体的には、タッチ判定部313は、左手タッチ位置目印画像PLの形状に対応したユーザのタッチが検出され、かつ右手タッチ位置目印画像PRの形状に対応したユーザのタッチが検出された場合に、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザによりタッチされたと判定する。 The touch determination unit 313 determines whether or not the user has touched the left-hand touch position mark image PL and the right-hand touch position mark image PR. Specifically, when the touch determination unit 313 detects a user's touch corresponding to the shape of the left-hand touch position mark image PL and detects a user's touch corresponding to the shape of the right-hand touch position mark image PR. , It is determined that the user has touched the left-hand touch position mark image PL and the right-hand touch position mark image PR.

例えば、タッチ判定部313は、タッチ検出部311によりユーザによるタッチが10点検出され、左手タッチ位置目印画像PLに対応する5点の位置座標により生成される左手輪郭画像ULが左手タッチ位置目印画像PLと一致し、右手タッチ位置目印画像PRに対応する5点の位置座標により生成される右手輪郭画像URが左手タッチ位置目印画像PLと一致する場合に、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザによりタッチされたと判定する。 For example, in the touch determination unit 313, 10 points of touch by the user are detected by the touch detection unit 311, and the left hand contour image UL generated by the position coordinates of 5 points corresponding to the left hand touch position mark image PL is the left hand touch position mark image. When the right-hand contour image UR that matches the PL and is generated by the position coordinates of the five points corresponding to the right-hand touch position mark image PR matches the left-hand touch position mark image PL, the left-hand touch position mark image PL and the right-hand touch position It is determined that the mark image PR has been touched by the user.

具体的には、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRが表示画面10aに表示(図8参照)された後、ユーザが左手及び右手で各目印画像PL,PRをタッチすると、図10及ぶ図11に示すように、タッチ検出部311は、各指のタッチ位置U1〜U10を検出する。タッチ検出部311は、検出したタッチ位置をタッチ検出情報214(図6参照)に登録する。タッチ判定部313は、10点の各タッチ位置が各目印画像PL,PRの各指の先端の位置に一致する場合に、タッチを10点検出したと判定する。なお、タッチ判定部313は、左手に対応するタッチ位置U1〜U5の中心位置が左手タッチ位置目印画像PLの中心位置に一致し、かつ右手に対応するタッチ位置U6〜U10の中心位置が右手タッチ位置目印画像PRの中心位置に一致する場合に、タッチを10点検出したと判定してもよい。 Specifically, after the left-hand touch position mark image PL and the right-hand touch position mark image PR are displayed on the display screen 10a (see FIG. 8), when the user touches each mark image PL, PR with the left and right hands, the figure is shown. As shown in FIG. 11, the touch detection unit 311 detects the touch positions U1 to U10 of each finger. The touch detection unit 311 registers the detected touch position in the touch detection information 214 (see FIG. 6). The touch determination unit 313 determines that 10 touch points have been detected when each of the 10 touch positions matches the position of the tip of each finger of each mark image PL, PR. In the touch determination unit 313, the center position of the touch positions U1 to U5 corresponding to the left hand coincides with the center position of the left hand touch position mark image PL, and the center position of the touch positions U6 to U10 corresponding to the right hand touches the right hand. If it matches the center position of the position mark image PR, it may be determined that 10 touch points have been detected.

タッチ判定部313は、ユーザのタッチを10点検出した場合、図12に示すように、左手に対応するタッチ位置U1〜U5に基づいて左手輪郭画像ULを生成し、右手に対応するタッチ位置U6〜U10に基づいて右手輪郭画像URを生成する。そして、タッチ判定部313は、左手輪郭画像ULが左手タッチ位置目印画像PLに一致し、かつ右手輪郭画像URが右手タッチ位置目印画像PRに一致する場合に、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザによりタッチされたと判定する。なお、タッチ判定部313は、左手輪郭画像ULの中心位置と左手タッチ位置目印画像PLの中心位置とが一致し、かつ右手輪郭画像URの中心位置と右手タッチ位置目印画像PRの中心位置とが一致する場合に、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザによりタッチされたと判定してもよい。また、前記「一致」は、「完全一致」に限定されず、「略一致」を含む。 When the touch determination unit 313 detects 10 points of the user's touch, as shown in FIG. 12, the touch determination unit 313 generates a left hand contour image UL based on the touch positions U1 to U5 corresponding to the left hand, and the touch position U6 corresponding to the right hand. A right-hand contour image UR is generated based on ~ U10. Then, when the left hand contour image UL matches the left hand touch position mark image PL and the right hand contour image UR matches the right hand touch position mark image PR, the touch determination unit 313 determines the left hand touch position mark image PL and the right hand touch. It is determined that the position mark image PR has been touched by the user. In the touch determination unit 313, the center position of the left hand contour image UL and the center position of the left hand touch position mark image PL coincide with each other, and the center position of the right hand contour image UR and the center position of the right hand touch position mark image PR are aligned. If they match, it may be determined that the user has touched the left-hand touch position mark image PL and the right-hand touch position mark image PR. Further, the "match" is not limited to "exact match", but includes "substantially match".

また、操作位置判定部314は、各目印画像PL,PRの表示位置を登録位置情報215の「登録位置」に登録する(図7参照)。例えば、操作位置判定部314は、左手タッチ位置目印画像PLの中心座標及び右手タッチ位置目印画像PRの中心座標を前記登録位置として登録する。すなわち、表示画面10aに表示された左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザが適切にタッチ操作できた場合には、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRの表示位置は、当該ユーザにとって手が届き易く操作可能な位置である判断できる。このため、操作位置判定部314は、当該表示位置を適切と判断して、当該ユーザに対応する登録位置に設定する。 Further, the operation position determination unit 314 registers the display positions of the mark images PL and PR in the "registration position" of the registration position information 215 (see FIG. 7). For example, the operation position determination unit 314 registers the center coordinates of the left-hand touch position mark image PL and the center coordinates of the right-hand touch position mark image PR as the registration positions. That is, when the user can appropriately touch the left-hand touch position mark image PL and the right-hand touch position mark image PR displayed on the display screen 10a, the left-hand touch position mark image PL and the right-hand touch position mark image PR It can be determined that the display position of is a position that is easily accessible and operable for the user. Therefore, the operation position determination unit 314 determines that the display position is appropriate, and sets the display position to the registration position corresponding to the user.

タッチ判定部313により左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザによりタッチされたと判定されない場合には、ユーザが適切な位置にいない可能性がある。この場合には、制御部30は、ユーザに対して再度のタッチ操作を促す。すなわち、制御部30は、タッチ判定部313により左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザによりタッチされたと判定されるまで、ユーザのタッチ操作に対応するタッチ検出処理及び判定処理を繰り返す。これにより、ユーザを適切な位置に誘導することができる。 If the touch determination unit 313 does not determine that the left-hand touch position mark image PL and the right-hand touch position mark image PR have been touched by the user, the user may not be in an appropriate position. In this case, the control unit 30 prompts the user to perform the touch operation again. That is, the control unit 30 performs touch detection processing and determination corresponding to the user's touch operation until it is determined by the touch determination unit 313 that the left hand touch position mark image PL and the right hand touch position mark image PR have been touched by the user. Repeat the process. As a result, the user can be guided to an appropriate position.

[操作位置判定処理]
以下、図13を参照しつつ、操作位置判定装置1の制御部30によって実行される操作位置判定処理の手順の一例について説明する。操作位置判定装置1の制御部30は、ユーザの操作に応じて前記操作位置判定プログラムの実行を開始することによって、前記操作位置判定処理の実行を開始する。
[Operation position determination processing]
Hereinafter, an example of the procedure of the operation position determination process executed by the control unit 30 of the operation position determination device 1 will be described with reference to FIG. The control unit 30 of the operation position determination device 1 starts the execution of the operation position determination process by starting the execution of the operation position determination program in response to the operation of the user.

尚、本発明は、前記操作位置判定処理に含まれる一又は複数のステップを実行する操作位置判定方法の発明として捉えることができる。また、ここで説明する前記操作位置判定処理に含まれる一又は複数のステップが適宜省略されてもよい。また、前記操作位置判定処理における各ステップは、同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部30によって前記操作位置判定処理における各ステップが実行される場合を例に挙げて説明するが、他の実施形態では、複数のプロセッサーによって前記操作位置判定処理における各ステップが分散して実行されてもよい。 The present invention can be regarded as an invention of an operation position determination method for executing one or a plurality of steps included in the operation position determination process. Further, one or a plurality of steps included in the operation position determination process described here may be omitted as appropriate. Further, the execution order of each step in the operation position determination process may be different within a range in which the same action and effect are produced. Further, here, a case where each step in the operation position determination process is executed by the control unit 30 will be described as an example, but in another embodiment, each step in the operation position determination process is distributed by a plurality of processors. May be executed.

ステップS11において、制御部30は、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを表示画面10aに表示させる。例えば、制御部30は、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを、ユーザの属性(図5参照)に応じた位置において、ユーザの属性に応じた大きさで表示させる。また、制御部30は、ユーザに対してタッチ操作を促すメッセージ(図9参照)を表示画面10aに表示させる。ステップS11は、本発明の表示ステップの一例である。 In step S11, the control unit 30 displays the left-hand touch position mark image PL and the right-hand touch position mark image PR on the display screen 10a. For example, the control unit 30 displays the left-hand touch position mark image PL and the right-hand touch position mark image PR at positions according to the user's attributes (see FIG. 5) in a size corresponding to the user's attributes. Further, the control unit 30 causes the display screen 10a to display a message (see FIG. 9) prompting the user to perform a touch operation. Step S11 is an example of the display step of the present invention.

次にステップS12において、制御部30は、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対するユーザのタッチを検出する。ステップS12は、本発明のタッチ検出ステップの一例である。 Next, in step S12, the control unit 30 detects the user's touch on the left-hand touch position mark image PL and the right-hand touch position mark image PR. Step S12 is an example of the touch detection step of the present invention.

次にステップS13において、制御部30は、検出したタッチの関するタッチ情報(タッチ位置、タッチ時刻など)をタッチ検出情報214に登録する。 Next, in step S13, the control unit 30 registers the touch information (touch position, touch time, etc.) related to the detected touch in the touch detection information 214.

次にステップS14において、制御部30は、検出したタッチが10点に達したか否かを判定する。検出したタッチが10点に達した場合(S14:Yes)、処理はステップS15に移行し、検出したタッチが10点に満たない場合(S14:No)、処理はステップS12に戻る。ステップS12に戻ると、制御部30は、さらに、ユーザに対してタッチ操作を促し、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対するユーザのタッチを検出する。ステップS14は、本発明のタッチ判定ステップの一例である。 Next, in step S14, the control unit 30 determines whether or not the detected touch has reached 10 points. When the detected touch reaches 10 points (S14: Yes), the process proceeds to step S15, and when the detected touch is less than 10 points (S14: No), the process returns to step S12. Returning to step S12, the control unit 30 further urges the user to perform a touch operation, and detects the user's touch on the left-hand touch position mark image PL and the right-hand touch position mark image PR. Step S14 is an example of the touch determination step of the present invention.

検出したタッチが10点に達すると(S14:Yes)、ステップS15において、制御部30は、図12に示すように、左手に対応するタッチ位置U1〜U5に基づいて左手輪郭画像ULを生成し、右手に対応するタッチ位置U6〜U10に基づいて右手輪郭画像URを生成する。 When the detected touch reaches 10 points (S14: Yes), in step S15, the control unit 30 generates a left hand contour image UL based on the touch positions U1 to U5 corresponding to the left hand, as shown in FIG. , The right hand contour image UR is generated based on the touch positions U6 to U10 corresponding to the right hand.

次にステップS16において、制御部30は、生成した左手輪郭画像ULが左手タッチ位置目印画像PLに一致し、かつ、生成した右手輪郭画像URが右手タッチ位置目印画像PRに一致するか否かを判定する。生成した輪郭画像UL,URのそれぞれが目印画像PL,PRのそれぞれに一致する場合(S16:Yes)、処理はステップS17に移行し、生成した輪郭画像UL,URのうち少なくともいずれかが目印画像PL,PRのそれぞれに一致しない場合(S16:No)、処理はステップS12に戻る。ステップS16は、本発明のタッチ判定ステップの一例である。 Next, in step S16, the control unit 30 determines whether or not the generated left-hand contour image UL matches the left-hand touch position mark image PL and the generated right-hand contour image UR matches the right-hand touch position mark image PR. judge. When each of the generated contour images UL and UR matches each of the mark images PL and PR (S16: Yes), the process proceeds to step S17, and at least one of the generated contour images UL and UR is a mark image. If each of PL and PR does not match (S16: No), the process returns to step S12. Step S16 is an example of the touch determination step of the present invention.

ステップS17において、制御部30は、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザによりタッチされたと判定する。すなわち、制御部30は、ユーザの操作位置が適切であると判定する。ステップS17は、本発明の操作位置判定ステップの一例である。 In step S17, the control unit 30 determines that the user has touched the left-hand touch position mark image PL and the right-hand touch position mark image PR. That is, the control unit 30 determines that the operation position of the user is appropriate. Step S17 is an example of the operation position determination step of the present invention.

ステップS18において、制御部30は、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRの表示位置を登録位置に登録する。例えば、制御部30は、左手タッチ位置目印画像PLの中心座標及び右手タッチ位置目印画像PRの中心座標を、ユーザに対応する登録位置に登録する(図7参照)。 In step S18, the control unit 30 registers the display positions of the left-hand touch position mark image PL and the right-hand touch position mark image PR in the registered positions. For example, the control unit 30 registers the center coordinates of the left-hand touch position mark image PL and the center coordinates of the right-hand touch position mark image PR at the registration position corresponding to the user (see FIG. 7).

上述の操作位置判定処理が終了すると、ユーザは適切な操作位置に存在することになる。そこで、制御部30は、続けて、ゲームなどの所定のアプリケーションを実行する。これにより、ユーザは適切にタッチパネルディスプレイ10を使用することが可能となる。 When the above-mentioned operation position determination process is completed, the user is present at an appropriate operation position. Therefore, the control unit 30 subsequently executes a predetermined application such as a game. As a result, the user can appropriately use the touch panel display 10.

以上のように、本発明の実施形態に係る操作位置判定装置1は、左手タッチ位置目印画像PLと右手タッチ位置目印画像PRとを表示画面10aの所定の位置に表示させ、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対して、ユーザによりタッチされたか否かを判定する。そして、操作位置判定装置1は、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRに対してユーザによりタッチされたと判定された場合に、ユーザの操作位置が適切であると判定する。これにより、ユーザを適切な操作位置に誘導することができるため、タッチパネルディスプレイ10を使用する際にユーザの手が届きにくいといった問題を防ぐことができる。そして、ユーザは、適切な状態でタッチパネルディスプレイ10を使用することができる。よって、タッチパネルディスプレイ10の機能を用いて、タッチパネルディスプレイ10に対するユーザの操作位置を適切化することが可能となる。 As described above, the operation position determination device 1 according to the embodiment of the present invention displays the left hand touch position mark image PL and the right hand touch position mark image PR at a predetermined position on the display screen 10a, and displays the left hand touch position mark image. It is determined whether or not the PL and the right-hand touch position mark image PR have been touched by the user. Then, the operation position determination device 1 determines that the operation position of the user is appropriate when it is determined that the user has touched the left-hand touch position mark image PL and the right-hand touch position mark image PR. As a result, the user can be guided to an appropriate operation position, so that it is possible to prevent a problem that the user cannot reach when using the touch panel display 10. Then, the user can use the touch panel display 10 in an appropriate state. Therefore, it is possible to optimize the user's operation position with respect to the touch panel display 10 by using the function of the touch panel display 10.

本発明は上述の実施形態に限定されない。本発明の他の実施形態として、表示制御部312は、操作位置判定部314によりユーザの操作位置が適切であると判定された場合に実行される所定のアプリケーションに対応した位置に、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを表示させてもよい。例えば、前記アプリケーションにおいてユーザが操作する主な操作範囲GAが表示画面10aの右下側である場合には(図14参照)、表示制御部312は、左手タッチ位置目印画像PL及び右手タッチ位置目印画像PRを操作範囲GAの中心C2に対応する位置に表示させる。これにより、ユーザを、前記アプリケーションを使用する際の適切な操作位置に誘導することができる。 The present invention is not limited to the above-described embodiment. As another embodiment of the present invention, the display control unit 312 places the left hand touch position at a position corresponding to a predetermined application to be executed when the operation position determination unit 314 determines that the operation position of the user is appropriate. The mark image PL and the right-hand touch position mark image PR may be displayed. For example, when the main operation range GA operated by the user in the application is the lower right side of the display screen 10a (see FIG. 14), the display control unit 312 has the left hand touch position mark image PL and the right hand touch position mark. The image PR is displayed at a position corresponding to the center C2 of the operation range GA. As a result, the user can be guided to an appropriate operation position when using the application.

なお、前記アプリケーションを実行する実行装置(本発明のアプリケーション実行装置)は、操作位置判定装置1と同一(一体)であってもよいし、異なる装置であってもよい。また前記実行装置は、操作位置判定装置1においてユーザの操作位置が適切であると判定された場合に、所定のアプリケーションの実行を有効化してもよい。これにより、ユーザが適切な操作位置にいない状態で前記アプリケーションが実行されることを防ぐことができる。よって、ユーザは、常に適切な操作位置で前記アプリケーションを実行させてタッチパネルディスプレイ10を使用することが可能となる。 The execution device (application execution device of the present invention) that executes the application may be the same (integral) as the operation position determination device 1 or may be a different device. Further, the execution device may enable execution of a predetermined application when the operation position determination device 1 determines that the operation position of the user is appropriate. This makes it possible to prevent the application from being executed when the user is not in an appropriate operating position. Therefore, the user can always execute the application at an appropriate operation position and use the touch panel display 10.

操作位置判定装置1は、前記アプリケーションを実行する前に、前記操作位置判定処理(図13参照)を実行してもよい。例えば、ユーザが前記アプリケーションを起動させてログインIDを入力すると、操作位置判定装置1は、ログインIDを取得して、対象のユーザに対応する前記操作位置判定処理を実行する。そして、操作位置判定装置1は、前記操作位置判定処理を完了して前記ユーザの登録位置が登録されたことを条件として、前記アプリケーションの実行を有効化する。 The operation position determination device 1 may execute the operation position determination process (see FIG. 13) before executing the application. For example, when the user starts the application and inputs the login ID, the operation position determination device 1 acquires the login ID and executes the operation position determination process corresponding to the target user. Then, the operation position determination device 1 enables the execution of the application on condition that the operation position determination process is completed and the registered position of the user is registered.

本発明に係る操作位置判定装置は、各請求項に記載された発明の範囲において、以上に示された各実施形態を自由に組み合わせること、或いは各実施形態を適宜、変形又は一部を省略することによって構成されることも可能である。 The operation position determination device according to the present invention can freely combine the above-described embodiments within the scope of the invention described in each claim, or modify or partially omit each embodiment as appropriate. It is also possible to configure by.

1 :操作位置判定装置
10 :タッチパネルディスプレイ
10a :表示画面
111 :タッチパネル
112 :表示部
211 :目印画像情報
212 :表示情報
213 :ユーザ情報
214 :タッチ検出情報
215 :登録位置情報
311 :タッチ検出部
312 :表示制御部
313 :タッチ判定部
314 :操作位置判定部
1: Operation position determination device 10: Touch panel display 10a: Display screen 111: Touch panel 112: Display unit 211: Mark image information 212: Display information 213: User information 214: Touch detection information 215: Registered position information 311: Touch detection unit 312 : Display control unit 313: Touch determination unit 314: Operation position determination unit

Claims (9)

画像を表示する表示画面と、
前記表示画面に対するユーザによるタッチを検出するタッチ検出部と、
前記ユーザの左手によりタッチすべき位置を示す左手タッチ位置目印画像と、前記ユーザの右手によりタッチすべき位置を示す右手タッチ位置目印画像とを、それぞれ前記表示画面の所定の位置に表示させる表示制御部と、
前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して、前記ユーザによりタッチされたか否かを判定するタッチ判定部と、
前記タッチ判定部により前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して前記ユーザによりタッチされたと判定された場合に、前記ユーザの操作位置が適切であると判定する操作位置判定部と、
を備える操作位置判定装置。
A display screen that displays images and
A touch detection unit that detects a user's touch on the display screen,
Display control for displaying a left-hand touch position marker image indicating a position to be touched by the user's left hand and a right-hand touch position marker image indicating a position to be touched by the user's right hand at a predetermined position on the display screen, respectively. Department and
A touch determination unit that determines whether or not the user has touched the left-hand touch position mark image and the right-hand touch position mark image.
When the touch determination unit determines that the left hand touch position mark image and the right hand touch position mark image are touched by the user, the operation position determination unit determines that the operation position of the user is appropriate. ,
An operation position determination device including.
前記表示制御部は、前記ユーザの属性に対応した位置に前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像を表示させる、
請求項1に記載の操作位置判定装置。
The display control unit displays the left-hand touch position mark image and the right-hand touch position mark image at a position corresponding to the attribute of the user.
The operation position determination device according to claim 1.
前記表示制御部は、前記操作位置判定部により前記ユーザの操作位置が適切であると判定された場合に実行される所定のアプリケーションに対応した位置に、前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像を表示させる、
請求項1に記載の操作位置判定装置。
The display control unit is located at a position corresponding to a predetermined application to be executed when the operation position determination unit determines that the user's operation position is appropriate, such as the left hand touch position mark image and the right hand touch position. Display a landmark image,
The operation position determination device according to claim 1.
前記表示制御部は、左右方向に所定の間隔を隔てて、左側に前記左手タッチ位置目印画像を、右側に前記右手タッチ位置目印画像を、それぞれ表示させる、
請求項2又は請求項3に記載の操作位置判定装置。
The display control unit displays the left-hand touch position mark image on the left side and the right-hand touch position mark image on the right side at predetermined intervals in the left-right direction.
The operation position determination device according to claim 2 or 3.
前記左手タッチ位置目印画像は左手の形状を模式的に表す画像であり、前記右手タッチ位置目印画像は右手の形状を模式的に表す画像であり、
前記タッチ判定部は、前記左手タッチ位置目印画像の形状に対応した前記ユーザのタッチが検出され、かつ前記右手タッチ位置目印画像の形状に対応した前記ユーザのタッチが検出された場合に、前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して前記ユーザによりタッチされたと判定する、
請求項1から請求項4のいずれか1項に記載の操作位置判定装置。
The left hand touch position mark image is an image schematically showing the shape of the left hand, and the right hand touch position mark image is an image schematically showing the shape of the right hand.
The touch determination unit detects the user's touch corresponding to the shape of the left hand touch position mark image, and detects the user's touch corresponding to the shape of the right hand touch position mark image. It is determined that the user has touched the touch position mark image and the right hand touch position mark image.
The operation position determination device according to any one of claims 1 to 4.
前記表示制御部は、さらに、前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対するタッチ操作を前記ユーザに促すメッセージを前記表示画面に表示させる、
請求項1から請求項5のいずれか1項に記載の操作位置判定装置。
The display control unit further causes the display screen to display a message prompting the user to perform a touch operation on the left-hand touch position mark image and the right-hand touch position mark image.
The operation position determination device according to any one of claims 1 to 5.
請求項1から請求項6のいずれか1項に記載の操作位置判定装置において前記ユーザの操作位置が適切であると判定された場合に、所定のアプリケーションの実行を有効化するアプリケーション実行装置。 An application execution device that enables execution of a predetermined application when the operation position of the user is determined to be appropriate by the operation position determination device according to any one of claims 1 to 6. ユーザの左手によりタッチすべき位置を示す左手タッチ位置目印画像と、ユーザの右手によりタッチすべき位置を示す右手タッチ位置目印画像とを、それぞれ表示画面の所定の位置に表示させる表示ステップと、
前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して、前記ユーザによりタッチされたか否かを判定するタッチ判定ステップと、
前記タッチ判定ステップにおいて前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して前記ユーザによりタッチされたと判定された場合に、前記ユーザの操作位置が適切であると判定する操作位置判定ステップと、
を一又は複数のプロセッサーにより実行する操作位置判定方法。
A display step of displaying a left-hand touch position marker image indicating a position to be touched by the user's left hand and a right-hand touch position marker image indicating a position to be touched by the user's right hand at a predetermined position on the display screen, respectively.
A touch determination step for determining whether or not the user has touched the left-hand touch position mark image and the right-hand touch position mark image, and
When it is determined that the left hand touch position mark image and the right hand touch position mark image are touched by the user in the touch determination step, the operation position determination step of determining that the operation position of the user is appropriate. ,
Operation position determination method for executing the above with one or more processors.
ユーザの左手によりタッチすべき位置を示す左手タッチ位置目印画像と、ユーザの右手によりタッチすべき位置を示す右手タッチ位置目印画像とを、それぞれ表示画面の所定の位置に表示させる表示ステップと、
前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して、前記ユーザによりタッチされたか否かを判定するタッチ判定ステップと、
前記タッチ判定ステップにおいて前記左手タッチ位置目印画像及び前記右手タッチ位置目印画像に対して前記ユーザによりタッチされたと判定された場合に、前記ユーザの操作位置が適切であると判定する操作位置判定ステップと、
を一又は複数のプロセッサーに実行させるための操作位置判定プログラム。
A display step of displaying a left-hand touch position marker image indicating a position to be touched by the user's left hand and a right-hand touch position marker image indicating a position to be touched by the user's right hand at a predetermined position on the display screen, respectively.
A touch determination step for determining whether or not the user has touched the left-hand touch position mark image and the right-hand touch position mark image, and
When it is determined that the left hand touch position mark image and the right hand touch position mark image are touched by the user in the touch determination step, the operation position determination step of determining that the operation position of the user is appropriate. ,
An operation position determination program for causing one or more processors to execute.
JP2020034879A 2020-03-02 2020-03-02 Operating position determination device, application execution device, operating position determination method, and operating position determination program Pending JP2021140232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020034879A JP2021140232A (en) 2020-03-02 2020-03-02 Operating position determination device, application execution device, operating position determination method, and operating position determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020034879A JP2021140232A (en) 2020-03-02 2020-03-02 Operating position determination device, application execution device, operating position determination method, and operating position determination program

Publications (1)

Publication Number Publication Date
JP2021140232A true JP2021140232A (en) 2021-09-16

Family

ID=77668566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020034879A Pending JP2021140232A (en) 2020-03-02 2020-03-02 Operating position determination device, application execution device, operating position determination method, and operating position determination program

Country Status (1)

Country Link
JP (1) JP2021140232A (en)

Similar Documents

Publication Publication Date Title
JP5730667B2 (en) Method for dual-screen user gesture and dual-screen device
US9430145B2 (en) Dynamic text input using on and above surface sensing of hands and fingers
US20180181245A1 (en) Capacitive touch mapping
EP2252926B1 (en) Interpreting ambiguous inputs on a touch-screen
US7907125B2 (en) Recognizing multiple input point gestures
US10416777B2 (en) Device manipulation using hover
US9448642B2 (en) Systems and methods for rendering keyboard layouts for a touch screen display
US20090237361A1 (en) Virtual keyboard based activation and dismissal
US9411432B2 (en) Systems and methods for enabling gesture control based on detection of occlusion patterns
TW201108082A (en) Contoured thumb touch sensor apparatus
US9563393B2 (en) Information processing method and electronic device
US9864516B2 (en) Universal keyboard
US9092085B2 (en) Configuring a touchpad setting based on the metadata of an active application of an electronic device
JP6219100B2 (en) Image display device capable of displaying software keyboard and control method thereof
US20180373381A1 (en) Palm touch detection in a touch screen device having a floating ground or a thin touch panel
EP2230589A1 (en) Touch screen display device
JP2021140232A (en) Operating position determination device, application execution device, operating position determination method, and operating position determination program
US9009628B2 (en) Method and system for processing information fed via an inputting means
JP2016066254A (en) Electronic device with touch detection apparatus
US20200242962A1 (en) Operation range setting apparatus, game apparatus, operation range setting method, and non-transitory computer-readable recording medium
JP6264003B2 (en) Coordinate input system, coordinate instruction unit, coordinate input unit, control method of coordinate input system, and program
TWI626581B (en) Virtual keyboard
US11204662B2 (en) Input device with touch sensitive surface that assigns an action to an object located thereon
JP6434594B2 (en) Image display device, control method for image display device, and image display method
JP7173175B2 (en) Display device and display control program