JP6434594B2 - Image display device, control method for image display device, and image display method - Google Patents

Image display device, control method for image display device, and image display method Download PDF

Info

Publication number
JP6434594B2
JP6434594B2 JP2017187076A JP2017187076A JP6434594B2 JP 6434594 B2 JP6434594 B2 JP 6434594B2 JP 2017187076 A JP2017187076 A JP 2017187076A JP 2017187076 A JP2017187076 A JP 2017187076A JP 6434594 B2 JP6434594 B2 JP 6434594B2
Authority
JP
Japan
Prior art keywords
image
display
input device
touch
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017187076A
Other languages
Japanese (ja)
Other versions
JP2017224359A (en
Inventor
和典 浦野
和典 浦野
寺田 智
智 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017187076A priority Critical patent/JP6434594B2/en
Publication of JP2017224359A publication Critical patent/JP2017224359A/en
Application granted granted Critical
Publication of JP6434594B2 publication Critical patent/JP6434594B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像表示装置等に関する。   The present invention relates to an image display device and the like.

近年、スマートフォン及びタブレット等の携帯型の情報処理装置が普及している。そのユーザインターフェイス装置として、画像表示面上にタッチパネルが配置されたディスプレイ(以下、タッチパネルディスプレイという)が採用されている。タッチパネルディスプレイに表示された対象を直接タッチ操作するだけでなく、文字及び数字等の入力(以下、文字入力という)が必要な場合には、画面にソフトウェアキーボードを表示し、これを操作することが一般化している。   In recent years, portable information processing devices such as smartphones and tablets have become widespread. As the user interface device, a display in which a touch panel is arranged on an image display surface (hereinafter referred to as a touch panel display) is employed. In addition to direct touch operation on the target displayed on the touch panel display, when input of characters and numbers (hereinafter referred to as character input) is required, a software keyboard can be displayed on the screen and operated. Generalized.

この影響もあり、コンピュータにおいてもタッチパネルディスプレイが搭載され、従来のコンピュータ用キーボード(以下、単にキーボードという)及びコンピュータ用マウスの代りに、タッチ操作が採用されるようになってきた。タッチ操作を想定したユーザインターフェイスを採用したオペレーティングシステム(以下、OSという)も提供されている。   Due to this influence, a touch panel display is also installed in a computer, and a touch operation has been adopted instead of a conventional computer keyboard (hereinafter simply referred to as a keyboard) and a computer mouse. An operating system (hereinafter referred to as an OS) that employs a user interface that assumes a touch operation is also provided.

例えば、図1に示すようなアプリケーションをウィンドウ表示可能なOSが採用されたタッチパネルディスプレイにおいて、ユーザはソフトウェアキーボードを用いて文字入力することができる。具体的には、表示されている画面900内の所定ボタン902にタッチすると、図2に示した画面910のようにソフトウェアキーボード912が表示される。これによって、図3に示すように、ユーザは、ソフトウェアキーボード912のキーにタッチして、アプリケーション(ウィンドウ914)に対して文字を入力することができる。   For example, in a touch panel display employing an OS capable of displaying an application as shown in FIG. 1, a user can input characters using a software keyboard. Specifically, when a predetermined button 902 in the displayed screen 900 is touched, a software keyboard 912 is displayed as in a screen 910 shown in FIG. Accordingly, as shown in FIG. 3, the user can input characters to the application (window 914) by touching the keys of the software keyboard 912.

タッチパネルディスプレイの大画面化が進展しており、今後、タッチパネルディスプレイが種々の用途に使用されることが予想される。例えば、電子黒板等の用途は元より、画像表示面を水平に配置して、タッチ操作可能なテーブル(事務用テーブル又は会議用テーブル等)として使用することが提案されている。   The touch screen display has been increased in screen size, and it is expected that the touch panel display will be used for various purposes in the future. For example, it has been proposed to use an electronic blackboard or the like as a table (such as an office table or a conference table) in which an image display surface is horizontally arranged and can be touched.

このようなタッチ操作可能な画像表示装置の普及に伴い、タッチ操作の改善が要望されている。例えば、下記特許文献1には、使用者の異なる指の長さ、指と指との間の相対的な位置、及び習慣的な操作しぐさに基づいて、タッチ表示装置上に表示されるキーボードレイアウトの表示外観を調整する方法が開示されている。具体的には、右手の人差指と中指とでタッチ表示装置にタッチすることにより、表示領域のサイズを考慮してキーピッチ及びキーサイズパラメータを計算し、中指をドラッグしてそのタッチ位置を変更することにより、キーボードの曲率及び湾曲状態を計算し、それらに基づいて、湾曲したキーボードを表示することが開示されている。   With the spread of such an image display device capable of touch operation, improvement of touch operation is desired. For example, the following Patent Document 1 discloses a keyboard layout displayed on a touch display device based on different finger lengths of users, relative positions between fingers, and habitual operation behavior. A method for adjusting the display appearance of is disclosed. Specifically, by touching the touch display device with the index finger and middle finger of the right hand, the key pitch and key size parameters are calculated in consideration of the size of the display area, and the touch position is changed by dragging the middle finger. According to the above, it is disclosed that a curvature and a curved state of a keyboard are calculated and a curved keyboard is displayed based on the calculated curvature and curved state.

特開2012−128832号公報JP 2012-128832 A

しかし、大画面のタッチパネルディスプレイについては操作性向上に関して依然として課題がある。例えば、大画面のタッチパネルディスプレイを、画像表示面を水平に配置して、テーブルとして使用した画像表示装置には次のような問題がある。   However, a large-screen touch panel display still has a problem with respect to improving operability. For example, an image display apparatus using a large-screen touch panel display with an image display surface arranged horizontally and used as a table has the following problems.

即ち、ソフトウェアキーボードを表示させるためには、所定のボタン又はアイコン等を選択しなければならず、即座に表示できない問題がある。   That is, in order to display the software keyboard, a predetermined button or icon or the like must be selected, and there is a problem that it cannot be displayed immediately.

また、表示画面に対するユーザの位置は、必ずしも一定ではないにもかかわらず、ソフトウェアキーボードは、通常、画面上の予め定められた位置又は前回表示されていた位置に、画面の辺に平行に配置されて表示される。したがって、ハードウェアキーボードであれば、キーボードだけをキー操作しやすい位置に移動させればよいのに対して、ユーザがソフトウェアキーボードに合せて移動する、又は、画像表示装置自体をユーザがキー操作しやすい位置に移動させることが必要になり、ユーザが不便に感じることがある。ソフトウェアキーボードの位置をユーザが変更可能であったとしても、ソフトウェアキーボードが一旦表示された後に、ユーザが使用しやすい位置にソフトウェアキーボードを移動させなければならず、煩雑である。   In addition, although the position of the user with respect to the display screen is not necessarily constant, the software keyboard is usually arranged at a predetermined position on the screen or a position previously displayed in parallel with the side of the screen. Displayed. Therefore, in the case of a hardware keyboard, it is only necessary to move only the keyboard to a position where key operation is easy, whereas the user moves in accordance with the software keyboard or the user operates the image display device itself. It is necessary to move to an easy position, and the user may feel inconvenient. Even if the user can change the position of the software keyboard, the software keyboard has to be moved to a position where the user can easily use it after the software keyboard is once displayed, which is cumbersome.

そもそも、ソフトウェアキーボードに関しては、ハードウェアキーボードとは異なり、指を少しふれただけでもキー入力と判定されてしまうので、指をホームポジションに置くことができない問題がある。思考しながら文字入力を行なう場合には、時々キー操作を中断し、キーボードに指が軽くふれたまま思考することがあり、そのようなときに、逐一キーボードから指を離さなければならないことは、滑らかな文字入力を阻害する原因になる。   In the first place, unlike a hardware keyboard, there is a problem that a finger cannot be placed in the home position because it is determined as a key input even if a little finger is touched. When entering characters while thinking, sometimes the key operation is interrupted and sometimes the keyboard is touched lightly, and in such a case, it is necessary to release the finger from the keyboard one by one. This may hinder smooth text input.

これらの問題は、特許文献1に開示された技術によって解決することはできない。   These problems cannot be solved by the technique disclosed in Patent Document 1.

したがって、本発明は、ユーザが文字入力したい場合に速やかに、画像表示装置上のユーザの所望位置にソフトウェアキーボードを表示することができ、ユーザに負担をかけることなく、自然なキー操作を可能とする画像表示装置及びその制御方法を提供することを目的とする。   Therefore, the present invention can promptly display the software keyboard at the user's desired position on the image display device when the user wants to input characters, and allows natural key operations without burdening the user. An object of the present invention is to provide an image display apparatus and a control method thereof.

本発明における画像表示装置は、
画像を表示するための表示手段と、
前記表示手段の画像表示面上に配置され、ユーザによるタッチ位置を検出する検出手段と、
ユーザによる入力を受付けるキーボードを表す入力装置画像を記憶する記憶手段と、
を備え、
前記表示手段は、
前記検出手段により複数のタッチ位置が同時に検出された場合、当該複数のタッチ位置に基づき前記入力装置画像を表示し、
前記入力装置画像全体を表示できないときは、当該入力装置画像の全体が表示できるように当該入力装置画像の表示位置を前記複数のタッチ位置に基づき移動して表示することを特徴とする。
The image display apparatus in the present invention is
Display means for displaying an image;
A detecting means arranged on the image display surface of the display means for detecting a touch position by a user;
Storage means for storing an input device image representing a keyboard that accepts input by a user;
With
The display means includes
When a plurality of touch positions are detected simultaneously by the detection means, the input device image is displayed based on the plurality of touch positions,
When the entire input device image cannot be displayed, the display position of the input device image is moved and displayed based on the plurality of touch positions so that the entire input device image can be displayed.

本発明の画像表示装置は、
表示画面においてマルチタッチの位置を検出する検出手段と、
前記検出手段により検出されたマルチタッチの位置に応じて、前記表示画面上に、ユーザによる入力を受け付けるキーボードを表すための入力装置画像を表示する第1の表示手段と、
前記検出されたマルチタッチの位置が、前記表示画面の周縁部に近い位置を含むことにより、前記第1の表示手段では前記入力装置画像の一部が表示されなくなる場合には、前記入力装置画像の全体が表示される位置に前記入力装置画像を前記マルチタッチの位置に基づき移動して表示する第2の表示手段と、
を備えることを特徴とする。
The image display device of the present invention is
Detecting means for detecting the position of multi-touch on the display screen;
First display means for displaying, on the display screen, an input device image for representing a keyboard that accepts input by a user, in accordance with the position of multi-touch detected by the detection means;
When the detected position of the multi-touch includes a position close to the peripheral edge of the display screen, and the first display unit does not display a part of the input device image, the input device image Second display means for moving and displaying the input device image based on the position of the multi-touch at a position where the entire image is displayed;
It is characterized by providing.

本発明の画像表示装置の制御方法は、
画像を表示するための表示部と、前記表示部画像表示面上に配置され、ユーザによるタッチ位置を検出する検出部と、ユーザによる入力を受付けるキーボードを表す入力装置画像を記憶する記憶部とを含む画像表示装置の制御方法であって、
表示部に画像を表示するステップと、
前記検出部により、前記画像表示面上のタッチ位置を検出するステップと、
前記検出部により複数のタッチ位置が同時に検出された場合、当該複数のタッチ位置に基づき前記入力装置画像を表示するステップと、
前記入力装置画像の全体を表示できないときは、当該入力装置画像の全体が表示できるように当該入力装置画像の表示位置を前記複数のタッチ位置に基づき移動して表示するステップと、
を含むことを特徴とする。
The control method of the image display device of the present invention includes:
A display unit for displaying an image, the arranged display image screen on, a detection unit for detecting a touch position by the user, a storage unit for storing an input device image representing a keyboard for accepting an input by the user A method for controlling an image display device including:
Displaying an image on the display unit;
Detecting a touch position on the image display surface by the detection unit;
When a plurality of touch positions are detected simultaneously by the detection unit, displaying the input device image based on the plurality of touch positions;
When the entire input device image cannot be displayed, the display position of the input device image is moved and displayed based on the plurality of touch positions so that the entire input device image can be displayed;
It is characterized by including.

本発明の画像表示方法は、
表示画面においてマルチタッチの位置を検出する検出ステップと、
前記検出ステップにより検出されたマルチタッチの位置に応じて、前記表示画面上に、ユーザによる入力を受け付けるキーボードを表すための入力装置画像を表示する第1の表示ステップと、
前記検出されたマルチタッチの位置が、前記表示画面の周縁部に近い位置を含むことにより、前記第1の表示ステップでは前記入力装置画像の一部が表示されなくなる場合には、前記入力装置画像の全体が表示される位置に前記入力装置画像を前記マルチタッチの位置に基づき移動して表示する第2の表示ステップと、
を含むことを特徴とする。
The image display method of the present invention includes:
A detection step for detecting a multi-touch position on the display screen;
A first display step of displaying an input device image for representing a keyboard for accepting an input by a user on the display screen according to the position of multi-touch detected by the detection step;
When a part of the input device image is not displayed in the first display step because the detected multi-touch position includes a position close to the peripheral edge of the display screen, the input device image is displayed. A second display step of moving and displaying the input device image based on the position of the multi-touch at a position where the entire image is displayed;
It is characterized by including.

本発明によれば、ユーザが画像表示装置のタッチパネルディスプレイ上で、入力装置を模した仮想画像を介して入力したい場合、ユーザが入力装置をタッチ操作するときの指の形態でタッチパネルにタッチするだけで、ユーザの入力操作に適した位置に仮想画像を表示することができる。したがって、ユーザは、速やかに自然な入力操作を行なうことができる。   According to the present invention, when a user wants to input via a virtual image simulating an input device on the touch panel display of the image display device, the user simply touches the touch panel in the form of a finger when touching the input device. Thus, the virtual image can be displayed at a position suitable for the user's input operation. Therefore, the user can quickly perform a natural input operation.

特に、入力装置がコンピュータ用のキーボードであれば、ユーザがキーボードのホームポジションに指を置くように、タッチパネル上に指を置けば、ユーザの手の大きさ(指の間隔)に応じた大きさのソフトウェアキーボードを表示することができる。したがって、ユーザは、表示されたソフトウェアキーボードを介して、自然なキー入力操作を行なうことができる。   In particular, if the input device is a keyboard for a computer, if the user places his finger on the touch panel so that the user places his finger at the home position of the keyboard, the size corresponds to the size of the user's hand (finger spacing). The software keyboard can be displayed. Therefore, the user can perform a natural key input operation via the displayed software keyboard.

また、表示されたソフトウェアキーボードを介してキー入力を行なう場合に、ソフトウェアキーボード上で4点以上の点を同時にタッチした場合には、キー入力処理を実行しないことにより、ユーザは、ソフトウェアキーボードの上に指を置いたまま、キー操作を中断することができ、ハードウェアキーボードの操作感に近い、自然なキーボード操作を行なうことができる。   In addition, when performing key input via the displayed software keyboard, if the user touches four or more points on the software keyboard at the same time, the user does not execute the key input process, so that the user can Key operation can be interrupted with the finger placed on the keyboard, and natural keyboard operation similar to that of a hardware keyboard can be performed.

従来のソフトウェアキーボードを表示するための操作を示す図である。It is a figure which shows operation for displaying the conventional software keyboard. 従来のソフトウェアキーボードが表示された状態の画面を示す図である。It is a figure which shows the screen of the state in which the conventional software keyboard was displayed. 従来のソフトウェアキーボードによる文字入力を示す図である。It is a figure which shows the character input by the conventional software keyboard. 本発明の実施の形態に係る画像表示装置の構成の概略を示すブロック図である。It is a block diagram which shows the outline of a structure of the image display apparatus which concerns on embodiment of this invention. タッチ入力の検出方法の一例を示す図である。It is a figure which shows an example of the detection method of a touch input. 画面に複数のアプリケーションを表すウィンドウが表示された状態を示す図である。It is a figure which shows the state by which the window showing a some application was displayed on the screen. ソフトウェアキーボードをユーザの所望位置に表示するためのプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program for displaying a software keyboard in a user's desired position. タッチパネルディスプレイが複数の指でタッチされた状態を示す図である。It is a figure which shows the state by which the touchscreen display was touched with the several finger | toe. ソフトウェアキーボードを表示する位置及び方向を決定する処理を説明するための図である。It is a figure for demonstrating the process which determines the position and direction which display a software keyboard. キーボード画像を示す図である。It is a figure which shows a keyboard image. ソフトウェアキーボードが表示された状態を示す図である。It is a figure which shows the state by which the software keyboard was displayed. 図11とは別の位置にソフトウェアキーボードが表示された状態を示す図である。It is a figure which shows the state by which the software keyboard was displayed on the position different from FIG. ソフトウェアキーボードのサイズを調整してユーザの所望位置に表示するためのプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program for adjusting the size of a software keyboard and displaying it on a user's desired position. タッチパネルディスプレイが8本の指でタッチされた状態を示す図である。It is a figure which shows the state in which the touchscreen display was touched with eight fingers. 大きさを調整したソフトウェアキーボードを表示する位置及び方向を決定する処理を説明するための図である。It is a figure for demonstrating the process which determines the position and direction which display the software keyboard which adjusted the magnitude | size.

以下の実施の形態では、同一の部品には同一の参照番号を付してある。それらの名称及び機能も同一である。したがって、それらについての詳細な説明は繰返さない。   In the following embodiments, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

以下において、「タッチ」とは入力位置の検出装置が位置を検出可能な状態になることを意味し、検出装置に接触して押圧する場合、押圧せずに接触する場合、及び、接触せずに近接する場合を含む。入力位置の検出装置には、接触型に限らず非接触型の装置を用いることもできる。非接触型の検出装置の場合には「タッチ」とは、入力位置を検出可能な距離まで検出装置に近接した状態を意味する。   In the following, “touch” means that the detection device for the input position is in a state in which the position can be detected. When touching and pressing the detection device, when touching without pressing, and without touching In the case of proximity to The input position detection device is not limited to a contact type, and a non-contact type device can also be used. In the case of a non-contact type detection device, “touch” means a state in which the input position is close to the detection device up to a detectable distance.

(第1の実施の形態)
図4を参照して、本発明の第1の実施の形態に係る画像表示装置100は、演算処理部(以下、CPUと記す)102、読出専用メモリ(以下、ROMと記す)104、書換可能メモリ(以下、RAMと記す)106、記録部108、タッチ検出部112、表示部114、表示制御部116、ビデオメモリ(以下、VRAMと記す)118、及びバス120を備えている。CPU102は、画像表示装置100全体を制御する。
(First embodiment)
Referring to FIG. 4, image display apparatus 100 according to the first embodiment of the present invention includes an arithmetic processing unit (hereinafter referred to as CPU) 102, a read-only memory (hereinafter referred to as ROM) 104, and rewritable. A memory (hereinafter referred to as RAM) 106, a recording unit 108, a touch detection unit 112, a display unit 114, a display control unit 116, a video memory (hereinafter referred to as VRAM) 118, and a bus 120 are provided. The CPU 102 controls the entire image display apparatus 100.

後述するように、タッチ検出部112及び表示部114がタッチパネルディスプレイを構成し、タッチパネルディスプレイの画像表示面が水平に配置され、画像表示装置100はテーブルとして使用される。   As will be described later, the touch detection unit 112 and the display unit 114 constitute a touch panel display, the image display surface of the touch panel display is horizontally arranged, and the image display device 100 is used as a table.

ROM104は不揮発性の記憶装置であり、画像表示装置100の動作を制御するために必要なプログラム及びデータを記憶している。RAM106は、通電が遮断された場合にデータが消去される揮発性の記憶装置である。記録部108は、通電が遮断された場合にもデータを保持する不揮発性記憶装置であり、例えば、ハードディスクドライブ、又はフラッシュメモリ等である。記録部108は着脱可能に構成されていてもよい。CPU102は、バス120を介してROM104からプログラムをRAM106上に読出して、RAM106の一部を作業領域としてプログラムを実行する。CPU102は、ROM104に格納されているプログラムにしたがって画像表示装置100を構成する各部の制御を行なう。   The ROM 104 is a non-volatile storage device, and stores programs and data necessary for controlling the operation of the image display device 100. The RAM 106 is a volatile storage device from which data is erased when power is turned off. The recording unit 108 is a non-volatile storage device that retains data even when power is cut off, and is, for example, a hard disk drive or a flash memory. The recording unit 108 may be configured to be detachable. The CPU 102 reads a program from the ROM 104 onto the RAM 106 via the bus 120 and executes the program using a part of the RAM 106 as a work area. The CPU 102 controls each part constituting the image display device 100 according to a program stored in the ROM 104.

バス120には、CPU102、ROM104、RAM106、記録部108、タッチ検出部112、表示制御部116、及びVRAM118が接続されている。各部間のデータ(制御情報を含む)交換は、バス120を介して行なわれる。   A CPU 102, ROM 104, RAM 106, recording unit 108, touch detection unit 112, display control unit 116, and VRAM 118 are connected to the bus 120. Data (including control information) is exchanged between the units via the bus 120.

表示部114は、画像を表示するための表示パネル(液晶パネル等)である。表示制御部116は、表示部114を駆動するための駆動部を備え、VRAM118に記憶された画像データを所定のタイミングで読出し、表示部114に画像として表示するための信号を生成して、表示部114に出力する。表示される画像データは、CPU102が記録部108から読出して、VRAM118に伝送する。   The display unit 114 is a display panel (liquid crystal panel or the like) for displaying an image. The display control unit 116 includes a drive unit for driving the display unit 114, reads out image data stored in the VRAM 118 at a predetermined timing, generates a signal for display as an image on the display unit 114, and displays it. Output to the unit 114. The image data to be displayed is read from the recording unit 108 by the CPU 102 and transmitted to the VRAM 118.

タッチ検出部112は、例えばタッチパネルであり、ユーザによるタッチ操作を検出する。タッチ検出部112は、表示部114の表示画面に重畳して配置される。タッチ検出部112へのタッチは、タッチ位置に対応する、表示画面に表示された画像の点を指定する操作である。したがって、本願明細書においては、記載の冗長性を排除するために、表示部114に表示された画像へのタッチと記載されている場合、この記載は、対応するタッチ検出部112上の位置へのタッチを意味する。タッチ検出部112にタッチパネルを用いる場合のタッチ操作の検出について、図5を参照して説明する。   The touch detection unit 112 is a touch panel, for example, and detects a touch operation by the user. The touch detection unit 112 is arranged so as to be superimposed on the display screen of the display unit 114. The touch on the touch detection unit 112 is an operation of designating a point of the image displayed on the display screen corresponding to the touch position. Therefore, in the present specification, in order to eliminate the redundancy of the description, in the case where it is described as a touch on the image displayed on the display unit 114, this description is to the position on the corresponding touch detection unit 112. Means touch. Detection of a touch operation when a touch panel is used as the touch detection unit 112 will be described with reference to FIG.

図5は、赤外線遮断検出方式のタッチパネル(タッチ検出部112)を示す。タッチパネルは、長方形の書込面の隣接する2辺にそれぞれ一列に配置された発光ダイオード列(以下、LED列と記す)200、202と、それぞれのLED列200、202に対向させて一列に配置された2つのフォトダイオード列(以下、PD列と記す)210、212とを備えている。LED列200、202の各LEDから赤外線を発光し、この赤外線を対向するPD列210、212の各PDが検出する。図5において、LED列200、202の各LEDから赤外線を上向き及び左向きの矢印で示す。   FIG. 5 shows an infrared cut-off detection type touch panel (touch detection unit 112). The touch panel is arranged in a row so as to face the LED rows 200 and 202, and the light emitting diode rows (hereinafter referred to as LED rows) 200 and 202 arranged in a row on two adjacent sides of the rectangular writing surface. The two photodiode arrays (hereinafter referred to as PD arrays) 210 and 212 are provided. Infrared light is emitted from the LEDs of the LED rows 200 and 202, and the PDs of the PD rows 210 and 212 facing each other detect the infrared light. In FIG. 5, infrared rays are indicated by upward and leftward arrows from the LEDs of the LED rows 200 and 202.

タッチパネルは、例えばマイクロコンピュータ(以下、マイコンという)(CPU、メモリ、及び入出力回路等を含む素子)を備え、各LEDの発光を制御する。各PDは、受光した光の強度に応じた電圧を出力する。PDの出力電圧は、アンプによって増幅される。また、各PD列210、212の複数のPDからは同時に信号が出力されるので、出力信号は一旦バッファに保存された後、PDの配列順序に応じたシリアル信号として出力され、マイコンに伝送される。PD列210から出力されるシリアル信号の順序は、X座標を表す。PD列212から出力されるシリアル信号の順序は、Y座標を表す。   The touch panel includes, for example, a microcomputer (hereinafter referred to as a microcomputer) (an element including a CPU, a memory, an input / output circuit, and the like), and controls the light emission of each LED. Each PD outputs a voltage corresponding to the intensity of the received light. The output voltage of the PD is amplified by an amplifier. Further, since signals are simultaneously output from a plurality of PDs in each of the PD columns 210 and 212, the output signals are temporarily stored in a buffer and then output as serial signals according to the arrangement order of the PDs and transmitted to the microcomputer. The The order of the serial signals output from the PD column 210 represents the X coordinate. The order of the serial signals output from the PD column 212 represents the Y coordinate.

ユーザ(図5において破線で示す)220が指でタッチパネル上にタッチすると、タッチされた位置で赤外線が遮断される。したがって、遮断される前まで、その赤外線を受光していたPDの出力電圧は減少する。タッチされた位置(XY座標)に対応するPDからの信号部分が減少するので、マイコンは、受信した2つのシリアル信号の信号レベルが低下している部分を検出し、タッチされた位置座標を求める。マイコンは、決定した位置座標をCPU102に伝送する。このタッチ位置を検出する処理は、所定の検出周期で繰返されるので、同じ点が検出周期よりも長い時間タッチされていると、同じ座標データが繰返し出力される。どこにもタッチされていなければ、マイコンは位置座標を伝送しない。   When a user (indicated by a broken line in FIG. 5) 220 touches the touch panel with a finger, infrared rays are blocked at the touched position. Therefore, the output voltage of the PD that has received the infrared light before being cut off decreases. Since the signal portion from the PD corresponding to the touched position (XY coordinate) is decreased, the microcomputer detects the portion where the signal level of the two received serial signals is lowered and obtains the touched position coordinate. . The microcomputer transmits the determined position coordinates to the CPU 102. Since the process of detecting the touch position is repeated at a predetermined detection cycle, if the same point is touched for a longer time than the detection cycle, the same coordinate data is repeatedly output. If it is not touched anywhere, the microcomputer will not transmit the position coordinates.

上記したタッチされた位置の検出技術は公知であるので、これ以上の説明は繰返さない。また、タッチ検出部112には、赤外線遮断方式以外のタッチパネル(静電容量方式、表面弾性波方式、抵抗膜方式等)を用いてもよい。なお、静電容量方式では、センサに近接していれば非接触でも位置を検出することができる。   Since the touched position detection technique described above is well known, further description will not be repeated. The touch detection unit 112 may be a touch panel (capacitance method, surface acoustic wave method, resistance film method, or the like) other than the infrared blocking method. In the capacitance method, the position can be detected without contact as long as the sensor is close to the sensor.

画像表示装置100は上記のように構成されており、ユーザは画像表示装置100をコンピュータと同様に操作することができる。即ち、ユーザは、図6に示すように、表示部114に表示された画面300上のユーザインターフェイス(操作ボタン等)を、タッチ検出部112を介してタッチ操作し、アプリケーションプログラムを起動すること、及び、起動したアプリケーションによって表示されるウィンドウ内の操作を、タッチ検出部112を介して行なうことができる。そのような状態で、ユーザが、特定のアプリケーションに対して文字入力する場合、ソフトウェアキーボードを表示して行なう。以下、図7を参照して、ユーザの所望位置にソフトウェアキーボードを表示する処理に関して説明する。   The image display apparatus 100 is configured as described above, and the user can operate the image display apparatus 100 in the same manner as a computer. That is, as shown in FIG. 6, the user touches a user interface (such as operation buttons) on the screen 300 displayed on the display unit 114 via the touch detection unit 112 to start an application program. In addition, an operation in a window displayed by the activated application can be performed via the touch detection unit 112. In such a state, when the user inputs characters to a specific application, the software keyboard is displayed. Hereinafter, with reference to FIG. 7, a process for displaying a software keyboard at a position desired by the user will be described.

図7に示した、画像表示装置100にソフトウェアキーボードを表示するためのプログラムは、画像表示装置100の電源がオンされたときに、例えばROM104から読出されて実行される。   The program for displaying the software keyboard on the image display device 100 shown in FIG. 7 is read from, for example, the ROM 104 and executed when the power of the image display device 100 is turned on.

OSの起動及びプログラムの実行に必要な初期設定が行なわれた後、ステップ400において、CPU102は、タッチ検出部112がタッチされたか否かを判定する。上記したように、CPU102は、タッチ検出部112から座標データを受信したか否かを判定する。タッチ検出部112は、タッチされていなければ位置座標を出力せず、タッチされると、タッチされた点の位置座標(X座標,Y座標)を出力する。タッチされたと判定された場合、制御はステップ402に移行する。そうでなければ、ステップ400が繰返される。   After the initialization necessary for starting the OS and executing the program is performed, in step 400, the CPU 102 determines whether or not the touch detection unit 112 has been touched. As described above, the CPU 102 determines whether coordinate data has been received from the touch detection unit 112. The touch detection unit 112 does not output the position coordinates unless touched, and outputs the position coordinates (X coordinate, Y coordinate) of the touched point when touched. If it is determined that the touch has been made, the control proceeds to step 402. Otherwise, step 400 is repeated.

ステップ402において、CPU102は、ステップ400で検出されたタッチが、タッチ検出部112の複数点への同時タッチ(以下「マルチタッチ」という)であるか否かを判定する。上記のタッチ検出方式では、同時に複数の点がタッチされた場合でも、CPU102はタッチ位置の座標データを時系列に取得するので、例えば、CPU102は、所定時間内に受信した複数の座標データに関して、座標データとその後に受信した座標データとの距離を計算し、距離が、指の大きさ等を考慮して定められた所定値以上であれば異なる点がタッチされたと判定し、所定値未満であれば同じ点へのタッチであると判定する。したがって、CPU102は、所定時間内に受信した複数の座標データに関して、シングルタッチであるか、マルチタッチであるかを判定することができ、マルチタッチである場合には、同時にタッチされた点の数及びその位置を特定することができる。なお、タッチ検出部112において、シングルタッチであるかマルチタッチであるかが判定され、その情報と、マルチタッチである場合には、同時にタッチされた点の数及びその位置を出力するように構成されてもよい。マルチタッチであれば、制御はステップ404に移行する。そうでなければ、制御はステップ420に移行する。   In step 402, the CPU 102 determines whether or not the touch detected in step 400 is a simultaneous touch on a plurality of points of the touch detection unit 112 (hereinafter referred to as “multi-touch”). In the above touch detection method, even when a plurality of points are touched at the same time, the CPU 102 acquires coordinate data of the touch position in time series. For example, the CPU 102 relates to a plurality of coordinate data received within a predetermined time. The distance between the coordinate data and the received coordinate data is calculated, and if the distance is equal to or greater than a predetermined value determined in consideration of the size of the finger, it is determined that a different point is touched, and the distance is less than the predetermined value. If there is, it is determined that the touch is the same point. Therefore, the CPU 102 can determine whether the touch is a single touch or a multi-touch with respect to a plurality of coordinate data received within a predetermined time, and in the case of a multi-touch, the number of points touched simultaneously. And its position can be specified. The touch detection unit 112 determines whether the touch is single touch or multi-touch, and outputs the information and the number of touched points at the same time and the position thereof in the case of multi-touch. May be. If multi-touch, control proceeds to step 404. Otherwise control passes to step 420.

ステップ420において、CPU102は、終了操作であるか否かを判定する。終了の指示は、例えば、画面300において、OSを終了するためのボタンがタッチされることによってなされる。終了の指示であると判定された場合、本プログラムは終了する。そうでなければ、制御はステップ422に移行する。   In step 420, the CPU 102 determines whether or not it is an end operation. The termination instruction is given, for example, by touching a button for terminating the OS on the screen 300. If it is determined that the instruction is to end, the program ends. Otherwise, control passes to step 422.

マルチタッチであった場合、ステップ404において、CPU102は、ステップ400で検出されたタッチが、4点以上のマルチタッチであるか否かを判定する。4点以上のマルチタッチであると判定された場合、制御はステップ406に移行する。そうでなければ、制御はステップ422に移行する。   In the case of multi-touch, in step 404, the CPU 102 determines whether or not the touch detected in step 400 is multi-touch of four or more points. If it is determined that the number of touches is four or more, the control proceeds to step 406. Otherwise, control passes to step 422.

4点以上のマルチタッチであった場合、ステップ406において、CPU102は、ソフトウェアキーボードが表示中であるか否かを判定する。例えば、本プログラムの起動時に、RAM106の所定アドレスにフラグ領域(例えば1ビットの領域)を確保し、初期値として、ソフトウェアキーボードを表示していない状態を表す値、例えば“0”を設定しておくとすると、CPU102はフラグの値により、ソフトウェアキーボードを表示中であるか否かを判定することができる。ソフトウェアキーボードが表示中でなければ(フラグ=0)、制御はステップ408に移行する。そうでなければ(ソフトウェアキーボードが表示中であれば)、制御はステップ418に移行する。なお、フラグは、後述するステップ414において、ソフトウェアキーボードが表示されていることを表す値、例えば“1”に設定される。   If the number of touches is four or more, the CPU 102 determines in step 406 whether the software keyboard is being displayed. For example, when this program is started, a flag area (for example, 1-bit area) is secured at a predetermined address in the RAM 106, and a value indicating that the software keyboard is not displayed, for example, “0” is set as an initial value. In this case, the CPU 102 can determine whether or not the software keyboard is being displayed based on the flag value. If the software keyboard is not being displayed (flag = 0), control proceeds to step 408. Otherwise (if the software keyboard is being displayed), control passes to step 418. The flag is set to a value indicating that the software keyboard is displayed, for example, “1” in step 414 described later.

ステップ418において、CPU102は、4点以上のマルチタッチ位置が表示中のソフトウェアキーボード内にあるか否かを判定する。後述するように、CPU102がソフトウェアキーボードを表示するので、CPU102は、ソフトウェアキーボードを表示している領域を特定するための情報(例えば、4つの頂点の座標)を用いて、マルチタッチ位置が、ソフトウェアキーボード内にあるか否かを判定することができる。ソフトウェアキーボード上がタッチされたと判定された場合、制御はステップ400に戻る。そうでなければ、即ち、ソフトウェアキーボード以外の領域がタッチされた場合、制御はステップ422に移行する。   In step 418, the CPU 102 determines whether or not four or more multi-touch positions are in the displayed software keyboard. As will be described later, since the CPU 102 displays a software keyboard, the CPU 102 uses information (for example, the coordinates of four vertices) for specifying an area displaying the software keyboard to determine that the multi-touch position is a software keyboard. Whether it is in the keyboard or not can be determined. If it is determined that the software keyboard is touched, control returns to step 400. Otherwise, that is, if an area other than the software keyboard is touched, the control moves to step 422.

ステップ422において、CPU102は、ステップ400で検知したタッチ操作に応じ処理を実行する。例えば、画面に表示されているボタンがタッチされたことが検出された場合、CPU102は、タッチされたボタンに予め割付けられた処理を実行する。また、CPU102は、各ウィンドウの右上の「×」印がタッチされた場合、アプリケーションを終了させる(ウィンドウを消去する)、ウィンドウの辺がタッチされてドラッグ操作された場合、ウィンドウのサイズを変化させる等の処理を実行する。例えば、CPU102は、複数の画像をページ単位で表示するアプリケーションのウィンドウ上で、左右へのドラッグ又はフリック操作がなされると、ページ送り又はページ戻しの処理を実行する。CPU102は、表示された画像上で、2点に同時にタッチされ、タッチされた2点間の距離が変化すると、画像を拡大又は縮小する処理を実行し、一方の点の周りに他方の点が回転移動されると、画像を回転して表示する処理を実行する。また、ソフトウェアキーボードが表示されており、ソフトウェアキーボード上がタッチされた場合、キー入力処理が実行される。例えば、「Ctrl」キー、「Alt」キー及び「Del」キーの3つのキーが同時にタッチされた場合、OSに関する情報(実行中のプログラムの情報等)が表示される。これらのタッチ操作及びそれに対応する処理は公知であるので、繰返し説明を行なわない。   In step 422, the CPU 102 executes processing according to the touch operation detected in step 400. For example, when it is detected that a button displayed on the screen is touched, the CPU 102 executes a process assigned in advance to the touched button. Further, the CPU 102 terminates the application (deletes the window) when the “x” mark in the upper right of each window is touched, and changes the size of the window when the side of the window is touched and dragged. Etc. are executed. For example, when a left-right drag or flick operation is performed on the window of an application that displays a plurality of images in units of pages, the CPU 102 performs a page advance or page return process. When the CPU 102 touches two points on the displayed image at the same time and the distance between the two touched points changes, the CPU 102 executes a process of enlarging or reducing the image, and the other point is placed around one point. When rotated, the image is rotated and displayed. In addition, when a software keyboard is displayed and the software keyboard is touched, key input processing is executed. For example, when three keys of “Ctrl” key, “Alt” key, and “Del” key are touched at the same time, information about the OS (information of the program being executed, etc.) is displayed. Since these touch operations and the processes corresponding thereto are known, they will not be described repeatedly.

ソフトウェアキーボードが表示されていない場合、ステップ408において、CPU102は、タッチされた複数の点の2次元分布を近似する直線(以下、近似直線という。近似直線は、マルチタッチされた複数の点による散布図の回帰直線である。)を計算し、その傾きa及び切片b(Y軸と交わる点のY座標)をRAM106に記憶する。近似直線は、y=ax+bで表される。便宜上、画面300の左上の頂点を座標の原点Oとし、画面300の右方向をX軸の正方向、画面300の下方向をY軸の正方向とする。但し、これに限定されず、座標の原点、X軸及びY軸をどのように設定するかは任意である。   When the software keyboard is not displayed, in step 408, the CPU 102 determines a straight line approximating the two-dimensional distribution of the touched points (hereinafter referred to as an approximate straight line. The approximate straight line is scattered by the multi-touched points. The slope a and the intercept b (the Y coordinate of the point that intersects the Y axis) are stored in the RAM 106. The approximate straight line is represented by y = ax + b. For convenience, the top left vertex of the screen 300 is the origin of coordinates O, the right direction of the screen 300 is the positive direction of the X axis, and the downward direction of the screen 300 is the positive direction of the Y axis. However, the present invention is not limited to this, and how to set the origin of coordinates, the X axis, and the Y axis is arbitrary.

ここでは、図8に示すように、ユーザ600が、左右の人差指及び中指を用いて、タッチ検出部112上の4点を同時にタッチしたとする。図8において、ユーザ600及びユーザの左右の手を破線で示す。実際に検出されるタッチ位置は点であるが、便宜上タッチ位置を所定の大きさの白丸602〜608で示す。   Here, as illustrated in FIG. 8, it is assumed that the user 600 touches four points on the touch detection unit 112 at the same time using the left and right index fingers and the middle finger. In FIG. 8, the user 600 and the left and right hands of the user are indicated by broken lines. Although the actually detected touch position is a point, the touch position is indicated by white circles 602 to 608 having a predetermined size for convenience.

この場合、図9に示すように、CPU102は、タッチされた4点(白丸602〜608)の近似直線302を、例えば、公知の最小二乗法により求める。図9においては、便宜上ウィンドウを表示していないが、実際には画面300には図8と同じウィンドウが表示されている。   In this case, as shown in FIG. 9, the CPU 102 obtains the approximate straight line 302 of the four touched points (white circles 602 to 608) by, for example, a known least square method. In FIG. 9, the window is not displayed for convenience, but the same window as that in FIG. 8 is actually displayed on the screen 300.

最小二乗法では、各点から近似直線への垂直距離を2乗した値の総和が最小になるように、近似直線が決定される。傾きa及び切片bは、下記の式1及び式2によって求められる。ここで、タッチ点の総数をn(n≧4)とし、各タッチ位置iの座標を(xi,yi)とする。なお、図8及び図9では4点がマルチタッチされた場合を示すが、これに限定されず、4点以上(n≧4)のマルチタッチであればよい。   In the least square method, the approximate line is determined so that the sum of values obtained by squaring the vertical distance from each point to the approximate line is minimized. The slope a and the intercept b are obtained by the following formulas 1 and 2. Here, the total number of touch points is n (n ≧ 4), and the coordinates of each touch position i are (xi, yi). 8 and 9 show a case where four points are multi-touched, but the present invention is not limited to this, and any multi-touch of four points or more (n ≧ 4) may be used.

Figure 0006434594
Figure 0006434594

ステップ410において、CPU102は、ユーザが向いている方向(以下「正面方向」ともいう)を決定する。具体的には、CPU102は、RAM106に記憶された傾きaの逆数1/aを計算し、逆数1/aの傾きを有し、近似直線に直交し画面の中心(対角線の交点)Cの方向を向くベクトル304を求める。このベクトル304は、正面方向を定めるためのものであり、長さは任意であり、単位ベクトルであってもよい。   In step 410, the CPU 102 determines a direction in which the user is facing (hereinafter also referred to as “front direction”). Specifically, the CPU 102 calculates the reciprocal 1 / a of the inclination a stored in the RAM 106, has the reciprocal 1 / a, and is orthogonal to the approximate straight line and the direction of the center of the screen (intersection of diagonal lines) C. Find the vector 304 facing. This vector 304 is used to determine the front direction, the length is arbitrary, and it may be a unit vector.

ステップ412において、CPU102は、マルチタッチされた点の重心Gを計算する。具体的には、下記の式3及び式4によって、重心Gの座標(xG,yG)が求められる。   In step 412, the CPU 102 calculates the centroid G of the multitouched point. Specifically, the coordinates (xG, yG) of the center of gravity G are obtained by the following equations 3 and 4.

Figure 0006434594
Figure 0006434594

ステップ414において、CPU102は、キーボード画像をソフトウェアキーボードとして表示部114に表示し、RAM106に記憶されたフラグを、ソフトウェアキーボードの表示中を表す値(例えば“1”)に設定する。ここでは、予め記録部108に、図10に示すキーボード画像312のデータが記憶されているとする。CPU102は、RAM106からキーボード画像データを読出して、VRAM118上の画面300の画像データ上に上書きする。キーボード画像312がユーザによってソフトウェアキーボードとして使用される場合、キーボード画像312の上下の端部は、上側の端部314がユーザからより遠くに位置し、下側の端部316がユーザからより近くに位置する。   In step 414, the CPU 102 displays the keyboard image as a software keyboard on the display unit 114, and sets the flag stored in the RAM 106 to a value (for example, “1”) indicating that the software keyboard is being displayed. Here, it is assumed that data of the keyboard image 312 illustrated in FIG. 10 is stored in the recording unit 108 in advance. The CPU 102 reads keyboard image data from the RAM 106 and overwrites it on the image data of the screen 300 on the VRAM 118. When the keyboard image 312 is used by a user as a software keyboard, the upper and lower edges of the keyboard image 312 are such that the upper edge 314 is located farther from the user and the lower edge 316 is closer to the user. To position.

図10には、便宜上、キー操作におけるホームポジションの位置の例を、8つの破線の円で示している。これらは、左右の人差指、中指、薬指、及び小指の指先を置く位置を表す。8つの破線の円は、キーボード画像312自体には含まれていない。   In FIG. 10, for the sake of convenience, an example of the position of the home position in the key operation is indicated by eight broken circles. These represent the positions where the left and right index finger, middle finger, ring finger, and little finger are placed. The eight dashed circles are not included in the keyboard image 312 itself.

このとき、CPU102は、キーボード画像312を表示する位置を次のようにして決定する。即ち、キーボード画像312の長手方向(長辺)が、ステップ406で決定した近似直線に平行であり、キーボード画像312の中心(頂点の対角線の交点)が、重心Gと一致するようにする。さらに、キーボード画像312の短辺に沿って、下側の長辺(端部316)から上側の長辺(端部314)に向かう方向が、ステップ408で決定したベクトル304の方向と一致するようにする。これによって、図8のようにユーザ600がタッチ検出部112にタッチした場合、図11に示すように、ソフトウェアキーボード322が表示される。   At this time, the CPU 102 determines the position for displaying the keyboard image 312 as follows. That is, the longitudinal direction (long side) of the keyboard image 312 is parallel to the approximate straight line determined in step 406, and the center of the keyboard image 312 (the intersection of the diagonal lines of the vertices) coincides with the gravity center G. Further, the direction from the lower long side (end 316) to the upper long side (end 314) along the short side of the keyboard image 312 matches the direction of the vector 304 determined in step 408. To. Thus, when the user 600 touches the touch detection unit 112 as shown in FIG. 8, the software keyboard 322 is displayed as shown in FIG.

なお、ユーザのマルチタッチ位置が、画面の周縁部に近い位置を含む場合、キーボード画像の中心と重心Gとが一致するようにしてキーボード画像312を表示すると、キーボード画像312の一部が表示されないことがある。その場合には、キーボード画像312が全て表示されるように、キーボード画像312の中心を、近似直線に沿って平行移動させて表示するのが好ましい。タッチ位置が画面300の隅に近い場合には、キーボード画像312を、近似直線に沿って平行移動させただけでは、キーボード画像312全体を表示できないことがある。その場合には、さらに、近似直線302に垂直な方向(ベクトル304の方向)に平行移動させ、キーボード画像312全体が表示されるようにすることが好ましい。   When the user's multi-touch position includes a position close to the peripheral edge of the screen, when the keyboard image 312 is displayed so that the center of the keyboard image and the center of gravity G coincide with each other, a part of the keyboard image 312 is not displayed. Sometimes. In that case, it is preferable that the center of the keyboard image 312 be translated along the approximate straight line so that the entire keyboard image 312 is displayed. When the touch position is close to the corner of the screen 300, the entire keyboard image 312 may not be displayed only by translating the keyboard image 312 along the approximate straight line. In that case, it is preferable to further translate the keyboard image 312 in the direction perpendicular to the approximate straight line 302 (the direction of the vector 304).

ステップ416において、CPU102は、ソフトウェアキーボード322に対して、ユーザによるキー入力を受付けるアプリケーション(以下「キー入力ソフト」という)を起動する。その後、制御はステップ400に戻る。   In step 416, the CPU 102 activates an application (hereinafter referred to as “key input software”) that accepts key input by the user on the software keyboard 322. Control then returns to step 400.

ここで起動されるキー入力ソフトは、タッチ検出部112によって検出されたタッチ位置が、ソフトウェアキーボード322上のどのキーに対応するかを決定し、決定されたキーのコード(ASCIIコード等)を生成する。生成されたキーコードは、ワープロソフト等の文字生成ソフトに渡され、文字データに変換され、文字データは、文字入力状態にある別のアプリケーションに渡される。これによって、文字入力状態にあるアプリケーションを表すウィンドウに文字が表示される。なお、キー操作により、文字入力以外に、OSに対する指示(システムコマンド)を入力することができるようにするには、キー入力ソフトが生成したキーコードは、OSを介してワープロソフト等の文字生成ソフトに渡されるように構成される。これらのソフトウェアの構成及び処理は、通常のコンピュータにおいて実行される、公知の文字入力ソフト(日本語入力ソフト等)の処理と同じであるので、説明を繰返さない。   The key input software activated here determines which key on the software keyboard 322 the touch position detected by the touch detection unit 112 corresponds to, and generates a code of the determined key (such as an ASCII code). To do. The generated key code is transferred to character generation software such as word processor software, converted into character data, and the character data is transferred to another application in a character input state. As a result, the characters are displayed in the window representing the application in the character input state. In addition, in order to be able to input instructions (system commands) to the OS in addition to character input by key operation, the key code generated by the key input software is used to generate characters such as word processing software via the OS. Configured to be passed to the software. Since the configuration and processing of these software are the same as the processing of known character input software (Japanese input software, etc.) executed on a normal computer, description thereof will not be repeated.

以上により、ユーザは、タッチパネルディスプレイに表示された画面300(ソフトウェアキーボードの表示の有無は任意)上で3点以下の同時タッチを行なうことによって、アプリケーションの実行及び停止等を行なうことができる(ステップ400→ステップ402→ステップ420→ステップ422、ステップ400→ステップ404→ステップ422、又は、ステップ400→ステップ402→ステップ404→ステップ406→ステップ418→ステップ422のフローを参照)。   As described above, the user can execute and stop the application by performing simultaneous touches of three or less points on the screen 300 (whether or not the software keyboard is displayed is arbitrary) displayed on the touch panel display (step). 400 → step 402 → step 420 → step 422, step 400 → step 404 → step 422, or the flow of step 400 → step 402 → step 404 → step 406 → step 418 → step 422).

一方、ユーザ600が、タッチパネルディスプレイに表示された画面300上にソフトウェアキーボードが表示されていない状態で、画面300上で4点以上のマルチタッチを行なうことによって、マルチタッチされた部分に、マルチタッチ位置を考慮して、ソフトウェアキーボードを表示することができる(ステップ400〜ステップ416が順次実行されるフローを参照)。ユーザ600は自分から見て、画面300の中心Cを超えない位置にマルチタッチすれば、タッチパネルディスプレイ(表示部114)に表示されるソフトウェアキーボード322は、画像表示装置100に対するユーザの位置及び向きを考慮して表示されるので、ユーザ600は速やかに自然なキー操作を行なうことができる。   On the other hand, when the user 600 does not display the software keyboard on the screen 300 displayed on the touch panel display, the user 600 performs four or more multi-touch on the screen 300, so that the multi-touch is performed on the multi-touched portion. The software keyboard can be displayed in consideration of the position (see the flow in which step 400 to step 416 are sequentially executed). If the user 600 multi-touchs the position not exceeding the center C of the screen 300 as seen from the user 600, the software keyboard 322 displayed on the touch panel display (display unit 114) indicates the position and orientation of the user with respect to the image display device 100. Since it is displayed in consideration, the user 600 can quickly perform natural key operations.

例えば、図12に示すように、画面の右側に位置するユーザ610が、4点以上のマルチタッチを行なえば、ソフトウェアキーボード332が表示される。したがって、複数のユーザが、画像表示装置100を取り囲んで、表示された画面にタッチしながら会話する場合に、各ユーザが操作し易い方向及び位置に、ソフトウェアキーボードを表示することができる。   For example, as shown in FIG. 12, when a user 610 located on the right side of the screen performs multi-touch of four or more points, a software keyboard 332 is displayed. Therefore, when a plurality of users surround the image display apparatus 100 and have a conversation while touching the displayed screen, the software keyboard can be displayed in a direction and a position where each user can easily operate.

また、タッチパネルディスプレイに表示された画面300上にソフトウェアキーボードが表示されている状態で、ユーザがソフトウェアキーボード上で、4点以上のマルチタッチを行なった場合には、何もキー入力操作は実行されない(ステップ400→ステップ402→ステップ404→ステップ406→ステップ418→ステップ400のフローを参照)。したがって、ユーザは、ソフトウェアキーボードの上に指を置いたまま、キー操作を中断することができ、ハードウェアキーボードの操作感に近い、自然なキーボード操作を行なうことができる。   Further, when the user performs multi-touch of four or more points on the software keyboard while the software keyboard is displayed on the screen 300 displayed on the touch panel display, no key input operation is executed. (Refer to the flow of step 400 → step 402 → step 404 → step 406 → step 418 → step 400). Therefore, the user can interrupt the key operation while placing a finger on the software keyboard, and can perform a natural keyboard operation close to the operation feeling of the hardware keyboard.

なお、表示されたソフトウェアキーボードを消去する処理は、ステップ422で実行される。例えば、図10に示したキーボード画像312がソフトウェアキーボードとして表示されていれば、「×」キー318がタッチされた場合に、CPU102は、ソフトウェアキーボードを消去し、ステップ416で起動されたアプリケーションを終了する。このとき、CPU102はフラグを“0”に設定する。   Note that the process of deleting the displayed software keyboard is executed in step 422. For example, if the keyboard image 312 shown in FIG. 10 is displayed as a software keyboard, when the “x” key 318 is touched, the CPU 102 erases the software keyboard and ends the application started in step 416. To do. At this time, the CPU 102 sets a flag to “0”.

上記では、ソフトウェアキーボードの長辺が近似直線に平行になるように、ソフトウェアキーボードを表示する場合を説明したが、これに限定されない。ソフトウェアキーボードの長辺は、近似直線に沿っていればよく、即ち近似直線に略平行であればよい。   In the above, the case where the software keyboard is displayed so that the long side of the software keyboard is parallel to the approximate straight line has been described, but the present invention is not limited to this. The long side of the software keyboard only needs to be along the approximate line, that is, it should be substantially parallel to the approximate line.

上記では近似直線を、最小二乗法で求める場合を説明したが、これに限定されない。近似直線は、マルチタッチされた複数の点が近似直線に沿って、その周りに分散するように決定すればよい。例えば、最も距離が離れている2点を結ぶ直線を、近似直線として決定してもよい。   Although the case where an approximate straight line is obtained by the least square method has been described above, the present invention is not limited to this. The approximate line may be determined so that a plurality of multi-touched points are distributed around the approximate line. For example, a straight line connecting two points that are farthest apart may be determined as an approximate straight line.

また、距離に応じてタッチ点をクラスタリングして近似直線を求めてもよい。例えば、タッチ点の集合のうち、他のタッチ点から大きく離れている点を排除した後、残りのタッチ点を用いて近似直線を求めてもよい。   Further, an approximate straight line may be obtained by clustering touch points according to the distance. For example, after eliminating points that are far away from other touch points in the set of touch points, an approximate straight line may be obtained using the remaining touch points.

上記では、ソフトウェアキーボード(キーボード画像312)の中心が、ステップ412で求めた重心Gに一致するようにソフトウェアキーボードを表示する場合を説明したが、これに限定されない。キーボードは左右対称とは限らないので、キーボード画像の所定の代表点が、ステップ412で求めた重心Gに一致するように、ソフトウェアキーボードを表示すればよい。   In the above description, the case where the software keyboard is displayed so that the center of the software keyboard (keyboard image 312) coincides with the center of gravity G obtained in step 412 has been described, but the present invention is not limited to this. Since the keyboard is not always symmetrical, the software keyboard may be displayed so that a predetermined representative point of the keyboard image matches the center of gravity G obtained in step 412.

上記では、4点以上のマルチタッチにより、ソフトウェアキーボードを表示する場合を説明したが、これに限定されない。キーボードが表示されていない状態であれば、3点以上のマルチタッチによりソフトウェアキーボードを表示してもよい。また、アプリケーションを表すウィンドウ、アイコン、又はボタン等の何らかのオブジェクトを表す領域以外の領域において、2点以上が同時にタッチされた場合に、ソフトウェアキーボードを表示してもよい。なお、2点のマルチタッチでソフトウェアキーボードを表示する場合には、ソフトウェアキーボードの方向を決定するために、近似直線の代りに、タッチされた2点を通る直線を用いればよく、最小二乗法等の近似直線を求める処理は不要である。   Although the case where the software keyboard is displayed by multi-touch of four or more points has been described above, the present invention is not limited to this. If the keyboard is not displayed, the software keyboard may be displayed by multi-touch of three or more points. In addition, a software keyboard may be displayed when two or more points are touched simultaneously in an area other than an area representing some object such as a window, icon, or button representing an application. When displaying a software keyboard with two points of multi-touch, in order to determine the direction of the software keyboard, a straight line passing through the two touched points may be used instead of the approximate straight line. The process for obtaining the approximate straight line is unnecessary.

上記では、図10に示したソフトウェアキーボードを表示する場合を説明したが、これに限定されない。表示するソフトウェアキーボードの種類(キー配置、キー形状及び表示される言語等)は任意である。また、ソフトウェアキーボードの形状は矩形に限定されず、任意である。また、コンピュータ用のソフトウェアキーボードに限定されない。表示部114に表示される、入力装置を表す仮想的な入力画像であり、ユーザが指でタッチ操作する場合に、入力画像のユーザに対する配置(特に向き)によって、その入力操作の難易度が変化するような入力画像であれば、本願発明を適用することができる。例えば、作曲用アプリケーションに音符を入力するための音楽用キーボード(鍵盤)であってもよい。 また、記録部108に記憶されるキーボード画像は、ビットマップデータに限定されない。記録部108に記憶されるキーボード画像には、コンピュータグラフィックス(CG)により、ビットマップのキーボード画像を生成することができるCGデータも含まれる。   Although the case where the software keyboard shown in FIG. 10 is displayed has been described above, the present invention is not limited to this. The type of software keyboard to be displayed (key layout, key shape, displayed language, etc.) is arbitrary. Further, the shape of the software keyboard is not limited to a rectangle, and is arbitrary. Moreover, it is not limited to the software keyboard for computers. It is a virtual input image representing an input device displayed on the display unit 114. When the user performs a touch operation with a finger, the difficulty level of the input operation varies depending on the arrangement (particularly the orientation) of the input image with respect to the user. The present invention can be applied to such an input image. For example, it may be a music keyboard (keyboard) for inputting notes to a composition application. Further, the keyboard image stored in the recording unit 108 is not limited to bitmap data. The keyboard image stored in the recording unit 108 includes CG data that can generate a bitmap keyboard image by computer graphics (CG).

(第2の実施の形態)
第1の実施の形態では、予め用意しておいたキーボード画像をそのままの大きさで、表示する場合を説明したが、第2の実施の形態では、ユーザのタッチ位置に応じて、キーボードサイズを変更して表示する。
(Second Embodiment)
In the first embodiment, a case has been described in which a keyboard image prepared in advance is displayed in the same size, but in the second embodiment, the keyboard size is changed according to the touch position of the user. Change and display.

第2の実施の形態に係る画像表示装置は、第1の実施の形態として説明した画像表示装置100と同じ構成をしており、同様の機能を有している。以下においては、重複説明を繰返さず、主として第1の実施の形態と異なる点を説明する。   The image display apparatus according to the second embodiment has the same configuration as the image display apparatus 100 described as the first embodiment and has the same function. In the following, the repeated description will not be repeated, and points different from the first embodiment will be mainly described.

図13に示した、画像表示装置100において、ソフトウェアキーボードの大きさを調整して表示するためのプログラムは、図7に示したプログラムと同様に起動され、同様に実行される。図13が図7と異なるのは、ステップ500〜ステップ504が追加され、ステップ414がステップ506に変更されている点だけである。追加されたステップは、図14に示すように、ユーザが左右の親指以外の指で、タッチ検出部112上の8点を同時にタッチした場合に実行される。図13において、図7と同じ番号が付されたステップでは、CPU102は、図7のステップと同じ処理を実行する。   In the image display apparatus 100 shown in FIG. 13, a program for adjusting and displaying the size of the software keyboard is started up and executed in the same manner as the program shown in FIG. FIG. 13 differs from FIG. 7 only in that step 500 to step 504 are added and step 414 is changed to step 506. As shown in FIG. 14, the added step is executed when the user touches eight points on the touch detection unit 112 with fingers other than the left and right thumbs at the same time. In FIG. 13, at the step given the same number as in FIG. 7, the CPU 102 executes the same process as the step in FIG. 7.

本プログラムの起動後、ステップ400において、CPU102は、タッチ検出部112がタッチされたか否かを判定する。図14に示したように、ユーザが8点のマルチタッチを行なったとすると、ステップ400〜412の処理が順に実行される。   After starting the program, in step 400, the CPU 102 determines whether or not the touch detection unit 112 has been touched. As shown in FIG. 14, if the user performs 8 multi-touch, the processes in steps 400 to 412 are executed in order.

ステップ412に続くステップ500において、CPU102は、8点のマルチタッチであるか否かを判定する。8点のマルチタッチであると判定された場合、制御はステップ502に移行する。そうでなければ、制御はステップ414に移行する。   In step 500 following step 412, the CPU 102 determines whether or not the multi-touch is 8 points. If it is determined that the multi-touch is 8 points, the control proceeds to step 502. Otherwise, control passes to step 414.

ステップ502において、CPU102は、全てのマルチタッチ点を含む矩形領域を決定する。具体的には、図15に示すように、CPU102は、ステップ408で求められた近似直線702に平行な2本の直線と、近似直線702に垂直な2本の直線によって囲まれる矩形領域706が全てのマルチタッチ点を含み、その矩形領域の面積が最小になるように、4本の直線を決定し、それらの直線の4つの交点の座標を計算し、矩形領域706を特定する情報として、RAM106に記憶する。   In step 502, the CPU 102 determines a rectangular area including all multi-touch points. Specifically, as shown in FIG. 15, the CPU 102 has a rectangular area 706 surrounded by two straight lines parallel to the approximate straight line 702 obtained in step 408 and two straight lines perpendicular to the approximate straight line 702. As four pieces of information, the four straight lines are determined so as to include all the multi-touch points and the area of the rectangular area is minimized, the coordinates of the four intersections of the straight lines are calculated, and the rectangular area 706 is specified. Store in the RAM 106.

ステップ504において、CPU102は、RAM106に記憶された矩形領域706を特定する情報(4つの頂点の座標)から、ソフトウェアキーボードの大きさを決定する。ここでは、予め記録部108に、図10に示すキーボード画像312のデータに加えて、キーボード画像312の基準長Lも記憶されているとする。基準長Lは、例えば、8つの破線の円のうち、左右端の2つの円(左右の小指のタッチ位置を表す円)の中心間距離(画素値)である。   In step 504, the CPU 102 determines the size of the software keyboard from the information (coordinates of the four vertices) specifying the rectangular area 706 stored in the RAM 106. Here, it is assumed that the reference length L of the keyboard image 312 is stored in the recording unit 108 in addition to the data of the keyboard image 312 shown in FIG. The reference length L is, for example, the center-to-center distance (pixel value) of two circles at the left and right ends (circle representing the touch position of the left and right little fingers) among the eight broken circles.

CPU102は、記録部108から基準長Lを読出し、矩形領域706の長辺の長さを基準長Lで除算して、基準長Lに対する矩形領域706の長辺の長さの比率を計算する。   The CPU 102 reads the reference length L from the recording unit 108, divides the long side length of the rectangular area 706 by the reference length L, and calculates the ratio of the long side length of the rectangular area 706 to the reference length L.

ステップ506において、CPU102は、記録部108からキーボード画像312のデータを読出し、基準長Lが矩形領域706の長辺の長さに等しくなるように、スケーリング(拡大又は縮小)して表示する。具体的には、CPU102は、ステップ504で計算された比率で、キーボード画像312をスケーリングした画像データ(以下「表示用キーボード画像」という)を生成して、RAM106に記憶する。さらに、CPU102は、RAM106から表示用キーボード画像データを読出して、VRAM118上の画面300に対応する画像データ上に上書きする。これによって、表示用キーボード画像が、ソフトウェアキーボードとして表示部114に表示される。   In step 506, the CPU 102 reads the data of the keyboard image 312 from the recording unit 108, and displays the data by scaling (enlarging or reducing) the reference length L to be equal to the length of the long side of the rectangular area 706. Specifically, the CPU 102 generates image data obtained by scaling the keyboard image 312 (hereinafter referred to as “display keyboard image”) at the ratio calculated in step 504, and stores it in the RAM 106. Further, the CPU 102 reads display keyboard image data from the RAM 106 and overwrites the image data corresponding to the screen 300 on the VRAM 118. Thus, the display keyboard image is displayed on the display unit 114 as a software keyboard.

このとき、CPU102は、表示用キーボード画像を表示する位置を次のようにして決定する。即ち、表示用キーボード画像の長手方向(長辺)が、ステップ406で決定した近似直線に平行であり、表示用キーボード画像の中心(頂点の対角線の交点)が、重心Gと一致するようにする。さらに、表示用キーボード画像の短辺に沿って、下側の長辺(端部316)から上側の長辺(端部314)に向かう方向が、ステップ408で決定したベクトル704の方向と一致するようにする。これによって、図15のようにユーザがタッチ検出部112にタッチした場合、図11と同様に、表示用キーボード画像がソフトウェアキーボードとして表示される。但し、このとき表示されるソフトウェアキーボードは、サイズが調整された表示用キーボード画像である。   At this time, the CPU 102 determines the position for displaying the display keyboard image as follows. That is, the longitudinal direction (long side) of the display keyboard image is parallel to the approximate straight line determined in step 406, and the center of the display keyboard image (the intersection of the diagonals of the vertices) is made to coincide with the center of gravity G. . Furthermore, the direction from the lower long side (end 316) toward the upper long side (end 314) along the short side of the display keyboard image matches the direction of the vector 704 determined in step 408. Like that. Thus, when the user touches the touch detection unit 112 as shown in FIG. 15, the display keyboard image is displayed as a software keyboard as in FIG. However, the software keyboard displayed at this time is a display keyboard image whose size has been adjusted.

以上により、第2の実施の形態においては、ユーザが画面700上で8点の同時タッチ以外のタッチ操作を行なった場合、第1の実施の形態と同様の処理を行なうことができる。これに加えて、ユーザが、ソフトウェアキーボードが表示されていない画面700上で8点の同時タッチを行なった場合には、タッチ点の相対距離に応じて、キーボード画像312の大きさを調整して表示することができる。例えば、ユーザの手の大きさに応じた大きさのソフトウェアキーボードを表示し、ユーザに適切なキーピッチ(隣接するキーの間隔)のソフトウェアキーボードを表示することができる。したがって、ユーザのキー操作をより容易にすることができる。   As described above, in the second embodiment, when the user performs a touch operation other than the eight simultaneous touches on the screen 700, the same processing as in the first embodiment can be performed. In addition, when the user performs 8 simultaneous touches on the screen 700 on which the software keyboard is not displayed, the size of the keyboard image 312 is adjusted according to the relative distance of the touch points. Can be displayed. For example, a software keyboard having a size corresponding to the size of the user's hand can be displayed, and a software keyboard having an appropriate key pitch (adjacent key interval) can be displayed to the user. Therefore, user key operations can be made easier.

(第3の実施の形態)
第2の実施の形態では、8つのタッチ点を含む矩形領域706を特定する情報を求める場合を説明したが、これに限定されない。第3の実施の形態では、基準長Lに対応させる距離として、8つのタッチ点のうち相対距離が最大である2点間の距離を求める。
第3の実施の形態に係る画像表示装置は、第1の実施の形態に係る画像表示装置100と同じ構成をしており、同様の機能を有している。第3の実施の形態に係る画像表示装置において実行されるソフトウェアキーボードの大きさを調整して表示するためのプログラムでは、第2の実施の形態とは異なり、図13において、ステップ502(矩形を決定する処理)が行なわれることなく、ステップ504の表示サイズを決定する処理が実行される。ステップ504において、CPU102は、タッチされた8点のうち相対距離が最大である2点間の距離Lmaxを求め、記録部108からキーボード画像312の基準長Lを読出し、距離Lmaxを基準長Lで除算して、比率Lmax/Lを計算する。その後、第2の実施の形態と同様に、ステップ506において、CPU102は、記録部108からキーボード画像312のデータを読出し、比率Lmax/Lを用いてスケーリングして、表示用キーボード画像を生成する。そして、近似直線702及び重心Gに基づいて、表示用キーボード画像を表示する。
以上により、第3の実施の形態においては、ユーザが画面700上で8点の同時タッチ以外のタッチ操作を行なった場合、第1の実施の形態と同様の処理を行なうことができる。これに加えて、ユーザが、ソフトウェアキーボードが表示されていない画面700上で8点の同時タッチを行なった場合には、キーボード画像312の大きさを調整して表示することができる。
(Third embodiment)
In the second embodiment, a case has been described in which information specifying the rectangular area 706 including eight touch points is obtained, but the present invention is not limited to this. In the third embodiment, as a distance corresponding to the reference length L, a distance between two points having a maximum relative distance among eight touch points is obtained.
The image display device according to the third embodiment has the same configuration as the image display device 100 according to the first embodiment, and has the same function. Unlike the second embodiment, the program for adjusting and displaying the size of the software keyboard executed in the image display device according to the third embodiment differs from that in the second embodiment in FIG. The process of determining the display size in step 504 is executed without the process of determining). In step 504, the CPU 102 obtains a distance Lmax between two points having the maximum relative distance among the eight touched points, reads the reference length L of the keyboard image 312 from the recording unit 108, and sets the distance Lmax as the reference length L. Divide to calculate the ratio Lmax / L. After that, as in the second embodiment, in step 506, the CPU 102 reads the keyboard image 312 data from the recording unit 108 and scales it using the ratio Lmax / L to generate a display keyboard image. Based on the approximate straight line 702 and the center of gravity G, a display keyboard image is displayed.
As described above, in the third embodiment, when the user performs a touch operation other than the eight touches simultaneously on the screen 700, the same processing as in the first embodiment can be performed. In addition to this, when the user performs eight simultaneous touches on the screen 700 on which the software keyboard is not displayed, the size of the keyboard image 312 can be adjusted and displayed.

(第4の実施の形態)
第3の実施の形態では、ソフトウェアキーボードの大きさを、8つのタッチ点のうち相対距離が最大である2点間の距離、即ちタッチされた小指間の距離に応じて調整する場合を説明したがこれに限定されない。第4の実施の形態では、キーボード画像312のホームポジションの位置から得られる所定の基準長を記録部108に記憶しておき、タッチ点の位置から基準長に対応する長さを計算し、得られた値の基準長に対する比率を用いて、キーボード画像312をスケーリングする。
第4の実施の形態に係る画像表示装置は、第1の実施の形態に係る画像表示装置100と同じ構成をしており、同様の機能を有している。第4の実施の形態に係る画像表示装置において実行されるソフトウェアキーボードの大きさを調整して表示するためのプログラムでは、第3の実施の形態と同様に、図13において、ステップ502(矩形を決定する処理)が行なわれることなく、ステップ504の表示サイズを決定する処理が実行される。具体的には、8つのタッチ点のうちの最も内側にある2点(左右の人差指のタッチ点に対応)が、ソフトウェアキーボードの「f」キー及び「j」キーと一致するように、キーボード画像312をスケーリングして、表示する。予めキーボード画像312の「f」キー及び「j」キー間の距離D1を記録部108に記憶しておく。ステップ504において、CPU102は、8つのタッチ点のうちの最も内側にある2点間の距離D2を計算し、記録部108から距離D1を読出し、比率D2/D1を計算する。その後、第2の実施の形態と同様に、ステップ506において、CPU102は、記録部108から読出したキーボード画像312を比率D2/D1でスケーリングして、表示用キーボード画像を生成する。そして、上記したように、近似直線702及び重心Gに基づいて、表示用キーボード画像を表示する。
以上により、第4の実施の形態においては、ユーザが画面700上で8点の同時タッチ以外のタッチ操作を行なった場合、第1の実施の形態と同様の処理を行なうことができる。これに加えて、ユーザが、ソフトウェアキーボードが表示されていない画面700上で8点の同時タッチを行なった場合には、キーボード画像312の大きさを調整して表示することができる。
なお、基準長を設定するためのキーは、「f」キー及び「j」キー以外のキーであってもよい。例えば、「d」キー及び「k」キーを用いても、「s」キー及び「l」キーを用いても、それ以外のキーの組合せを用いてもよい。
(Fourth embodiment)
In the third embodiment, a case has been described in which the size of the software keyboard is adjusted according to the distance between two points having the maximum relative distance among the eight touch points, that is, the distance between the touched little fingers. However, it is not limited to this. In the fourth embodiment, a predetermined reference length obtained from the position of the home position of the keyboard image 312 is stored in the recording unit 108, and a length corresponding to the reference length is calculated from the position of the touch point. The keyboard image 312 is scaled using the ratio of the obtained value to the reference length.
The image display device according to the fourth embodiment has the same configuration as the image display device 100 according to the first embodiment, and has the same function. In the program for adjusting and displaying the size of the software keyboard executed in the image display apparatus according to the fourth embodiment, as in the third embodiment, step 502 (rectangular The process of determining the display size in step 504 is executed without the process of determining). Specifically, the keyboard image so that the two innermost points (corresponding to the touch points of the left and right index fingers) of the eight touch points coincide with the “f” key and the “j” key of the software keyboard. 312 is scaled and displayed. The distance D1 between the “f” key and the “j” key of the keyboard image 312 is stored in the recording unit 108 in advance. In step 504, the CPU 102 calculates the distance D2 between the two innermost points of the eight touch points, reads the distance D1 from the recording unit 108, and calculates the ratio D2 / D1. Thereafter, as in the second embodiment, in step 506, the CPU 102 scales the keyboard image 312 read from the recording unit 108 by the ratio D2 / D1 to generate a display keyboard image. Then, as described above, the display keyboard image is displayed based on the approximate straight line 702 and the center of gravity G.
As described above, in the fourth embodiment, when the user performs a touch operation other than the eight simultaneous touches on the screen 700, the same processing as that in the first embodiment can be performed. In addition to this, when the user performs eight simultaneous touches on the screen 700 on which the software keyboard is not displayed, the size of the keyboard image 312 can be adjusted and displayed.
The key for setting the reference length may be a key other than the “f” key and the “j” key. For example, “d” key and “k” key, “s” key and “l” key, or other key combinations may be used.

(第5の実施の形態)
第5の実施の形態では、キーボード画像312のホームポジションを表す複数の点のうち、少なくとも2点の位置を基準点の位置として記録部108に記憶しておき、2点の基準点に対応する2点のタッチ点の位置が、当該2点の基準点の位置と一致するようにキーボード画像312をスケーリングする。
第5の実施の形態に係る画像表示装置は、第1の実施の形態に係る画像表示装置100と同じ構成をしており、同様の機能を有している。第5の実施の形態に係る画像表示装置において実行されるソフトウェアキーボードの大きさを調整して表示するためのプログラムでは、図13において、ステップ412(重心を計算する処理)、ステップ502(矩形を決定する処理)及びステップ504(表示サイズを決定する処理)が行なわれることなく、ステップ506が実行される。ステップ506において、CPU102は、キーボード画像312の「f」キー及び「j」キーのそれぞれの中心の位置が、8つのタッチ点のうちの最も内側にある2点に一致するように、キーボード画像312をスケーリングし回転させて表示する。その場合、上記したように重心Gを求める処理は不要である。ユーザの正面方向を決定するために、近似直線を求める処理は必要である。
以上により、第5の実施の形態においては、ユーザが画面700上で8点の同時タッチ以外のタッチ操作を行なった場合、第1の実施の形態と同様の処理を行なうことができる。これに加えて、ユーザが、ソフトウェアキーボードが表示されていない画面700上で8点の同時タッチを行なった場合には、キーボード画像312の大きさを調整して表示することができる。
なお、「f」キー及び「j」キー以外のホームポジションのキーを使用してもよい。例えば、「d」キー及び「k」キーを用いても、「s」キー及び「l」キーを用いても、それ以外のキーの組合せを用いてもよい。
(Fifth embodiment)
In the fifth embodiment, among the plurality of points representing the home position of the keyboard image 312, at least two positions are stored as reference point positions in the recording unit 108 and correspond to the two reference points. The keyboard image 312 is scaled so that the positions of the two touch points coincide with the positions of the two reference points.
The image display apparatus according to the fifth embodiment has the same configuration as the image display apparatus 100 according to the first embodiment, and has the same function. In the program for adjusting and displaying the size of the software keyboard executed in the image display apparatus according to the fifth embodiment, in FIG. 13, step 412 (processing for calculating the center of gravity), step 502 (rectangular Step 506 is executed without performing the determination process) and step 504 (display size determination process). In step 506, the CPU 102 determines that the position of the center of each of the “f” key and the “j” key of the keyboard image 312 matches the two innermost points of the eight touch points. Is scaled and rotated for display. In that case, the process for obtaining the center of gravity G as described above is not necessary. In order to determine the front direction of the user, a process for obtaining an approximate straight line is necessary.
As described above, in the fifth embodiment, when the user performs a touch operation other than the eight simultaneous touches on the screen 700, the same processing as that in the first embodiment can be performed. In addition to this, when the user performs eight simultaneous touches on the screen 700 on which the software keyboard is not displayed, the size of the keyboard image 312 can be adjusted and displayed.
It should be noted that keys of home positions other than the “f” key and the “j” key may be used. For example, “d” key and “k” key, “s” key and “l” key, or other key combinations may be used.

以上、実施の形態を説明することにより本発明を説明したが、上記した実施の形態は例示であって、本発明は上記した実施の形態に限定されるものではなく、種々変更して実施することができる。   The present invention has been described above by describing the embodiment. However, the above-described embodiment is an exemplification, and the present invention is not limited to the above-described embodiment, and is implemented with various modifications. be able to.

また、上述した実施態様における画像表示装置は、画像を表示するための表示部と、表示部の画像表示面上に配置され、表示部により表示された画像上の位置を指定する操作により指定される位置を検出する検出部と、検出部により複数の位置が同時に検出されたことを受けて、検出された複数の位置の2次元分布を近似する直線を算出する直線算出部と、ユーザによるタッチ操作の対象である入力装置を表す画像を記憶する記憶部とを含む。表示部は、入力装置を表す仮想画像として、記憶部から読出した画像を表示する。入力装置は、ユーザによって使用されるときに、ユーザに対向する2つの端部を備え、入力装置を表す画像は、入力装置の2つの端部のうち、ユーザからより遠くに位置する端部に対応する第1端部と、ユーザからより近くに位置する端部に対応する第2端部とを備える。仮想画像として表示された画像において、入力装置がユーザによって使用されるときの入力装置の左右方向に対応する、当該画像の左右方向は、近似直線に沿い、第1端部及び第2端部は、画像表示面の中心に対して同じ側に位置し、且つ、第1端部は第2端部よりも、画像表示面の中心により近く位置してもよい。   The image display device according to the above-described embodiment is designated by an operation for designating a display unit for displaying an image, an image display surface of the display unit, and a position on the image displayed by the display unit. A detection unit for detecting a position to be detected, a straight line calculation unit for calculating a straight line approximating a two-dimensional distribution of the plurality of detected positions in response to the simultaneous detection by the detection unit, and a touch by the user And a storage unit that stores an image representing an input device that is an operation target. The display unit displays the image read from the storage unit as a virtual image representing the input device. When the input device is used by a user, the input device includes two ends facing the user, and an image representing the input device is displayed at an end of the input device that is located farther from the user. A corresponding first end and a second end corresponding to the end located closer to the user. In the image displayed as the virtual image, the horizontal direction of the image corresponding to the horizontal direction of the input device when the input device is used by the user is along an approximate straight line, and the first end and the second end are The first end portion may be located closer to the center of the image display surface than the second end portion.

好ましくは、画像表示装置は、検出部によって検出された複数の位置の重心を算出する重心算出部をさらに含み、表示部は、さらに入力装置を表す画像の代表点が重心に一致するように、仮想画像を表示してもよい。   Preferably, the image display device further includes a centroid calculation unit that calculates centroids of a plurality of positions detected by the detection unit, and the display unit further includes a representative point of an image representing the input device so as to match the centroid. A virtual image may be displayed.

より好ましくは、入力装置はコンピュータ用キーボードであり、記憶部は、入力装置を表す画像上のホームポジションの位置から得られる基準長をさらに記憶している。画像表示装置は、検出部により8点の位置が検出されたことを受けて、検出された8点から得られる基準長に対応する距離を算出する距離算出部と、基準長に対する、距離算出部により算出された距離の比率で、入力装置を表す画像をスケーリングして表示用画像を生成する画像処理部とをさらに備える。表示部は、検出部により8点の位置が検出されたことを受けて、入力装置を表す仮想画像として、入力装置を表す画像に代えて、表示用画像を表示してもよい。   More preferably, the input device is a computer keyboard, and the storage unit further stores a reference length obtained from the position of the home position on the image representing the input device. The image display device includes a distance calculation unit that calculates a distance corresponding to a reference length obtained from the detected eight points in response to detection of eight positions by the detection unit, and a distance calculation unit for the reference length And an image processing unit that generates an image for display by scaling an image representing the input device at the distance ratio calculated by the above. The display unit may display a display image instead of the image representing the input device as a virtual image representing the input device in response to detection of the positions of the eight points by the detection unit.

さらに好ましくは、仮想画像はコンピュータ用キーボードの画像であり、記憶部は、入力装置を表す画像上のホームポジションを表す8点のうち少なくとも2点の位置をさらに記憶している。画像表示装置は、検出部により8点の位置が検出されたことを受けて、当該8点のうち、記憶部に記憶されたホームポジションを表す2点に対応する2点を特定する点特定部と、点特定部により特定された2点の位置が、記憶部に記憶された、対応するホームポジションを表す2点に一致するように、入力装置を表す画像をスケーリングして表示用画像を生成する画像処理部とをさらに備える。表示部は、検出部により8点の位置が検出されたことを受けて、入力装置を表す仮想画像として、入力装置を表す画像に代えて、表示用画像を表示してもよい。   More preferably, the virtual image is an image of a computer keyboard, and the storage unit further stores at least two positions among eight points representing the home position on the image representing the input device. In response to the detection of the positions of the eight points by the detection unit, the image display device identifies two of the eight points corresponding to two points representing the home position stored in the storage unit And generating the display image by scaling the image representing the input device so that the positions of the two points identified by the point identification unit coincide with the two points representing the corresponding home position stored in the storage unit. An image processing unit. The display unit may display a display image instead of the image representing the input device as a virtual image representing the input device in response to detection of the positions of the eight points by the detection unit.

好ましくは、画像表示装置は、表示部に仮想画像が表示されている状態において、検出部により仮想画像上の位置が同時に所定数未満検出されたことを受けて、当該検出に応じた入力処理を実行する入力部をさらに備える。入力部は、検出部により仮想画像の位置が同時に所定数以上検出されたことを受けて、入力処理を実行しなくてもよい。   Preferably, in a state where the virtual image is displayed on the display unit, the image display device performs input processing corresponding to the detection in response to the detection unit detecting that less than a predetermined number of positions on the virtual image are simultaneously detected. An input unit to be executed is further provided. The input unit may not perform the input process when the detection unit simultaneously detects a predetermined number or more of the positions of the virtual images.

より好ましくは、所定数は4であってもよい。   More preferably, the predetermined number may be four.

上述した実施態様の画像表示装置の制御方法は、画像を表示する表示部と、表示部の画像表示面上に配置され、表示部により表示された画像上の位置を指定する操作により指定される位置を検出する検出部と、ユーザによるタッチ操作の対象である入力装置を表す画像を記憶する記憶部とを含む画像表示装置の制御方法である。この制御方法は、表示部に画像を表示するステップと、検出部により、表示部に表示された画像上の位置を指定する操作により指定される位置を検出する検出ステップと、検出ステップにより複数の位置が同時に検出されたことを受けて、検出された複数点の位置の2次元分布を近似する直線を算出するステップと、表示部に、入力装置を表す仮想画像として、記憶部から読出した画像を表示するステップとを含む。入力装置は、ユーザによって使用されるときに、ユーザに対向する2つの端部を備え、入力装置を表す画像は、入力装置の2つの端部のうち、ユーザからより遠くに位置する端部に対応する第1端部と、ユーザからより近くに位置する端部に対応する第2端部とを備える。仮想画像として表示された画像において、入力装置がユーザによって使用されるときの入力装置の左右方向に対応する、当該画像の左右方向は、近似直線に沿い、第1端部及び第2端部は、画像表示面の中心に対して同じ側に位置し、且つ、第1端部は第2端部よりも、画像表示面の中心により近く位置してもよい。   The control method of the image display apparatus according to the above-described embodiment is designated by an operation for designating a position on the image displayed on the image display surface of the display unit and the display unit that displays the image and displayed on the display unit. It is a control method of an image display device including a detection unit that detects a position and a storage unit that stores an image representing an input device that is a target of a touch operation by a user. The control method includes a step of displaying an image on the display unit, a detection step of detecting a position specified by an operation of specifying a position on the image displayed on the display unit by the detection unit, and a plurality of detection steps. An image read from the storage unit as a virtual image representing the input device on the display unit, and a step of calculating a straight line approximating the two-dimensional distribution of the detected positions of the plurality of points in response to the simultaneous detection of the positions Displaying. When the input device is used by a user, the input device includes two ends facing the user, and an image representing the input device is displayed at an end of the input device that is located farther from the user. A corresponding first end and a second end corresponding to the end located closer to the user. In the image displayed as the virtual image, the horizontal direction of the image corresponding to the horizontal direction of the input device when the input device is used by the user is along an approximate straight line, and the first end and the second end are The first end portion may be located closer to the center of the image display surface than the second end portion.

100 画像表示装置
102 演算処理部(CPU)
104 読出専用メモリ(ROM)
106 書換可能メモリ(RAM)
108 記録部
112 タッチ検出部
114 表示部
116 表示制御部
118 ビデオメモリ(VRAM)
120 バス
100 Image Display Device 102 Arithmetic Processing Unit (CPU)
104 Read-only memory (ROM)
106 Rewritable memory (RAM)
108 Recording unit 112 Touch detection unit 114 Display unit 116 Display control unit 118 Video memory (VRAM)
120 bus

Claims (9)

画像を表示するための表示手段と、
前記表示手段の画像表示面上に配置され、ユーザによるタッチ位置を検出する検出手段と、
ユーザによる入力を受付けるキーボードを表す入力装置画像を記憶する記憶手段と、
を備え、
前記表示手段は、
前記検出手段により複数のタッチ位置が同時に検出された場合、当該複数のタッチ位置に基づき前記入力装置画像を表示し、
前記入力装置画像全体を表示できないときは、当該入力装置画像の全体が表示できるように当該入力装置画像の表示位置を前記複数のタッチ位置に基づき移動して表示することを特徴とする画像表示装置。
Display means for displaying an image;
A detecting means arranged on the image display surface of the display means for detecting a touch position by a user;
Storage means for storing an input device image representing a keyboard that accepts input by a user;
With
The display means includes
When a plurality of touch positions are detected simultaneously by the detection means, the input device image is displayed based on the plurality of touch positions,
When the entire input device image cannot be displayed, the display position of the input device image is moved and displayed based on the plurality of touch positions so that the entire input device image can be displayed. .
前記表示手段は、前記複数のタッチ位置の2次元分布を近似する直線に沿って前記入力装置画像の中心を平行移動させ、当該直線に沿って当該入力装置画像の中心を平行移動させても当該入力装置画像の全体が表示できない場合は、更に当該直線に垂直な方向に沿って当該入力装置画像の中心を平行移動させることで、当該入力装置画像を移動して表示することを特徴とする請求項1に記載の画像表示装置。   The display means translates the center of the input device image along a straight line approximating the two-dimensional distribution of the plurality of touch positions, and translates the center of the input device image along the straight line. When the entire input device image cannot be displayed, the input device image is moved and displayed by translating the center of the input device image along a direction perpendicular to the straight line. Item 4. The image display device according to Item 1. 前記入力装置画像は、第一端部と第二端部とを含み、
前記表示手段は、前記検出手段により複数のタッチ位置が同時に検出された場合、前記画像表示面の中心に対して同じ側であって、且つ、前記第一端部は前記第二端部よりも、前記画像表示面の中心より近い位置に、前記入力装置画像を表示することを特徴とする請求項1又は2に記載の画像表示装置。
The input device image includes a first end and a second end,
When a plurality of touch positions are simultaneously detected by the detection unit, the display unit is on the same side with respect to the center of the image display surface, and the first end is more than the second end. The image display device according to claim 1, wherein the input device image is displayed at a position closer to the center of the image display surface.
前記表示手段は、前記複数のタッチ位置が、画面表示面の周縁部に近い位置を含む場合には、当該入力装置画像の全体が表示出来るように、当該入力装置画像の表示位置を前記複数のタッチ位置に基づき移動して表示することを特徴とする請求項1から3の何れか一項に記載の画像表示装置。   When the plurality of touch positions include a position close to a peripheral edge of the screen display surface, the display means sets the display position of the input device image so that the entire input device image can be displayed. The image display device according to claim 1, wherein the image display device moves and displays based on a touch position. 前記表示手段は、前記入力装置画像の代表点が、前記複数のタッチ位置に基づく重心に一致するように、当該入力装置画像を表示することを特徴とする請求項1から4の何れか一項に記載の画像表示装置。   The said display means displays the said input device image so that the representative point of the said input device image may correspond to the gravity center based on these several touch positions, The said input device image is characterized by the above-mentioned. The image display device described in 1. 前記記憶手段は、前記入力装置画像上のホームポジションの位置から得られる基準長を更に記憶し、
前記検出手段により複数のタッチ位置が検出されたことを受けて、検出された複数のタッチ位置から得られる前記基準長に対応する距離を算出する距離算出手段と、
前記基準長に対する、前記距離算出手段により算出された前記距離の比率で、前記入力装置画像をスケーリングして表示用画像を生成する画像処理手段と、
を更に備え、
前記表示手段は、前記検出手段により複数のタッチ位置が検出されたことを受けて、前記入力装置画像として、前記入力装置画像に代えて、前記表示用画像を表示することを特徴とする請求項1から5の何れか一項に記載の画像表示装置。
The storage means further stores a reference length obtained from a position of a home position on the input device image;
In response to the detection of a plurality of touch positions by the detection means, distance calculation means for calculating a distance corresponding to the reference length obtained from the detected plurality of touch positions;
Image processing means for generating a display image by scaling the input device image at a ratio of the distance calculated by the distance calculating means to the reference length;
Further comprising
The display means displays the display image instead of the input device image as the input device image in response to detection of a plurality of touch positions by the detecting means. The image display device according to any one of 1 to 5.
表示画面においてマルチタッチの位置を検出する検出手段と、
前記検出手段により検出されたマルチタッチの位置に応じて、前記表示画面上に、ユーザによる入力を受け付けるキーボードを表すための入力装置画像を表示する第1の表示手段と、
前記検出されたマルチタッチの位置が、前記表示画面の周縁部に近い位置を含むことにより、前記第1の表示手段では前記入力装置画像の一部が表示されなくなる場合には、前記入力装置画像の全体が表示される位置に前記入力装置画像を前記マルチタッチの位置に基づき移動して表示する第2の表示手段と、
を備えることを特徴とする画像表示装置。
Detecting means for detecting the position of multi-touch on the display screen;
First display means for displaying, on the display screen, an input device image for representing a keyboard that accepts input by a user, in accordance with the position of multi-touch detected by the detection means;
When the detected position of the multi-touch includes a position close to the peripheral edge of the display screen, and the first display unit does not display a part of the input device image, the input device image Second display means for moving and displaying the input device image based on the position of the multi-touch at a position where the entire image is displayed;
An image display device comprising:
画像を表示するための表示部と、前記表示部の画像表示面上に配置され、ユーザによるタッチ位置を検出する検出部と、ユーザによる入力を受付けるキーボードを表す入力装置画像を記憶する記憶部とを含む画像表示装置の制御方法であって、
表示部に画像を表示するステップと、
前記検出部により、前記画像表示面上のタッチ位置を検出するステップと、
前記検出部により複数のタッチ位置が同時に検出された場合、当該複数のタッチ位置に基づき前記入力装置画像を表示するステップと、
前記入力装置画像の全体を表示できないときは、当該入力装置画像の全体が表示できるように当該入力装置画像の表示位置を前記複数のタッチ位置に基づき移動して表示するステップと、
を含むことを特徴とする制御方法。
A display unit for displaying an image; a detection unit which is arranged on an image display surface of the display unit and detects a touch position by a user; and a storage unit which stores an input device image representing a keyboard for receiving an input by the user; A method for controlling an image display device including:
Displaying an image on the display unit;
Detecting a touch position on the image display surface by the detection unit;
When a plurality of touch positions are detected simultaneously by the detection unit, displaying the input device image based on the plurality of touch positions;
When the entire input device image cannot be displayed, the display position of the input device image is moved and displayed based on the plurality of touch positions so that the entire input device image can be displayed;
The control method characterized by including.
表示画面においてマルチタッチの位置を検出する検出ステップと、
前記検出ステップにより検出されたマルチタッチの位置に応じて、前記表示画面上に、ユーザによる入力を受け付けるキーボードを表すための入力装置画像を表示する第1の表示ステップと、
前記検出されたマルチタッチの位置が、前記表示画面の周縁部に近い位置を含むことにより、前記第1の表示ステップでは前記入力装置画像の一部が表示されなくなる場合には、前記入力装置画像の全体が表示される位置に前記入力装置画像を前記マルチタッチの位置に基づき移動して表示する第2の表示ステップと、
を含むことを特徴とする画像表示方法。
A detection step for detecting a multi-touch position on the display screen;
A first display step of displaying an input device image for representing a keyboard for accepting an input by a user on the display screen according to the position of multi-touch detected by the detection step;
When a part of the input device image is not displayed in the first display step because the detected multi-touch position includes a position close to the peripheral edge of the display screen, the input device image is displayed. A second display step of moving and displaying the input device image based on the position of the multi-touch at a position where the entire image is displayed;
An image display method comprising:
JP2017187076A 2017-09-27 2017-09-27 Image display device, control method for image display device, and image display method Active JP6434594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017187076A JP6434594B2 (en) 2017-09-27 2017-09-27 Image display device, control method for image display device, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017187076A JP6434594B2 (en) 2017-09-27 2017-09-27 Image display device, control method for image display device, and image display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013178405A Division JP6219100B2 (en) 2013-08-29 2013-08-29 Image display device capable of displaying software keyboard and control method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018210319A Division JP2019040623A (en) 2018-11-08 2018-11-08 Image display device and control method of image display device

Publications (2)

Publication Number Publication Date
JP2017224359A JP2017224359A (en) 2017-12-21
JP6434594B2 true JP6434594B2 (en) 2018-12-05

Family

ID=60688300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017187076A Active JP6434594B2 (en) 2017-09-27 2017-09-27 Image display device, control method for image display device, and image display method

Country Status (1)

Country Link
JP (1) JP6434594B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139615A (en) * 2004-11-12 2006-06-01 Access Co Ltd Display device, menu display program, and tab display program
US9110590B2 (en) * 2007-09-19 2015-08-18 Typesoft Technologies, Inc. Dynamically located onscreen keyboard
JP2009122890A (en) * 2007-11-14 2009-06-04 Sharp Corp Display device and information processor
JP5520273B2 (en) * 2011-10-11 2014-06-11 ヤフー株式会社 Information input device, method and program
JP6219100B2 (en) * 2013-08-29 2017-10-25 シャープ株式会社 Image display device capable of displaying software keyboard and control method thereof

Also Published As

Publication number Publication date
JP2017224359A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
US9996176B2 (en) Multi-touch uses, gestures, and implementation
US9529523B2 (en) Method using a finger above a touchpad for controlling a computerized system
US10416777B2 (en) Device manipulation using hover
US20160364138A1 (en) Front touchscreen and back touchpad operated user interface employing semi-persistent button groups
US20170017393A1 (en) Method for controlling interactive objects from a touchpad of a computerized device
CN108700957B (en) Electronic system and method for text entry in a virtual environment
US20140337786A1 (en) Method for controlling a virtual keyboard from a touchpad of a computerized device
US9542032B2 (en) Method using a predicted finger location above a touchpad for controlling a computerized system
US20100295806A1 (en) Display control apparatus, display control method, and computer program
WO2021203724A1 (en) Handwriting selection method and apparatus, and computer device and storage medium
JPH06501798A (en) Computer with tablet input to standard programs
JPH06501799A (en) computer with separate display surface and user interface processor
JP2010224764A (en) Portable game machine with touch panel display
JP6189680B2 (en) Interface device, interface method, interface program, and computer-readable recording medium storing the program
JP5389241B1 (en) Electronic device and handwritten document processing method
EP2474890A1 (en) Virtual keyboard configuration putting fingers in rest positions on a multitouch screen, calibrating key positions thereof
JP6219100B2 (en) Image display device capable of displaying software keyboard and control method thereof
CN110069147B (en) Control device and control method thereof
US20140253486A1 (en) Method Using a Finger Above a Touchpad During a Time Window for Controlling a Computerized System
US9639195B2 (en) Method using finger force upon a touchpad for controlling a computerized system
CN113515228A (en) Virtual scale display method and related equipment
JP6434594B2 (en) Image display device, control method for image display device, and image display method
JPWO2016208099A1 (en) Information processing apparatus, input control method for controlling input to information processing apparatus, and program for causing information processing apparatus to execute input control method
TWI631484B (en) Direction-based text input method, system and computer-readable recording medium using the same
JP2019040623A (en) Image display device and control method of image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181108

R150 Certificate of patent or registration of utility model

Ref document number: 6434594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150