JP2014206924A - Operation device - Google Patents

Operation device Download PDF

Info

Publication number
JP2014206924A
JP2014206924A JP2013085170A JP2013085170A JP2014206924A JP 2014206924 A JP2014206924 A JP 2014206924A JP 2013085170 A JP2013085170 A JP 2013085170A JP 2013085170 A JP2013085170 A JP 2013085170A JP 2014206924 A JP2014206924 A JP 2014206924A
Authority
JP
Japan
Prior art keywords
touch pad
display
coordinate
mode
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013085170A
Other languages
Japanese (ja)
Other versions
JP6127679B2 (en
Inventor
神谷 直城
Naoki Kamiya
直城 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013085170A priority Critical patent/JP6127679B2/en
Publication of JP2014206924A publication Critical patent/JP2014206924A/en
Application granted granted Critical
Publication of JP6127679B2 publication Critical patent/JP6127679B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an operation device having a touch pad configured to enable two different functions with two or more fingers tracing the touch pad.SOLUTION: An operation device includes: a touch pad; and a processing device which detects the number of fingers tracing the touch pad, to change a character input mode according to the number of tracing fingers.

Description

本発明は、操作装置に関する。   The present invention relates to an operating device.

従来から、タッチパッドを用いた操作装置は知られている(例えば、特許文献1参照)。   Conventionally, an operation device using a touch pad is known (see, for example, Patent Document 1).

特開2010−61224号公報JP 2010-61224 A

しかしながら、従来のこの種の操作装置では、タッチパッドにおいて2本以上の指による所謂"なぞり操作"を行っても、1本の指によるなぞり操作と同一の機能しか実現されず、利便性の観点から改善の余地がある。   However, in the conventional operation device of this type, even if a so-called “strike operation” with two or more fingers is performed on the touch pad, only the same function as the trace operation with one finger is realized, and this is a viewpoint of convenience. There is room for improvement.

そこで、本発明は、タッチパッドにおいて2本以上の指によるなぞり操作により異なる機能を実現することができる操作装置の提供を目的とする。   Accordingly, an object of the present invention is to provide an operation device that can realize different functions by a tracing operation with two or more fingers on a touch pad.

上記目的を達成するため、本発明の一局面によれば、タッチパッドと、
前記タッチパッドに対するなぞり操作の指の本数を検出し、なぞり操作の指の本数に応じて文字入力モードを変化させる処理装置とを備えることを特徴とする、操作装置が提供される。
In order to achieve the above object, according to one aspect of the present invention, a touchpad;
An operation device is provided, comprising: a processing device that detects the number of fingers for a tracing operation on the touch pad and changes a character input mode according to the number of fingers for the tracing operation.

本発明によれば、タッチパッドにおいて2本以上の指によるなぞり操作により異なる機能を実現することができる操作装置が得られる。   ADVANTAGE OF THE INVENTION According to this invention, the operating device which can implement | achieve a different function by tracing operation with two or more fingers in a touchpad is obtained.

一実施例による車両用操作装置1の要部構成を示すシステム図である。1 is a system diagram illustrating a configuration of a main part of a vehicle operating device 1 according to an embodiment. タッチパッド10を概略的に示す上面図である。1 is a top view schematically showing a touch pad 10. FIG. タッチパッド10の要部断面を概略的に示す断面図である。2 is a cross-sectional view schematically showing a cross-section of a main part of the touch pad 10. FIG. ディスプレイ20上に表示される操作画面の一例を示す図である。6 is a diagram illustrating an example of an operation screen displayed on the display 20. FIG. 一実施例による車両用操作装置1のタッチパッド10とディスプレイ20の配置状態の一例を示す概略図である。It is the schematic which shows an example of the arrangement | positioning state of the touchpad 10 and the display 20 of the operating device 1 for vehicles by one Example. ディスプレイ20及びタッチパッド10を概略的に示す図であり、相対座標モードの動作例を概念的に示す図である。It is a figure which shows the display 20 and the touchpad 10 roughly, and is a figure which shows notionally the operation example of relative coordinate mode. ディスプレイ20及びタッチパッド10を概略的に示す図であり、絶対座標モードの動作例を概念的に示す図である。It is a figure which shows the display 20 and the touchpad 10 roughly, and is a figure which shows notionally the operation example of absolute coordinate mode. ディスプレイ20上に表示される手書き入力画面の一例を示す図である。4 is a diagram illustrating an example of a handwriting input screen displayed on the display 20. FIG. ディスプレイ20の画面中の手書き文字表示部90の座標系がタッチパッド10の操作面の座標系と絶対的に対応する絶対的な同期態様を模式的に示す図である。4 is a diagram schematically showing an absolute synchronization mode in which a coordinate system of a handwritten character display unit 90 on the screen of the display 20 absolutely corresponds to a coordinate system of an operation surface of the touchpad 10. FIG. タッチパッド10の制御部16により実現される処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of processing realized by a control unit 16 of the touchpad 10. ディスプレイ制御部30により実現される処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of processing realized by a display control unit 30. タッチパッド10に対する2本指のなぞり操作時及び1本指の操作時におけるディスプレイ20上の手書き入力画面とタッチパッド10のタッチ操作面との各関係を概略的に示す図である。FIG. 4 is a diagram schematically showing each relationship between a handwriting input screen on the display 20 and a touch operation surface of the touch pad 10 when a two-finger tracing operation and one-finger operation on the touch pad 10 are performed.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、一実施例による車両用操作装置1の要部構成を示すシステム図である。図2は、タッチパッド10を概略的に示す上面図である。図3は、タッチパッド10の要部断面を概略的に示す断面図である。尚、図2には、タッチパッド10を操作する手が概略的に示されているが、図3には示されない。図4は、ディスプレイ20上に表示される操作画面の一例を示す図である。図5は、一実施例による車両用操作装置1のタッチパッド10とディスプレイ20の配置状態の一例を示す概略図である。   FIG. 1 is a system diagram showing a main configuration of a vehicle operating device 1 according to an embodiment. FIG. 2 is a top view schematically showing the touch pad 10. FIG. 3 is a cross-sectional view schematically showing a cross-section of the main part of the touch pad 10. FIG. 2 schematically shows a hand for operating the touch pad 10, but is not shown in FIG. 3. FIG. 4 is a diagram illustrating an example of an operation screen displayed on the display 20. FIG. 5 is a schematic diagram illustrating an example of an arrangement state of the touch pad 10 and the display 20 of the vehicle operating device 1 according to an embodiment.

車両用操作装置1は、タッチパッド10と、ディスプレイ20と、ディスプレイ制御部30とを含む。   The vehicle operating device 1 includes a touch pad 10, a display 20, and a display control unit 30.

タッチパッド10は、車室内の適切な場所に設けられる。タッチパッド10は、好ましくは、運転者が操作しやすい位置(運転姿勢を保ちながら手を伸ばして届く位置)に配置される。タッチパッド10は、図5に示すように、例えばコンソールボックス又はその周辺に配置されてもよい。タッチパッド10は、図1に示すように、座標検出部12と、押下圧力検出部14と、制御部16と、メモリ18とを含む。   The touch pad 10 is provided at an appropriate place in the vehicle interior. The touch pad 10 is preferably disposed at a position that is easy for the driver to operate (a position where the hand reaches out while maintaining the driving posture). As shown in FIG. 5, the touch pad 10 may be disposed, for example, in the console box or in the vicinity thereof. As shown in FIG. 1, the touch pad 10 includes a coordinate detection unit 12, a pressing pressure detection unit 14, a control unit 16, and a memory 18.

座標検出部12は、図2に示すように、2次元の略平らな操作面(タッチ操作面)を備える。座標検出部12は、静電センサを備え、その検出信号が制御部16に送られる。座標検出部12は、例えば、静電パッドにより構成される。静電パッドは、例えば、平面上にX方向、Y方向のそれぞれに絶縁体を挟んで電極(静電センサ)が直線状に延在する構造を有する。これらの電極に、絶縁体のパネルを挟んで人の指が接近すると、電極と指を極板とするコンデンサが形成され、電極の電荷量(及びそれの伴い静電容量)が変化する。この場合、電極の検出信号(電極に溜められる電荷の変化量を表す信号)が制御部16に送られてよい。   As shown in FIG. 2, the coordinate detection unit 12 includes a two-dimensional substantially flat operation surface (touch operation surface). The coordinate detection unit 12 includes an electrostatic sensor, and a detection signal thereof is sent to the control unit 16. The coordinate detection unit 12 is configured by, for example, an electrostatic pad. The electrostatic pad has, for example, a structure in which an electrode (electrostatic sensor) extends linearly with an insulator sandwiched between the X direction and the Y direction on a plane. When a person's finger approaches these electrodes with an insulator panel in between, a capacitor having the electrode and the finger as an electrode plate is formed, and the amount of charge (and the associated capacitance) of the electrode changes. In this case, an electrode detection signal (a signal indicating the amount of change in the charge accumulated in the electrode) may be sent to the control unit 16.

座標検出部12は、上下方向(図3のZ方向)に移動可能に構成される。この座標検出部12を上下動可能にするための機構は任意であってよい。尚、図3に示す例では、座標検出部12は、弾性部材54を介して基板60に支持されている。座標検出部12の上下動ストロークは任意であってよく、微小であってもよい。   The coordinate detection unit 12 is configured to be movable in the vertical direction (Z direction in FIG. 3). A mechanism for enabling the coordinate detection unit 12 to move up and down may be arbitrary. In the example shown in FIG. 3, the coordinate detection unit 12 is supported on the substrate 60 via the elastic member 54. The vertical movement stroke of the coordinate detection unit 12 may be arbitrary or may be minute.

押下圧力検出部14は、タッチパッド10の座標検出部12の下方への移動を表す信号を出力する。押下圧力検出部14は、例えばタクトスイッチや感圧センサ(例えば圧電素子)により構成される。座標検出部12の操作面の下方移動に伴って座標検出部12に接触する箇所であれば任意の場所に配置されてもよい。例えば、図3に示す例では、押下圧力検出部14を構成する感圧センサは、座標検出部12の中央部の下方に設けられているが、座標検出部12の周囲に設けられてもよい。また、押下圧力検出部14を構成する感圧センサは、複数個分散した位置に設けられてもよい。   The pressing pressure detection unit 14 outputs a signal indicating the downward movement of the coordinate detection unit 12 of the touch pad 10. The pressing pressure detection unit 14 includes, for example, a tact switch or a pressure sensor (for example, a piezoelectric element). As long as it is a place which contacts the coordinate detection part 12 with the downward movement of the operation surface of the coordinate detection part 12, you may arrange | position in arbitrary places. For example, in the example shown in FIG. 3, the pressure-sensitive sensor constituting the pressing pressure detection unit 14 is provided below the center of the coordinate detection unit 12, but may be provided around the coordinate detection unit 12. . Moreover, the pressure sensor which comprises the pressing pressure detection part 14 may be provided in the position disperse | distributed by two or more.

制御部16及びメモリ18は、例えばマイクロコンピューターにより構成される。   The control unit 16 and the memory 18 are configured by a microcomputer, for example.

制御部16は、座標検出部12の静電センサからの出力(出力信号)に基づいて、タッチ操作面に対する指の接触を検出する。この際、制御部16は、タッチ操作面内の座標位置を表す座標信号、即ち操作者によりタッチ操作された座標位置(操作指の接触位置)を表す座標信号を生成する。尚、座標検出部12が静電パッドで構成される場合、上述の如く電極と操作指からなるコンデンサには電荷が蓄えられ、各電極における電荷の変化量が操作指の位置に応じて異なるため、各電極からの検出信号に基づいて、操作指の位置を特定することができる。具体的には、制御部16は、座標検出部12からの出力レベルが所定の基準値(検出閾値)を超えた場合に、検出信号のレベルが最大(極大)となる電極の配置位置に基づいて座標信号を生成する。所定の基準値は、例えば電極に溜まる電荷の変化量に関連する値である。例えば、制御部16は、電極に溜まる電荷の変化量(最大の電荷変化量)が基準値を超えた場合に、タッチ操作面に対する指の接触があると判定して、座標信号(例えば電荷の変化量が最大となる2次元位置を表す座標信号)を生成し、電極に溜まる電荷の変化量が基準値を超えない場合には、タッチ操作面に対する指の接触が無いと判定して、座標信号を生成しない。尚、基準値は、メモリ18に記憶されてもよい。生成した座標信号は、ディスプレイ制御部30に送信される。   The control unit 16 detects a finger contact with the touch operation surface based on an output (output signal) from the electrostatic sensor of the coordinate detection unit 12. At this time, the control unit 16 generates a coordinate signal representing a coordinate position in the touch operation surface, that is, a coordinate signal representing a coordinate position (touch position of the operation finger) touched by the operator. When the coordinate detection unit 12 is composed of an electrostatic pad, charge is stored in the capacitor composed of the electrode and the operation finger as described above, and the amount of change in charge at each electrode differs depending on the position of the operation finger. The position of the operation finger can be specified based on the detection signal from each electrode. Specifically, the control unit 16 is based on the electrode arrangement position where the level of the detection signal becomes maximum (maximum) when the output level from the coordinate detection unit 12 exceeds a predetermined reference value (detection threshold). To generate a coordinate signal. The predetermined reference value is, for example, a value related to the amount of change in the charge accumulated on the electrode. For example, the control unit 16 determines that there is a finger contact with the touch operation surface when the change amount of the charge accumulated in the electrode (maximum charge change amount) exceeds a reference value, and the coordinate signal (for example, the charge amount) If the amount of change in the charge accumulated on the electrode does not exceed the reference value, it is determined that there is no finger contact with the touch operation surface. Does not generate a signal. Note that the reference value may be stored in the memory 18. The generated coordinate signal is transmitted to the display control unit 30.

制御部16は、押下圧力検出部14からの出力信号に基づいて、決定信号を生成する。例えば、押下圧力検出部14が感圧センサからなる場合、感圧センサからの出力(押下圧力)が所定閾値Pnを越えた場合に、操作者による決定操作を検出して、決定信号を生成する。押下圧力検出部14がタクトスイッチからなる場合、タクトスイッチからオン信号が入力された場合に、操作者による決定操作を検出して、決定信号を生成する。生成した決定信号は、ディスプレイ制御部30に送信される。尚、押下圧力検出部14を構成する感圧センサが複数個設けられる場合、制御部16は、いずれかの感圧センサからの出力が所定閾値Pnを越えた場合に、決定信号を生成してもよい。この場合、感圧センサは、タッチパッド10(典型的には、座標検出部12を構成する静電パッド)上での押下位置を検出する目的で複数設けられるのではなく、タッチパッド10上での押下操作があったか否かだけを検出する目的で設けられてよい。従って、決定信号は、決定操作を検出したことだけを表す信号であり、押下操作の位置の情報のような他の情報を含まない信号であってよい。同様に、押下圧力検出部14を構成するタクトスイッチが複数個設けられる場合、制御部16は、いずれかのタクトスイッチからオン信号が入力された場合に、決定信号を生成してもよい。生成した決定信号は、ディスプレイ制御部30に送信される。   The control unit 16 generates a determination signal based on the output signal from the pressing pressure detection unit 14. For example, when the pressing pressure detection unit 14 includes a pressure sensor, when the output (pressing pressure) from the pressure sensor exceeds a predetermined threshold value Pn, the determination operation by the operator is detected and a determination signal is generated. . When the pressing pressure detection unit 14 includes a tact switch, when an ON signal is input from the tact switch, a determination operation by the operator is detected and a determination signal is generated. The generated determination signal is transmitted to the display control unit 30. When a plurality of pressure sensors constituting the pressing pressure detection unit 14 are provided, the control unit 16 generates a determination signal when the output from any of the pressure sensors exceeds a predetermined threshold value Pn. Also good. In this case, a plurality of pressure-sensitive sensors are not provided for the purpose of detecting the pressed position on the touch pad 10 (typically, the electrostatic pad constituting the coordinate detection unit 12), but on the touch pad 10. It may be provided for the purpose of detecting only whether or not there has been a pressing operation. Therefore, the determination signal is a signal indicating only that the determination operation has been detected, and may be a signal that does not include other information such as information on the position of the pressing operation. Similarly, when a plurality of tact switches constituting the pressing pressure detection unit 14 are provided, the control unit 16 may generate a determination signal when an ON signal is input from any tact switch. The generated determination signal is transmitted to the display control unit 30.

制御部16は、ディスプレイ制御部30との間で通信し、各種情報(座標信号や決定信号、メッセージ出力要求等)をディスプレイ制御部30に送信する。尚、制御部16の機能の一部又は全部は、座標検出部12により実現されてもよい。   The control unit 16 communicates with the display control unit 30 and transmits various information (such as a coordinate signal, a determination signal, and a message output request) to the display control unit 30. A part or all of the functions of the control unit 16 may be realized by the coordinate detection unit 12.

ディスプレイ20は、図5に示すように、タッチパッド10に対して遠隔位置に配置される。ディスプレイ20は、液晶ディスプレイやHUD(ヘッドアップディスプレイ)のような任意の表示装置であってよい。ディスプレイ20は、車室内の適切な位置(例えば、インストルメントパネル)に配置される。ディスプレイ20は、タッチパネルディスプレイであってもよいし、タッチ操作ができないタイプのディスプレイであってもよい。ディスプレイ20には、タッチパッド10で操作可能な操作内容を表す操作画面(図4参照)が表示される。尚、操作画面の背景には又は操作画面が表示されないときには、ディスプレイ20には、TV、周辺監視カメラの映像等が表示されてもよい。   As shown in FIG. 5, the display 20 is disposed at a remote position with respect to the touch pad 10. The display 20 may be an arbitrary display device such as a liquid crystal display or a HUD (head-up display). The display 20 is disposed at an appropriate position (for example, an instrument panel) in the vehicle interior. The display 20 may be a touch panel display or a type of display that cannot be touched. On the display 20, an operation screen (see FIG. 4) representing the operation content that can be operated with the touch pad 10 is displayed. When the operation screen is not displayed on the background of the operation screen or when the operation screen is not displayed, an image of a TV, a peripheral monitoring camera, or the like may be displayed on the display 20.

操作画面は、図4に示すように画面全体に表示されてもよいし、画面の一部に表示されてもよい。操作画面は、図4に示すように、タッチパッド10で操作可能な2つ以上の選択項目を含んでもよい。操作画面は、他の情報表示部(例えば、TV、オーディオ、外気温、燃費などの走行情報、エンターテイメント情報等を表示する部位)を含んでもよい。尚、図4に示す例では、操作画面は、タッチパッド10でエアコンの各種設定を行うためのものである。   The operation screen may be displayed on the entire screen as shown in FIG. 4 or may be displayed on a part of the screen. As shown in FIG. 4, the operation screen may include two or more selection items that can be operated with the touch pad 10. The operation screen may include another information display unit (for example, a part for displaying travel information such as TV, audio, outside air temperature, fuel consumption, entertainment information, etc.). In the example shown in FIG. 4, the operation screen is for performing various settings of the air conditioner with the touch pad 10.

選択項目は、仮想的(直接手で操作される類の機械式のボタンでないという意味)な操作ボタンを構成する。選択項目(操作ボタン)は、任意の種類(機能)に関するものであってよい。即ち、タッチパッド10で操作可能な内容は、任意であってよい。例えば、選択項目は、ナビゲーション装置の各種設定を行うための画面(操作画面)や地図画面(例えば現在地表示画面)をディスプレイ20上に表示させる(呼び出す)ための選択項目を含んでよい。また、選択項目は、空調装置の各種設定を行うための選択項目や、その画面をディスプレイ20上に表示させるための選択項目を含んでよい。また、選択項目は、オーディオやTVの各種設定(音量調整等)を行うための選択項目や、その画面をディスプレイ20上に表示させるための選択項目を含んでよい。また、選択項目は、任意のアプリケーションを起動するための選択項目(アイコン、ランチャ)であってもよい。また、選択項目は、50音入力画面等のような操作画面における文字入力ボタンであってもよい。また、選択項目は、リスト画面内のスクロールされる各リストを含んでよい。また、選択項目は、各リストをスクロールさせるボタンを含んでよい。   The selection items constitute virtual operation buttons (meaning that the buttons are not mechanical buttons that are directly operated by hand). The selection item (operation button) may relate to an arbitrary type (function). That is, the content that can be operated with the touchpad 10 may be arbitrary. For example, the selection item may include a selection item for displaying (calling) a screen (operation screen) or a map screen (for example, current location display screen) for performing various settings of the navigation device on the display 20. The selection items may include a selection item for performing various settings of the air conditioner and a selection item for displaying the screen on the display 20. The selection items may include a selection item for performing various settings of audio and TV (volume adjustment, etc.) and a selection item for displaying the screen on the display 20. The selection item may be a selection item (icon, launcher) for starting an arbitrary application. Further, the selection item may be a character input button on an operation screen such as a 50 sound input screen. The selection item may include each list scrolled in the list screen. The selection item may include a button for scrolling each list.

選択項目は、後述のディスプレイ制御部30による制御下で、タッチパッド10からの座標信号に基づいて、通常の表示から選択表示へと変更されたり、選択表示から通常の表示へと変更されたりする。図4に示す例では、ディスプレイ20上には、タッチパッド10上の操作で移動させることができるカーソル80が示される。カーソル80は、例えばブロア風量の"LO"を選択している状態であり、従って、選択項目"LO"が選択表示とされている。尚、ここでは、カーソル80とは、選択表示されている選択項目自体を表す。従って、カーソル80の位置は、選択表示されている選択項目の位置に対応する。   The selection item is changed from the normal display to the selection display or from the selection display to the normal display based on the coordinate signal from the touch pad 10 under the control of the display control unit 30 described later. . In the example shown in FIG. 4, a cursor 80 that can be moved by an operation on the touch pad 10 is shown on the display 20. The cursor 80 is in a state where, for example, the blower air volume “LO” is selected, and therefore the selection item “LO” is selected and displayed. Here, the cursor 80 represents the selection item that is selected and displayed. Therefore, the position of the cursor 80 corresponds to the position of the selection item that is selected and displayed.

ディスプレイ制御部30は、例えばマイクロコンピューターにより構成され、ECUとして具現化されてもよい。尚、ディスプレイ制御部30とタッチパッド10との接続態様は、任意であり、有線、無線またはその組み合わせであってもよいし、直接的な接続や間接的な接続であってもよい。また、ディスプレイ制御部30の機能の一部又は全部は、タッチパッド10の制御部16やディスプレイ20内の制御部(図示せず)により実現されてもよいし、逆にタッチパッド10の制御部16の機能の一部又は全部がディスプレイ制御部30により実現されてもよい。   The display control unit 30 is configured by a microcomputer, for example, and may be embodied as an ECU. The connection mode between the display control unit 30 and the touch pad 10 is arbitrary, and may be wired, wireless, or a combination thereof, or may be a direct connection or an indirect connection. In addition, part or all of the functions of the display control unit 30 may be realized by the control unit 16 of the touchpad 10 or a control unit (not shown) in the display 20, or conversely, the control unit of the touchpad 10 Part or all of the 16 functions may be realized by the display control unit 30.

ディスプレイ制御部30には、必要に応じて、車速を表す車速情報や、車両の電源の状態(IG,ACC)に関する電源情報等が入力されてもよい。   If necessary, the display control unit 30 may be input with vehicle speed information indicating the vehicle speed, power supply information regarding the power state (IG, ACC) of the vehicle, and the like.

ディスプレイ制御部30は、基本的な機能として、ディスプレイ20とタッチパッド10とを同期させて、タッチパッド10での操作を補助する。具体的には、ディスプレイ制御部30は、ディスプレイ20において操作画面(図4参照)を表示すると共に、タッチパッド10からの信号(座標信号や決定信号)に基づいて、各種選択項目の選択処理を行う。即ち、ディスプレイ制御部30は、上述の如く、タッチパッド10からの座標信号に基づいて、操作画面のいずれか1つの選択項目を選択表示とする(即ち"選択操作"に応答する)。即ち、カーソル80の位置を決定する。以下、このようにタッチパッド10からの座標信号に基づいてカーソル80の位置を各選択項目間で移動させるモードを、「釦選択モード」という。   The display control unit 30 assists operations on the touch pad 10 by synchronizing the display 20 and the touch pad 10 as a basic function. Specifically, the display control unit 30 displays an operation screen (see FIG. 4) on the display 20 and performs selection processing of various selection items based on signals (coordinate signals and determination signals) from the touch pad 10. Do. That is, as described above, the display control unit 30 selects and displays any one selection item on the operation screen based on the coordinate signal from the touch pad 10 (that is, responds to “selection operation”). That is, the position of the cursor 80 is determined. Hereinafter, the mode in which the position of the cursor 80 is moved between the selection items based on the coordinate signal from the touch pad 10 will be referred to as “button selection mode”.

尚、初期状態では、任意の1つの選択項目がデフォルトで選択表示とされてもよいし、いずれの選択項目も非選択表示とされてもよい。尚、選択表示(即ちカーソル80の態様)は、その選択項目が選択されていることを操作者が分かるような表示であれば任意であり、例えば、選択表示とすべき選択項目の表示の輝度や色などを他の選択項目と異ならすことで実現されてもよいし、選択項目の外枠が強調表示されてもよい。   In the initial state, any one selection item may be selected and displayed by default, or any selection item may be non-selected and displayed. The selection display (that is, the mode of the cursor 80) is arbitrary as long as the operator can recognize that the selection item is selected. For example, the brightness of the display of the selection item to be selected is displayed. It may be realized by making the color or the color different from other selection items, or the outer frame of the selection item may be highlighted.

ディスプレイ制御部30は、釦選択モード中、ディスプレイ20とタッチパッド10との対応関係については相対座標モードで動作してよい。相対座標モードとは、ディスプレイ20の画面の座標系がタッチパッド10の操作面の座標系と相対的に対応する相対的な同期態様で同期するモードを指す。相対座標モードでは、典型的には、現在のカーソル80の位置にディスプレイ20の画面の座標系の原点が位置し、現在の操作面上での指の接触位置にタッチパッド10の操作面の座標系の原点が位置する態様で、ディスプレイ20の画面の座標系がタッチパッド10の操作面の座標系とが対応付けられる。具体的には、相対座標モードでは、図6に概念的に示すように、指が接触している操作面内の座標位置そのものには関係なく、操作面上での指の移動距離{(x2、y2)−(x1、y1)}に応じてカーソル80が移動される。図6に示す例では、操作面上での指の接触位置が右側に距離{(x2、y2)−(x1、y1)}だけ移動し、これに伴い、カーソル80が矢印Y1に示すように右側に移動される。尚、この際、移動後の位置に近い選択項目に対して、引き込み力が作用するような態様で、選択表示とされる選択項目が決定されてもよい。尚、図6に示す例では、図4に示す例とは異なり、ディスプレイ20上には、2列で計8個の選択項目が配列されている。   The display control unit 30 may operate in the relative coordinate mode for the correspondence between the display 20 and the touch pad 10 during the button selection mode. The relative coordinate mode refers to a mode in which the coordinate system of the screen of the display 20 is synchronized in a relative synchronization manner corresponding relatively to the coordinate system of the operation surface of the touch pad 10. In the relative coordinate mode, typically, the origin of the coordinate system of the screen of the display 20 is located at the current cursor 80 position, and the coordinates of the operation surface of the touch pad 10 are at the finger contact position on the current operation surface. The coordinate system of the screen of the display 20 is associated with the coordinate system of the operation surface of the touch pad 10 in such a manner that the origin of the system is located. Specifically, in the relative coordinate mode, as conceptually shown in FIG. 6, the finger movement distance {(x2 , Y2) − (x1, y1)}, the cursor 80 is moved. In the example shown in FIG. 6, the contact position of the finger on the operation surface moves to the right by the distance {(x2, y2) − (x1, y1)}, and accordingly, the cursor 80 is indicated by the arrow Y1. Moved to the right. At this time, the selection item to be selected and displayed may be determined in such a manner that the pulling force acts on the selection item close to the moved position. In the example shown in FIG. 6, unlike the example shown in FIG. 4, a total of eight selection items are arranged in two rows on the display 20.

或いは、ディスプレイ制御部30は、釦選択モード中、ディスプレイ20とタッチパッド10との対応関係については絶対座標モードで動作してよい。絶対座標モードとは、ディスプレイ20の画面の座標系がタッチパッド10の操作面の座標系と絶対的に対応する絶対的な同期態様で同期するモードを指す。絶対座標モードでは、典型的には、ディスプレイ20の画面の座標系の原点が固定位置に位置し、タッチパッド10の操作面の座標系の原点が固定位置に位置する態様で、ディスプレイ20の画面の座標系がタッチパッド10の操作面の座標系とが対応付けられる。図7に示す例では、ディスプレイ20の画面の左下角に原点が固定的に位置するディスプレイ20の画面の座標系と、タッチパッド10の操作面の左下角に原点が固定的に位置するタッチパッド10の操作面の座標系とが対応付けられる。尚、ディスプレイ20の画面のサイズと、タッチパッド10の操作面のサイズとは、一般的に同一でないため、これらのサイズ比に応じて各座標系の対応関係も比例関係となってよい。   Alternatively, the display control unit 30 may operate in the absolute coordinate mode for the correspondence between the display 20 and the touch pad 10 during the button selection mode. The absolute coordinate mode refers to a mode in which the coordinate system of the screen of the display 20 is synchronized in an absolute synchronization manner that absolutely corresponds to the coordinate system of the operation surface of the touch pad 10. In the absolute coordinate mode, typically, the origin of the coordinate system of the screen of the display 20 is located at a fixed position, and the origin of the coordinate system of the operation surface of the touch pad 10 is located at a fixed position. Is associated with the coordinate system of the operation surface of the touchpad 10. In the example shown in FIG. 7, the coordinate system of the screen of the display 20 where the origin is fixedly positioned at the lower left corner of the screen of the display 20 and the touch pad whose origin is fixedly positioned at the lower left corner of the operation surface of the touchpad 10. 10 coordinate systems of operation surfaces are associated with each other. In addition, since the size of the screen of the display 20 and the size of the operation surface of the touch pad 10 are generally not the same, the correspondence between the coordinate systems may be proportional to the size ratio.

ディスプレイ制御部30は、釦選択モード中に、タッチパッド10からの決定信号を受信すると、決定処理を行う。即ち、ディスプレイ制御部30は、釦選択モード中に、タッチパッド10からの決定信号を受信すると、その際に選択表示とされている選択項目の操作内容を実現する(即ち"決定操作"に応答する)。尚、この操作内容は、選択項目に依存するが、下位の選択項目の表示や操作画面の変更等のような画面の遷移や、文字の入力、アプリケーションの起動、操作対象装置(例えば空調装置)への制御信号の送信等を伴うものであってよい。また、決定操作検出時に、"決定操作"が検出されたことをユーザに伝達するために、決定された選択項目の表示を適切に変化させてもよいし、所定の音を発生させてもよい。   When the display control unit 30 receives a determination signal from the touch pad 10 during the button selection mode, the display control unit 30 performs a determination process. That is, when the display control unit 30 receives the determination signal from the touch pad 10 during the button selection mode, the display control unit 30 realizes the operation content of the selection item selected and displayed at that time (that is, responds to the “determination operation”). To do). This operation content depends on the selected item, but screen transition such as display of a lower selection item or change of the operation screen, character input, application activation, operation target device (for example, air conditioner) It may be accompanied by transmission of a control signal to. Further, when the determination operation is detected, in order to notify the user that the “decision operation” has been detected, the display of the determined selection item may be appropriately changed, or a predetermined sound may be generated. .

本実施例のタッチパッド10によれば、操作者は、ディスプレイ20を見ながら、座標検出部12の操作面に操作指(例えば人差し指)で触れながら操作面内で操作指を動かすことで選択操作を行い、所望の選択項目を選択することができる。そして、所望の選択項目が選択表示となったときに、その場所で操作指により座標検出部12を押下することで、決定操作を行うことができる。即ち、所望の選択がなされた接触位置で座標検出部12を押下することで、決定操作を行うことができる。   According to the touchpad 10 of the present embodiment, the operator performs a selection operation by moving the operation finger within the operation surface while touching the operation surface of the coordinate detection unit 12 with the operation finger (for example, the index finger) while looking at the display 20. And a desired selection item can be selected. Then, when a desired selection item is selected and displayed, the determination operation can be performed by pressing the coordinate detection unit 12 with the operation finger at that place. In other words, the determination operation can be performed by pressing the coordinate detection unit 12 at the contact position where the desired selection has been made.

次に、タッチパッド10の制御部16及びディスプレイ制御部30により実現される特徴的な処理について説明する。   Next, characteristic processes realized by the control unit 16 and the display control unit 30 of the touchpad 10 will be described.

図8は、ディスプレイ20上に表示される手書き入力画面の一例を示す図である。ディスプレイ制御部30は、手書きモードが開始されると、図8に示すような手書き入力画面をディスプレイ20上に表示する。尚、手書きモードの開始は、上述したような手書きモードに対応する選択項目上にカーソル80を移動(選択操作)し、その位置で決定操作を行うことで実現されてよい。尚、手書きモードに対応する選択項目は、典型的には、文字入力画面内に配置される。文字入力画面は、任意であり、例えば図8に示すような検索文字入力画面やメール入力画面等、多様である。   FIG. 8 is a diagram illustrating an example of a handwriting input screen displayed on the display 20. When the handwriting mode is started, the display control unit 30 displays a handwriting input screen as shown in FIG. The start of the handwriting mode may be realized by moving (selecting operation) the cursor 80 on the selection item corresponding to the handwriting mode as described above, and performing the determination operation at that position. Note that the selection items corresponding to the handwriting mode are typically arranged in the character input screen. The character input screen is arbitrary, and is various, such as a search character input screen and a mail input screen as shown in FIG.

手書き入力画面は、手書き文字を表示する手書き文字表示部90と、手書き文字表示部90の手書き文字に対応する候補文字を表示する候補文字表示部92とを含む。また、手書き入力画面は、図8に示すように、次候補に係る候補文字を表示する次候補文字表示部94を含んでもよい。   The handwriting input screen includes a handwritten character display unit 90 that displays handwritten characters, and a candidate character display unit 92 that displays candidate characters corresponding to the handwritten characters of the handwritten character display unit 90. Moreover, the handwriting input screen may include a next candidate character display unit 94 that displays candidate characters related to the next candidate, as shown in FIG.

ディスプレイ制御部30は、タッチパッド10から送信される座標信号(その変化軌跡)に基づいて、手書き文字をリアルタイムに描画する。図8に示す例では、草冠の途中までの手書き文字の入力に応じて、ディスプレイ制御部30は、手書き文字表示部90に草冠の途中までを描画している。以下では、タッチパッド10から送信される座標信号に基づいて手書き文字を描画するモードを、「手書き入力モード」という。   The display control unit 30 draws handwritten characters in real time based on the coordinate signal (its change locus) transmitted from the touch pad 10. In the example illustrated in FIG. 8, the display control unit 30 draws up to the middle of the canopy on the handwritten character display unit 90 in accordance with the input of the handwritten character up to the middle of the canopy. Hereinafter, the mode in which handwritten characters are drawn based on the coordinate signal transmitted from the touchpad 10 is referred to as “handwriting input mode”.

ディスプレイ制御部30は、手書き入力モード中、ディスプレイ20とタッチパッド10との対応関係については絶対座標モードで動作する。但し、この場合、図9にて点線Qで模式的に示すように、ディスプレイ20の画面中の手書き文字表示部90の座標系がタッチパッド10の操作面の座標系と絶対的に対応する絶対的な同期態様であってよい。尚、手書き文字表示部90のサイズと、タッチパッド10の操作面のサイズとは、一般的に同一でないため、これらのサイズ比に応じて各座標系の対応関係も比例関係となってよい。   The display control unit 30 operates in the absolute coordinate mode for the correspondence between the display 20 and the touch pad 10 during the handwriting input mode. However, in this case, as schematically shown by the dotted line Q in FIG. 9, the absolute coordinate system of the handwritten character display unit 90 in the screen of the display 20 absolutely corresponds to the coordinate system of the operation surface of the touchpad 10. It may be a common synchronization mode. In addition, since the size of the handwritten character display unit 90 and the size of the operation surface of the touch pad 10 are generally not the same, the correspondence between the coordinate systems may be proportional to the size ratio.

ディスプレイ制御部30は、手書き入力モード中、入力された手書き文字(途中までの文字を含む)に応じて、候補文字をリアルタイムに探索し、探索した候補文字を候補文字表示部92にリアルタイムに表示する。候補文字は、タッチパッド10から随時送信される座標信号に応じて(それに伴い更新される手書き文字に応じて)、リアルタイムに変化(更新)されてもよい。候補文字表示部92における候補文字は、選択項目(ボタン)として表示される。従って、ユーザは、カーソル80を移動させることで、所望の候補文字を選択することができる。また、ユーザは、所望の候補文字上にカーソル80が位置するときに、決定操作を行うと、カーソル80が位置する候補文字を入力することができる。例えば、図8に示す例では、選択項目70a上にカーソル80が位置しており、この状態で決定信号を受信すると、ディスプレイ制御部30は、選択項目70aに係る候補文字を、入力文字表示部96に表示する(即ち当該候補文字が入力されることになる)。   In the handwriting input mode, the display control unit 30 searches for candidate characters in real time according to the input handwritten characters (including characters up to halfway), and displays the searched candidate characters on the candidate character display unit 92 in real time. To do. The candidate character may be changed (updated) in real time according to a coordinate signal transmitted from the touch pad 10 as needed (according to a handwritten character updated accordingly). Candidate characters in the candidate character display section 92 are displayed as selection items (buttons). Therefore, the user can select a desired candidate character by moving the cursor 80. In addition, when the user performs a determination operation when the cursor 80 is positioned on a desired candidate character, the user can input the candidate character on which the cursor 80 is positioned. For example, in the example shown in FIG. 8, when the cursor 80 is positioned on the selection item 70a and a determination signal is received in this state, the display control unit 30 displays the candidate character related to the selection item 70a as the input character display unit. 96 (that is, the candidate character is input).

図10は、タッチパッド10の制御部16により実現される処理の一例を示すフローチャートである。図10に示す処理ルーチンは、手書きモードが開始された場合に起動され、その後、手書きモードが終了するまで所定の処理周期毎に繰り返し実行されるものであってよい。   FIG. 10 is a flowchart illustrating an example of processing realized by the control unit 16 of the touch pad 10. The processing routine shown in FIG. 10 may be started when the handwriting mode is started, and then repeatedly executed at predetermined processing cycles until the handwriting mode is ended.

ステップ800では、ディスプレイ制御部30から手書き入力画面情報を受信する。手書き入力画面情報は、図8に示すような手書き入力画面に関する情報であり、例えば手書き文字表示部90の位置等を含んでよい。尚、制御部16は、ディスプレイ制御部30から手書き入力画面情報を受信することで、手書きモードが選択・決定されたと判断してもよい。この場合、制御部16は、ディスプレイ制御部30から手書き入力画面情報を受信すると、図9のステップ801からの処理を開始すればよい。   In step 800, handwriting input screen information is received from the display control unit 30. The handwriting input screen information is information related to the handwriting input screen as shown in FIG. 8, and may include, for example, the position of the handwritten character display unit 90. Note that the control unit 16 may determine that the handwriting mode has been selected and determined by receiving the handwriting input screen information from the display control unit 30. In this case, the control part 16 should just start the process from step 801 of FIG. 9, if handwritten input screen information is received from the display control part 30. FIG.

ステップ801では、座標検出部12の静電センサからの出力に基づいて、タッチ操作面に対する指の接触があったか否かを判定する。タッチ操作面に対する指の接触の判定方法は上述した通りであってよい。タッチ操作面に対する指の接触があったと判定した場合は、ステップ802に進み、それ以外の場合、ステップ812に進む。   In step 801, it is determined based on the output from the electrostatic sensor of the coordinate detection unit 12 whether or not a finger touches the touch operation surface. The method for determining contact of the finger with the touch operation surface may be as described above. If it is determined that a finger touches the touch operation surface, the process proceeds to step 802. Otherwise, the process proceeds to step 812.

ステップ802では、タッチ操作面に対する2本の指の接触(マルチタッチ)があったか否かを判定する。2本の指の接触があったか否かは、座標検出部12の静電センサからの出力に基づいて、任意の方法で判定されてもよい。例えば、静電センサの出力信号のレベルが最大(極大)となる位置が2箇所ある場合(検出閾値を越える極大値が2箇所ある場合)、2本の指の接触があったと判定してもよい。この際、2箇所の極大値を取る座標位置間の距離が考慮されてもよい。これは、2本の指でタッチ操作面をなぞるときは、2本の指間の距離は非常に小さくなるためである。また、2箇所の極大値を取る座標位置間の距離が操作中に略一定に保たれることが条件とされてもよい。これは、検出対象となる2本指によるなぞり操作は、ピンチ操作と異なり、2本指を開いたり閉じたりすする動きが無いためである。タッチ操作面に対する2本の指の接触があったと判定した場合は、ステップ808に進み、タッチ操作面に対する1本の指の接触があったと判定した場合、ステップ804に進む。   In step 802, it is determined whether or not there is a touch (multi-touch) of two fingers on the touch operation surface. Whether or not there is a contact between two fingers may be determined by an arbitrary method based on an output from the electrostatic sensor of the coordinate detection unit 12. For example, when there are two positions where the level of the output signal of the electrostatic sensor is maximum (maximum) (when there are two maximum values exceeding the detection threshold), even if it is determined that two fingers are touched Good. At this time, the distance between the coordinate positions having the two maximum values may be considered. This is because when the touch operation surface is traced with two fingers, the distance between the two fingers becomes very small. Further, it may be a condition that the distance between the coordinate positions having the two maximum values is kept substantially constant during the operation. This is because the tracing operation with the two fingers to be detected does not move to open or close the two fingers unlike the pinch operation. If it is determined that two fingers touch the touch operation surface, the process proceeds to step 808. If it is determined that one finger touches the touch operation surface, the process proceeds to step 804.

ステップ804では、マルチタッチフラグを「0」にセットする。マルチタッチフラグは、2本の指の接触があった場合に、「1」にセットされるフラグであり、初期値は「0」であってもよい。   In step 804, the multi-touch flag is set to “0”. The multi-touch flag is a flag that is set to “1” when two fingers are touched, and the initial value may be “0”.

ステップ806では、今回の指の接触に伴って生成される座標信号をディスプレイ制御部30に送信する。この際、座標信号は、相対座標系に変換してからディスプレイ制御部30に送信されてもよい。この場合、相対座標系への変換は、例えば前回の処理周期で検出した座標位置に対する移動ベクトルを算出し、算出した移動ベクトルを座標信号として送信してもよい。   In step 806, a coordinate signal generated with the current finger contact is transmitted to the display control unit 30. At this time, the coordinate signal may be transmitted to the display control unit 30 after being converted into a relative coordinate system. In this case, for conversion to the relative coordinate system, for example, a movement vector with respect to the coordinate position detected in the previous processing cycle may be calculated, and the calculated movement vector may be transmitted as a coordinate signal.

ステップ808では、マルチタッチフラグを「1」にセットする。   In step 808, the multi-touch flag is set to “1”.

ステップ810では、今回の2本の指の接触に伴って生成される座標信号をディスプレイ制御部30に送信する。この際、ディスプレイ制御部30に送信される座標信号は、2本の指のうちの静電センサの出力の大きい方の指に係る座標信号であってもよいし、2本の指の平均座標を表す座標信号であってもよい。いずれの場合も、座標信号は、絶対座標系に変換してからディスプレイ制御部30に送信されてもよい。この場合、絶対座標系への変換は、上記ステップ800で受信した手書き入力画面情報に基づいて実行されてもよい。或いは、手書き文字表示部90のサイズ等が固定の場合は、絶対座標系への変換は、所与の変換式に基づいて実現されてもよい。   In step 810, a coordinate signal generated in accordance with the current contact of two fingers is transmitted to the display control unit 30. At this time, the coordinate signal transmitted to the display control unit 30 may be a coordinate signal related to the finger with the larger output of the electrostatic sensor of the two fingers, or the average coordinates of the two fingers. May be a coordinate signal. In any case, the coordinate signal may be transmitted to the display control unit 30 after being converted into the absolute coordinate system. In this case, the conversion to the absolute coordinate system may be executed based on the handwritten input screen information received in step 800 above. Alternatively, when the size or the like of the handwritten character display unit 90 is fixed, the conversion to the absolute coordinate system may be realized based on a given conversion formula.

ステップ812では、手書きモードが終了したか否かを判定する。手書きモードが終了したか否かは、ディスプレイ制御部30からの手書きモード終了信号(図11のステップ914参照)の受信の有無に基づいて判断されてもよい。手書きモードが終了した場合は、そのまま終了し、手書きモードが終了していない場合は、次の処理周期でステップ801から開始する。   In step 812, it is determined whether the handwriting mode has ended. Whether or not the handwriting mode has ended may be determined based on whether or not a handwriting mode end signal (see step 914 in FIG. 11) is received from the display control unit 30. When the handwriting mode is finished, the processing is finished as it is. When the handwriting mode is not finished, the processing starts from step 801 in the next processing cycle.

図11は、ディスプレイ制御部30により実現される処理の一例を示すフローチャートである。図11に示す処理ルーチンは、手書きモードが開始された場合に起動され、その後、手書きモードが終了するまで所定の処理周期毎に繰り返し実行されるものであってよい。図11に示す処理ルーチンは、図10に示した上述の制御部16による処理ルーチンと並列的に実行されてよい。   FIG. 11 is a flowchart illustrating an example of processing realized by the display control unit 30. The processing routine shown in FIG. 11 may be started when the handwriting mode is started, and then repeatedly executed at predetermined processing cycles until the handwriting mode ends. The processing routine shown in FIG. 11 may be executed in parallel with the processing routine performed by the control unit 16 shown in FIG.

ステップ900では、手書き入力画面情報をタッチパッド10に送信する。尚、手書き入力画面情報がタッチパッド10側で使用されない構成の場合は、手書き入力画面情報に代えて、手書きモードが選択・決定された旨を表す信号をタッチパッド10に送信することとしてもよい。   In step 900, the handwriting input screen information is transmitted to the touch pad 10. If the handwriting input screen information is not used on the touch pad 10 side, a signal indicating that the handwriting mode is selected / determined may be transmitted to the touch pad 10 instead of the handwriting input screen information. .

ステップ901では、座標信号をタッチパッド10から受信したか否かを判定する。座標信号をタッチパッド10から受信した場合は、ステップ902に進み、座標信号をタッチパッド10から受信していない場合は、ステップ901に戻り、座標信号の受信待ち状態となる。   In step 901, it is determined whether a coordinate signal is received from the touch pad 10. If the coordinate signal is received from the touch pad 10, the process proceeds to step 902. If the coordinate signal is not received from the touch pad 10, the process returns to step 901 to enter the coordinate signal reception waiting state.

ステップ902では、マルチタッチフラグが「0」であるか否かを判定する。マルチタッチフラグは、図10を参照して上述したように、2本の指の接触があった場合に、「1」にセットされるフラグである。マルチタッチフラグが「0」である場合は、ステップ904に進み、マルチタッチフラグが「0」でない場合(即ち、「1」である場合)、ステップ908に進む。   In step 902, it is determined whether or not the multi-touch flag is “0”. As described above with reference to FIG. 10, the multi-touch flag is a flag that is set to “1” when two fingers are touched. If the multi-touch flag is “0”, the process proceeds to step 904, and if the multi-touch flag is not “0” (that is, “1”), the process proceeds to step 908.

ステップ904では、釦選択モードとなる(又は釦選択モードを維持する)。   In step 904, the button selection mode is entered (or the button selection mode is maintained).

ステップ906では、釦選択モード時の動作に従い、タッチパッド10から受信した座標信号に基づいて、カーソル80を描画(又は移動)する(上述の選択処理が実行される)。例えば、カーソル80が表示されていない状態(例えば、手書きモード開始直後の状態)では、候補文字表示部92における所定の候補文字に対応する選択項目(例えば、一番目の選択項目)にカーソル80を描画してもよい。また、既にカーソル80が表示されている状態では、受信した座標信号に応じて、カーソル80を選択項目間で移動させてもよい。このように、タッチパッド10に対する1本指のなぞり操作(タッチ操作面に指を接触させた状態で当該指を動かす操作)は、カーソル80の生成操作又は移動操作となる。尚、釦選択モード時の動作の詳細については上述の通りであってよい。尚、座標信号と共に決定信号を受信した場合は、現在のカーソル80の位置に応じた決定処理を行う。例えば、手書きモードを終了させる操作項目上にカーソル80が位置する状態で決定信号を受信した場合は、手書きモードを終了し、例えば通常入力モード(例えば、かな入力モード)に切り替わってよい。   In step 906, the cursor 80 is drawn (or moved) based on the coordinate signal received from the touch pad 10 in accordance with the operation in the button selection mode (the above selection process is executed). For example, in a state where the cursor 80 is not displayed (for example, a state immediately after the start of the handwriting mode), the cursor 80 is moved to a selection item (for example, the first selection item) corresponding to a predetermined candidate character in the candidate character display unit 92. You may draw. Further, in a state where the cursor 80 is already displayed, the cursor 80 may be moved between selection items according to the received coordinate signal. As described above, the one-finger tracing operation on the touch pad 10 (an operation of moving the finger while the finger is in contact with the touch operation surface) is a generation operation or a movement operation of the cursor 80. The details of the operation in the button selection mode may be as described above. When the determination signal is received together with the coordinate signal, a determination process corresponding to the current position of the cursor 80 is performed. For example, when the determination signal is received in a state where the cursor 80 is positioned on the operation item for ending the handwriting mode, the handwriting mode may be ended and, for example, the normal input mode (for example, kana input mode) may be switched.

ステップ908では、手書き入力モードとなる(又は手書き入力モードを維持する)。   In step 908, the handwriting input mode is entered (or the handwriting input mode is maintained).

ステップ910では、手書き入力モード時の動作に従い、タッチパッド10から受信した座標信号に基づいて、手書き文字を手書き文字表示部90に描画する。従って、タッチパッド10に対する2本指のなぞり操作は、手書き文字の入力操作となる。尚、手書き入力モード時の動作の詳細については上述の通りであってよい。   In step 910, the handwritten character is drawn on the handwritten character display unit 90 based on the coordinate signal received from the touchpad 10 in accordance with the operation in the handwriting input mode. Therefore, the two-finger tracing operation on the touch pad 10 is an input operation of handwritten characters. The details of the operation in the handwriting input mode may be as described above.

ステップ912では、手書きモードが終了したか否かを判定する。手書きモードが終了した場合は、ステップ914に進み、手書きモードが継続している場合は、次の処理周期でステップ901から開始する。尚、なぞり操作の場合は、その間、座標信号を受信し続けることになるので、ステップ901では常に肯定判定となり、ステップ906又はステップ910の処理が実行されることになる。   In step 912, it is determined whether or not the handwriting mode has ended. When the handwriting mode is completed, the process proceeds to step 914, and when the handwriting mode is continued, the process starts from step 901 with the next processing cycle. In the case of the tracing operation, since the coordinate signal is continuously received during that time, the determination at step 901 is always affirmative, and the processing at step 906 or 910 is executed.

ステップ914では、手書きモードが終了したことを表す手書きモード終了信号をタッチパッド10の制御部16に送信する。尚、手書きモードのオン/オフ状態は、フラグを用いて表されてもよい。   In step 914, a handwriting mode end signal indicating that the handwriting mode has ended is transmitted to the control unit 16 of the touchpad 10. Note that the on / off state of the handwriting mode may be represented using a flag.

図12(A)は、タッチパッド10に対する2本指のなぞり操作時におけるディスプレイ20上の手書き入力画面とタッチパッド10のタッチ操作面との関係を概略的に示す図であり、図12(B)は、タッチパッド10に対する1本指の操作時におけるディスプレイ20上の手書き入力画面とタッチパッド10のタッチ操作面との関係を概略的に示す図である。   FIG. 12 (A) is a diagram schematically showing the relationship between the handwriting input screen on the display 20 and the touch operation surface of the touch pad 10 during a two-finger tracing operation on the touch pad 10. ) Is a diagram schematically showing the relationship between the handwriting input screen on the display 20 and the touch operation surface of the touch pad 10 when a single finger is operated on the touch pad 10.

図12(A)は、2本の指のなぞり操作が行われている状態を示す。この場合、上述の如く、手書き文字の入力操作となる。また、ディスプレイ20上の手書き入力画面中の手書き文字表示部90がタッチパッド10のタッチ操作面に対応することになる。尚、図12(A)に示す例では、草冠の途中まで手書き文字の入力操作が行われている状態が示されている。   FIG. 12A shows a state where a two-finger tracing operation is being performed. In this case, as described above, the input operation is a handwritten character. In addition, the handwritten character display unit 90 in the handwriting input screen on the display 20 corresponds to the touch operation surface of the touchpad 10. In the example shown in FIG. 12A, a state in which a handwritten character input operation is performed halfway through the crown is shown.

図12(B)は、図12(A)に示した2本の指のなぞり操作後に、1本指でタッチ操作面を触れた状態を表す。この場合、候補文字表示部92における所定の候補文字に対応する選択項目70aにカーソル80が表示される。尚、その後、ユーザが1本指で右方向になぞり操作又は手を離してから右側のタッチ操作を行うと、カーソル80が右方向の選択項目70b上に移動してよい。   FIG. 12B illustrates a state in which the touch operation surface is touched with one finger after the two finger tracing operation illustrated in FIG. In this case, the cursor 80 is displayed on the selection item 70a corresponding to the predetermined candidate character in the candidate character display unit 92. After that, when the user performs a right drag operation with one finger or releases the hand, the cursor 80 may move onto the right selection item 70b.

以上説明した本実施例の車両用操作装置1によれば、とりわけ、以下のような優れた効果が奏される。   According to the vehicle operating device 1 of the present embodiment described above, the following excellent effects are achieved, among others.

本実施例によれば、上述の如く、タッチパッド10に対する1本指のなぞり操作は、カーソル80の移動操作となり、タッチパッド10に対する2本指のなぞり操作は、手書き文字の入力操作となる。このように、同じなぞり操作であるにも拘らず、異なる機能を実現することができる。これにより、例えば、手書き文字入力の開始及び終了を指示するための操作が不要となり、操作性が向上する。また、手書き文字入力の開始及び終了を指示するための操作項目を操作画面内に設定することも不要となるので、操作画面の省スペース化を図ることができる。但し、1本指のなぞり操作で手書き文字の入力操作を行いたいユーザが存在しうることを考慮して、手書き文字入力の開始及び終了を指示するための操作項目を操作画面内に設定することも可能である。この場合、手書き文字入力の開始が指示されると、その後のタッチパッド10に対する1本指のなぞり操作は、手書き文字の入力操作となり、手書き文字入力の終了が指示されると、その後のタッチパッド10に対する1本指のなぞり操作は、カーソル80の移動操作となってよい。   According to the present embodiment, as described above, the one-finger tracing operation on the touch pad 10 is a movement operation of the cursor 80, and the two-finger tracing operation on the touch pad 10 is a hand-written character input operation. In this way, different functions can be realized in spite of the same tracing operation. Thereby, for example, the operation for instructing the start and end of handwritten character input becomes unnecessary, and the operability is improved. In addition, since it is not necessary to set operation items for instructing start and end of handwritten character input in the operation screen, space saving of the operation screen can be achieved. However, considering that there may be a user who wants to input handwritten characters by tracing with one finger, operation items for instructing start and end of handwritten character input should be set in the operation screen. Is also possible. In this case, when the start of handwritten character input is instructed, the subsequent one-finger tracing operation on the touchpad 10 becomes the input operation of the handwritten character, and when the end of the handwritten character input is instructed, the subsequent touchpad The one-finger tracing operation with respect to 10 may be a movement operation of the cursor 80.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述した実施例では、タッチパッド10に対する1本指のなぞり操作を検出した場合に、カーソル80の移動処理(選択処理)を実行し、タッチパッド10に対する2本指のなぞり操作を検出した場合に、手書き文字の入力処理を実行することで、文字(記号等を含む)入力モードを可変しているが、この可変態様は、任意である。即ち、文字入力モードは、タッチパッド10に対するなぞり操作時の指の本数に応じて、他の態様で変化されてもよい。例えば、タッチパッド10に対する1本指のなぞり操作は、キーボード表示(キーボード入力モード)を呼び出す操作とされ、タッチパッド10に対する2本指のなぞり操作は、テンキー表示(テンキー入力モード)を呼び出す操作とされてもよい。キーボード表示が呼び出されると、ユーザは、そのキーボード配列の所望のキーをタッチすることで(例えば一本指でタッチすることで)、文字入力を行うことができる。また、テンキー表示が呼び出されると、ユーザは、そのテンキー配列の所望のキーをタッチすることで(例えば一本指でタッチすることで)、文字入力を行うことができる。   For example, in the above-described embodiment, when a one-finger tracing operation on the touch pad 10 is detected, a movement process (selection process) of the cursor 80 is executed, and a two-finger tracing operation on the touch pad 10 is detected. In this case, the character (including symbols) input mode is changed by executing the input process of handwritten characters, but this variable mode is arbitrary. That is, the character input mode may be changed in other manners depending on the number of fingers during the tracing operation on the touch pad 10. For example, a single finger tracing operation on the touch pad 10 is an operation for calling a keyboard display (keyboard input mode), and a two finger tracing operation on the touch pad 10 is an operation for calling a numeric keypad display (ten key input mode). May be. When the keyboard display is called, the user can input characters by touching a desired key of the keyboard layout (for example, by touching with one finger). When the numeric keypad display is called, the user can input characters by touching a desired key in the numeric keypad arrangement (for example, by touching with one finger).

また、上述した実施例では、タッチパッド10に対する1本指のなぞり操作は、カーソル80の移動操作となり、タッチパッド10に対する2本指のなぞり操作は、手書き文字の入力操作となるが、逆であってもよい。即ち、タッチパッド10に対する1本指のなぞり操作は、手書き文字の入力操作となり、タッチパッド10に対する2本指の操作(なぞり操作を含む)は、カーソル80の移動操作となってもよい。また、いずれにするかを初期設定によりユーザが選択可能としてもよい。   In the above-described embodiment, the one-finger tracing operation on the touch pad 10 is a movement operation of the cursor 80, and the two-finger tracing operation on the touch pad 10 is a hand-written character input operation. There may be. That is, a single finger tracing operation on the touch pad 10 may be a handwritten character input operation, and a two finger operation (including a tracing operation) on the touch pad 10 may be a movement operation of the cursor 80. In addition, the user may be able to select which one to use by initial setting.

また、上述した実施例では、タッチパッド10に対する1本指のなぞり操作は、カーソル80の移動操作となるが、タッチパッド10に対する1本指の接触だけでも、カーソル80の移動操作となりうる。例えば、図12(B)に示す状態から、ユーザが指を離し、その後、タッチパッド10のタッチ操作面の異なる位置を触れると、その位置に応じてカーソル80が移動する。このように、カーソル80の移動操作は、1本指のなぞり操作だけではなく、1本指により単なる接触操作(ポイント指示操作)によっても実現されうる。   Further, in the above-described embodiment, the single finger tracing operation on the touch pad 10 is a movement operation of the cursor 80, but a single finger contact with the touch pad 10 can be a movement operation of the cursor 80. For example, when the user releases his / her finger from the state shown in FIG. 12B and then touches a different position on the touch operation surface of the touch pad 10, the cursor 80 moves according to the position. As described above, the movement operation of the cursor 80 can be realized not only by a single finger tracing operation but also by a simple contact operation (point instruction operation) with one finger.

また、上述した実施例において、3本以上の指の接触があったと判定した場合は、2本指と同様に扱ってもよい。即ち、タッチパッド10に対する3本以上の指のなぞり操作は、手書き文字の入力操作となることとしてもよい。或いは、3本以上の指の接触があったと判定した場合は、カーソル80の移動操作となることとしてもよい。いずれの場合も、座標信号は、3本以上の指のうちの静電センサの出力の大きい方の指に係る座標信号であってもよいし、3本以上の指の平均座標を表す座標信号であってもよい。   Further, in the above-described embodiment, when it is determined that three or more fingers are touched, they may be handled in the same manner as two fingers. That is, the operation of tracing three or more fingers on the touch pad 10 may be an operation for inputting handwritten characters. Alternatively, when it is determined that three or more fingers are touched, the cursor 80 may be moved. In any case, the coordinate signal may be a coordinate signal related to the finger with the larger output of the electrostatic sensor among the three or more fingers, or a coordinate signal representing the average coordinates of the three or more fingers. It may be.

また、上述した実施例では、タッチパッド10におけるタッチ操作の検出機構は静電センサを用いているが、他の原理(センサ)でタッチ操作を検出してもよい。例えば、タッチパッド10は、微感圧式のタッチパネルにより構成されてもよい。   In the above-described embodiment, the touch operation detection mechanism in the touch pad 10 uses an electrostatic sensor, but the touch operation may be detected by another principle (sensor). For example, the touch pad 10 may be configured by a fine pressure-sensitive touch panel.

また、上述した実施例では、カーソル80の位置は絶対座標モード又は相対座標モードのいずれかで決定されるが、絶対座標モードと相対座標モードとが適宜切換られてもよい。例えば、ディスプレイ20の操作画面上の選択項目のいずれかが選択されている(即ち選択状態にある)場合に、相対座標モードとされ、ディスプレイ20の操作画面上の選択項目のいずれも選択されていない場合(即ちカーソル80が表示されていない場合)は、絶対座標モードとされてもよい。   In the above-described embodiment, the position of the cursor 80 is determined in either the absolute coordinate mode or the relative coordinate mode, but the absolute coordinate mode and the relative coordinate mode may be switched as appropriate. For example, when any of the selection items on the operation screen of the display 20 is selected (that is, in the selected state), the relative coordinate mode is set, and any of the selection items on the operation screen of the display 20 is selected. When there is no (that is, when the cursor 80 is not displayed), the absolute coordinate mode may be set.

また、上述した実施例では、カーソル80が、タッチパッド10のタッチ操作面におけるユーザの指の接触位置とディスプレイ20の操作画面上の位置との関係を示す構成であるが、通常のPC(Personal Computer)等で使用されるポインタが使用されてもよい。ポインタが用いられる場合も、カーソル80(選択表示)は維持されてもよい。   In the above-described embodiment, the cursor 80 is configured to indicate the relationship between the contact position of the user's finger on the touch operation surface of the touch pad 10 and the position on the operation screen of the display 20, but a normal PC (Personal) A pointer used in (Computer) or the like may be used. Even when a pointer is used, the cursor 80 (selection display) may be maintained.

また、上述した実施例では、タッチパッド10の操作面を押下げて決定操作を行うが、ノート型PCなどで使用される一般的な静電容量式タッチパッドのように、決定操作は、タッチパッド10とは別に設けられる押圧スイッチ(メカニカルスイッチ)により実現されてもよい。   In the above-described embodiment, the determination operation is performed by pressing down the operation surface of the touch pad 10, but the determination operation is performed by touching a general capacitive touch pad used in a notebook PC or the like. It may be realized by a press switch (mechanical switch) provided separately from the pad 10.

また、上述した実施例は、車両用操作装置1に関するものであるが、車両用以外の多種多様な操作装置(例えば、船舶用の操作装置や、機械(ロボット等)用の操作装置等)にも適用可能である。   Moreover, although the Example mentioned above is related with the operating device 1 for vehicles, it is applied to various operating devices other than those for vehicles (for example, operating devices for ships, operating devices for machines (robots, etc.)). Is also applicable.

1 車両用操作装置
10 タッチパッド
12 座標検出部
14 押下圧力検出部
16 制御部
18 メモリ
20 ディスプレイ
30 ディスプレイ制御部
40 コントローラ
54 弾性部
60 基板
80 カーソル
90 手書き文字表示部
92 候補文字表示部
94 入力文字表示部
DESCRIPTION OF SYMBOLS 1 Vehicle operation apparatus 10 Touchpad 12 Coordinate detection part 14 Pressing pressure detection part 16 Control part 18 Memory 20 Display 30 Display control part 40 Controller 54 Elastic part 60 Board | substrate 80 Cursor 90 Handwritten character display part 92 Candidate character display part 94 Input character Display section

Claims (4)

タッチパッドと、
前記タッチパッドに対するなぞり操作の指の本数を検出し、なぞり操作の指の本数に応じて文字入力モードを変化させる処理装置とを備えることを特徴とする、操作装置。
Touchpad,
An operation device, comprising: a processing device that detects the number of fingers for a tracing operation on the touch pad and changes a character input mode according to the number of fingers for a tracing operation.
前記処理装置は、タッチパッドにおける1本の指によるなぞり操作を検出した場合に、所定の第1処理を実行し、前記タッチパッドにおける2本以上の指によるなぞり操作を検出した場合に、前記第1処理とは異なる所定の第2処理を実行し、
前記第2処理は、表示装置の手書き入力画面内に手書き文字を描画する処理を含む、請求項1に記載の操作装置。
The processing device executes a predetermined first process when detecting a tracing operation with one finger on the touch pad, and detects the tracing operation when detecting a tracing operation with two or more fingers on the touch pad. A predetermined second process different from the one process is executed,
The operation device according to claim 1, wherein the second process includes a process of drawing a handwritten character in a handwriting input screen of a display device.
前記処理装置は、タッチパッドにおける1本の指によるなぞり操作を検出した場合に、所定の第1処理を実行し、前記タッチパッドにおける2本以上の指によるなぞり操作を検出した場合に、前記第1処理とは異なる所定の第2処理を実行し、
前記第1処理は、表示装置の手書き入力画面内のカーソル又はポインタを移動する処理を含み、
前記第2処理は、前記表示装置の手書き入力画面内に手書き文字を描画する処理を含む、請求項1に記載の操作装置。
The processing device executes a predetermined first process when detecting a tracing operation with one finger on the touch pad, and detects the tracing operation when detecting a tracing operation with two or more fingers on the touch pad. A predetermined second process different from the one process is executed,
The first process includes a process of moving a cursor or pointer in a handwriting input screen of a display device,
The operation device according to claim 1, wherein the second process includes a process of drawing a handwritten character in a handwriting input screen of the display device.
前記処理装置は、タッチパッドにおける1本の指によるなぞり操作を検出した場合に、所定の第1処理を実行し、前記タッチパッドにおける2本以上の指によるなぞり操作を検出した場合に、前記第1処理とは異なる所定の第2処理を実行し、
前記第1処理は、表示装置の手書き入力画面内に手書き文字を描画する処理を含み、
前記第2処理は、前記表示装置の手書き入力画面内のカーソル又はポインタを移動する処理を含む、請求項1に記載の操作装置。
The processing device executes a predetermined first process when detecting a tracing operation with one finger on the touch pad, and detects the tracing operation when detecting a tracing operation with two or more fingers on the touch pad. A predetermined second process different from the one process is executed,
The first process includes a process of drawing a handwritten character in a handwriting input screen of a display device;
The operation device according to claim 1, wherein the second process includes a process of moving a cursor or a pointer in a handwriting input screen of the display device.
JP2013085170A 2013-04-15 2013-04-15 Operating device Active JP6127679B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013085170A JP6127679B2 (en) 2013-04-15 2013-04-15 Operating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013085170A JP6127679B2 (en) 2013-04-15 2013-04-15 Operating device

Publications (2)

Publication Number Publication Date
JP2014206924A true JP2014206924A (en) 2014-10-30
JP6127679B2 JP6127679B2 (en) 2017-05-17

Family

ID=52120412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013085170A Active JP6127679B2 (en) 2013-04-15 2013-04-15 Operating device

Country Status (1)

Country Link
JP (1) JP6127679B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018193857A1 (en) * 2017-04-17 2018-10-25 株式会社東海理化電機製作所 Operation input device
JP2018181827A (en) * 2017-04-17 2018-11-15 株式会社東海理化電機製作所 Operation input device
WO2019073812A1 (en) * 2017-10-13 2019-04-18 アルプスアルパイン株式会社 Input device
KR20190078708A (en) * 2017-12-15 2019-07-05 현대자동차주식회사 Vehicle, and control method for the same
JP2020140228A (en) * 2019-02-26 2020-09-03 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus and input control method and program thereof
WO2022097553A1 (en) * 2020-11-05 2022-05-12 株式会社東海理化電機製作所 Operation device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222130A (en) * 1999-02-02 2000-08-11 Toshiba Corp Input device and method and storage medium
JP2004310732A (en) * 2003-04-02 2004-11-04 Elan Microelectronics Corp Capacity coupling system touch pad having key and handwriting function consistent with each other
JP2010244302A (en) * 2009-04-06 2010-10-28 Sony Corp Input device and input processing method
JP2010257197A (en) * 2009-04-24 2010-11-11 Alps Electric Co Ltd Input processing apparatus
JP2012168620A (en) * 2011-02-10 2012-09-06 Sharp Corp Image display device capable of touch input, control device for display device, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222130A (en) * 1999-02-02 2000-08-11 Toshiba Corp Input device and method and storage medium
JP2004310732A (en) * 2003-04-02 2004-11-04 Elan Microelectronics Corp Capacity coupling system touch pad having key and handwriting function consistent with each other
JP2010244302A (en) * 2009-04-06 2010-10-28 Sony Corp Input device and input processing method
JP2010257197A (en) * 2009-04-24 2010-11-11 Alps Electric Co Ltd Input processing apparatus
JP2012168620A (en) * 2011-02-10 2012-09-06 Sharp Corp Image display device capable of touch input, control device for display device, and computer program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018193857A1 (en) * 2017-04-17 2018-10-25 株式会社東海理化電機製作所 Operation input device
JP2018181827A (en) * 2017-04-17 2018-11-15 株式会社東海理化電機製作所 Operation input device
US11112876B2 (en) 2017-04-17 2021-09-07 Kabushiki Kaisha Tokai Rika Denki Seisakusho Operation input device
WO2019073812A1 (en) * 2017-10-13 2019-04-18 アルプスアルパイン株式会社 Input device
JPWO2019073812A1 (en) * 2017-10-13 2020-10-22 アルプスアルパイン株式会社 Input device
US10969895B2 (en) 2017-10-13 2021-04-06 Alps Alpine Co., Ltd. Input device
KR20190078708A (en) * 2017-12-15 2019-07-05 현대자동차주식회사 Vehicle, and control method for the same
KR102459532B1 (en) 2017-12-15 2022-10-27 현대자동차주식회사 Vehicle, and control method for the same
JP2020140228A (en) * 2019-02-26 2020-09-03 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus and input control method and program thereof
WO2022097553A1 (en) * 2020-11-05 2022-05-12 株式会社東海理化電機製作所 Operation device

Also Published As

Publication number Publication date
JP6127679B2 (en) 2017-05-17

Similar Documents

Publication Publication Date Title
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
JP5644962B2 (en) Operating device
JP6127679B2 (en) Operating device
JP5323070B2 (en) Virtual keypad system
JP5640486B2 (en) Information display device
JP5962776B2 (en) Operating device
JP6277786B2 (en) Vehicle control device
JP2013131087A (en) Display device
JP5713180B2 (en) Touch panel device that operates as if the detection area is smaller than the display area of the display.
JP2015170282A (en) Operation device for vehicle
CN101470575B (en) Electronic device and its input method
US20150009136A1 (en) Operation input device and input operation processing method
JP5852514B2 (en) Touch sensor
WO2014083929A1 (en) Method, device, and computer for document scrolling in touch panel
US20160154488A1 (en) Integrated controller system for vehicle
JP2016012313A (en) Operating device
JP5849597B2 (en) Vehicle control device
JP5954145B2 (en) Input device
US9898106B2 (en) Information processing system, information processing apparatus, and information processing method
JP5985829B2 (en) Vehicle control device
US20180292924A1 (en) Input processing apparatus
JP2014067253A (en) Operation device
JP6699521B2 (en) Input device
JP2014137728A (en) Touch type input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170327

R151 Written notification of patent or utility model registration

Ref document number: 6127679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151