WO2018173179A1 - タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム - Google Patents

タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム Download PDF

Info

Publication number
WO2018173179A1
WO2018173179A1 PCT/JP2017/011611 JP2017011611W WO2018173179A1 WO 2018173179 A1 WO2018173179 A1 WO 2018173179A1 JP 2017011611 W JP2017011611 W JP 2017011611W WO 2018173179 A1 WO2018173179 A1 WO 2018173179A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
touch input
input
screen
input determination
Prior art date
Application number
PCT/JP2017/011611
Other languages
English (en)
French (fr)
Inventor
前川 拓也
佐々木 雄一
萩原 利幸
大介 木皿
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2017/011611 priority Critical patent/WO2018173179A1/ja
Publication of WO2018173179A1 publication Critical patent/WO2018173179A1/ja

Links

Images

Definitions

  • the present invention relates to a touch input determination device, a touch panel input device, a touch input determination method, and a touch input determination program for outputting output information corresponding to operation information input by a touch operation on a touch panel.
  • a user who uses a touch panel input device performs a touch operation while viewing a GUI (Graphical User Interface) as a display component displayed on the screen of the touch panel.
  • GUI Graphic User Interface
  • a touch operation is performed on the touch panel during other work such as driving a car, or a user who is blind (that is, visually impaired) uses the touch panel GUI as an operation target. It is difficult to perform certain touch input operations.
  • Patent Document 1 detects the position of a finger placed on the touch panel screen and assigns a button used for selecting a function to the detected position. A user interface with good operability is proposed.
  • Patent Document 2 discloses an operation part (for example, an upper part) to be displayed on a touch panel based on a similarity between a shape formed by connecting contact points of a plurality of fingers that are in contact with the screen of the touch panel and a preset shape.
  • a device for determining display parts such as buttons, down buttons, sliders, and rotary dials has been proposed.
  • a triangular shape that is, a shape corresponding to the upper button
  • a triangular shape that is, a shape corresponding to the upper button
  • a shape corresponding to the down button Since the shape of a triangle with an apex angle facing in the direction (that is, the shape corresponding to the down button) is similar, the touch operation performed by the user is misrecognized as an operation with contents not intended by the user There is.
  • the shape obtained by rotating the upper button 30 degrees to the right and the shape obtained by rotating the lower button 30 degrees to the left are the same, it is difficult to distinguish between the upper button and the lower button, and erroneous recognition may occur.
  • the present invention has been made to solve the above-described problem, and can reduce the burden of touch operation on the touch panel and can reduce input errors caused by the touch operation.
  • An object is to provide an input determination method and a touch input determination program.
  • a touch input determination apparatus is an apparatus that outputs output information according to operation information input by a touch operation on a touch panel, and an operation mode switching unit that switches a target of the touch operation on the touch panel.
  • the operation mode switching unit selects the entire screen operation mode in which the entire screen of the touch panel is the target of the touch operation, the output information is obtained by executing processing based on the operation information according to the touch operation.
  • a whole screen input determining unit that generates the screen, and the whole screen input determining unit accepts the first touch input operation when the first touch input operation that is the touch operation on the screen is performed.
  • the position on the screen is set as a reference coordinate point, and a reference line having a predetermined relationship with the reference coordinate point is set.
  • a touch input determination method is a method executed by a touch input determination device that outputs output information according to operation information input by a touch operation on a touch panel, the touch operation on the touch panel
  • the output information by executing a process based on the operation information according to the touch operation when the entire screen operation mode in which the entire touch screen is the target of the touch operation is selected.
  • Using the position on the screen as the reference coordinate point set a reference line having a predetermined relationship with the reference coordinate point.
  • a step of setting a plurality of touch input areas divided by the reference line on the screen and a second touch input operation that is the touch operation for selecting any of the plurality of touch input areas are performed.
  • the step of changing the output information using touch input information determined according to the selected touch input area is performed.
  • the burden of touch operation on the touch panel can be reduced, and input errors due to touch operation can be reduced.
  • FIG. 1 is a functional block diagram schematically showing a configuration of a touch panel input device (including a touch input determination device) according to Embodiment 1 of the present invention.
  • 2 is a diagram illustrating a hardware configuration of a touch panel input device (including a touch input determination device) according to Embodiment 1.
  • FIG. (A) is a figure which shows the example of a display of the screen of the touch panel in display component operation mode
  • (b) is a figure which shows the example of a display of the screen of the touch panel in screen whole operation mode.
  • (A) to (c) are diagrams showing a display example of a touch panel screen and a touch operation in the entire screen operation mode, and (a) is a first touch operation performed to input a reference coordinate point.
  • FIG. 1 A first touch input operation is shown, and (b) and (c) show a second touch input operation that is a touch operation for tapping an operation target area divided by a vertical reference line passing through a reference coordinate point.
  • FIGS. 1 to (c) are diagrams showing still another display example and touch operation on the touch panel screen in the entire screen operation mode, and (a) is a touch operation performed to input a reference coordinate point.
  • a certain first touch input operation is shown, and (b) and (c) pass through a first reference line and a reference coordinate point that are inclined upward by 45 degrees with respect to the horizontal direction.
  • a second touch input operation which is a touch operation for tapping an operation target area divided by a second reference line that is inclined, is shown.
  • 4 is a flowchart illustrating an operation of the touch input determination device according to the first embodiment.
  • 6 is a flowchart illustrating selection value change processing by a relative touch input determination unit of the entire screen input determination unit according to the first embodiment.
  • FIG. 1 shows the 1st touch input operation which is a touch operation performed in order to input a reference coordinate point
  • 2 shows a second touch input operation that is a touch operation for tapping the operation target area.
  • FIG. 14 is a flowchart illustrating a selection value changing process by a relative touch input determination unit of the entire screen input determination unit according to the fourth embodiment.
  • a touch panel input device includes a touch panel having a screen (that is, an operation screen) for touch operation (also referred to as “touch gesture operation”), and a touch input determination device that receives operation information corresponding to the touch operation on the touch panel. It is equipped with.
  • the touch input determination device outputs output information (for example, a selection value) corresponding to operation information input by a touch operation on the touch panel.
  • the touch input determination device or the touch panel input device according to the embodiment is mounted on a system (for example, equipment or equipment), and can change a selection value provided to the system to a new selection value.
  • the system is, for example, an elevator system
  • the selected value is a numerical value indicating the destination floor.
  • the system may be a system other than the elevator system (for example, an acoustic device), and the selected value may be a numerical value other than the destination floor (for example, a numerical value indicating the volume).
  • FIG. 1 is a functional block diagram schematically showing the configuration of touch panel input device 1 (including touch input determination device 10) according to Embodiment 1 of the present invention.
  • the touch panel input device 1 includes a touch input determination device 10 and a touch panel 20.
  • the touch panel 20 includes an operation panel unit (user operation unit) 21 that receives a touch operation by a user, and a display panel unit (display device) 22 that is disposed on the operation panel unit 21 and provides an image to the user.
  • the touch input determination device 10 is a device that can perform the touch input determination method according to the first embodiment.
  • the touch input determination device 10 is a device that can execute the touch input determination program according to the first embodiment.
  • the touch input determination device 10 includes an operation information input unit 11, an operation determination unit 12 that performs processing related to operation information by a user, and audio information provided to the user as an audio output device (for example, And a display control unit 19 that provides image information to the display panel unit 22 of the touch panel 20 or another display device.
  • the operation determination unit 12 also includes an operation mode switching unit 13 that performs processing related to switching of operation modes, an entire screen input determination unit 14 that performs processing related to operation information in the entire screen operation mode, and operation information in the screen component operation mode. And a display component input determination unit 15 that performs processing.
  • the entire screen input determination unit 14 includes a relative touch input determination unit 16 and a gesture input determination unit 17.
  • the configuration of the touch input determination device 10 is not limited to the example of FIG.
  • the operation mode switching unit 13 switches the target of the touch operation on the touch panel 20.
  • the operation mode switching unit 13 is a display component operation mode in which a display component displayed on the screen of the touch panel 20 is a target of touch operation or an entire screen operation in which the entire screen of the touch panel 20 is a target of touch operation. Select a mode. This selection is performed according to, for example, user operation or predetermined setting information.
  • the entire screen of the touch panel 20 may be the entire screen or the entire predetermined range of the screen.
  • the initial value is a predetermined value, a value input in the display component operation mode, a value input in the entire screen operation mode, or the like.
  • the operation mode switching unit 13 switches the operation mode from the display component operation mode to the entire screen operation mode. This switching is performed according to a user operation.
  • the entire screen input determination unit 14 performs a touch that is a first touch input operation that is a touch operation on the screen of the touch panel 20 (for example, illustrated in FIG. 4A described later).
  • the position on the screen where the first touch input operation is accepted is set as a reference coordinate point, and a reference line having a predetermined relationship with respect to the reference coordinate point is set, so that a plurality of sections divided by the reference line on the screen
  • the touch input area as the operation target area is set.
  • the reference line having a predetermined relationship with the reference coordinate point is, for example, a straight line passing over the reference coordinate point and parallel to the horizontal direction of the screen, or a straight line passing through the reference coordinate point and parallel to the vertical direction of the screen.
  • the reference line can be a curved line.
  • the reference line can include a plurality of straight lines.
  • the entire screen input determination unit 14 performs a tap that is a second touch input operation that is a touch operation for selecting one of a plurality of touch input areas (for example, FIG. 4B described later). ) And (c)), the selected value is changed to a new selected value using the amount of change determined according to the selected touch input area.
  • the determined change amount means that a new selection value is calculated by adding the change amount to the current selection value, and a new selection value is obtained by subtracting the change amount from the current selection value. It may be calculated.
  • the calculation method of the new selection value is not limited to the addition or subtraction of the change amount, and the new selection value may be calculated by another calculation formula.
  • the entire screen input determination unit 14 may request the user to perform a touch operation for confirming the new selection value after the change as the current selection value.
  • the user touches the user operation region, which is a region divided by the reference line determined with reference to the reference coordinate point, with his / her finger.
  • a reference line is set by designating, and immediately after that, a change amount that is a relative touch input value can be input by a touch operation (also referred to as “relative touch input”) for tapping the user operation area.
  • a touch operation also referred to as “relative touch input”
  • the user touches the screen with the left hand to set a reference coordinate point and taps the user operation area relatively above or below the reference coordinate point with the right hand.
  • the amount of change can be input by performing a relative touch input. For this reason, the user can easily perform the touch operation in the entire screen operation mode in a state where the screen of the touch panel 20 is not viewed, and can reduce input errors due to the touch operation.
  • the operation information input unit 11 receives operation information based on the touch operation performed on the touch panel 20 and provides a signal based on the operation information to each functional block in the operation determination unit 12.
  • the operation mode switching unit 13 receives a signal based on the operation information from the operation information input unit 11, and determines whether or not the touch operation is an operation related to switching of the operation mode. When the operation mode switching unit 13 determines that the touch operation is an operation related to switching of the operation mode, the operation mode is changed from the display component operation mode to the entire screen operation mode, or from the entire screen operation mode to the display component operation mode. Switch.
  • the entire screen input determination unit 14 identifies the input content from the operation information corresponding to the touch operation on the entire screen in the entire screen operation mode, and changes or determines the selection value.
  • the input content of the operation information corresponding to the touch operation on the entire screen is identified by the relative touch input determination unit 16 and the gesture input determination unit 17.
  • the relative touch input determination unit 16 receives, as inputs, a reference point for relative touch input (that is, a reference coordinate point) and a relative touch input point for determining a selection value (that is, the position of the touch input operation). A process of changing the current selection value to a new selection value by calculation using the relative touch input value is performed.
  • the gesture input determination unit 17 determines a gesture input that is a touch operation of an arbitrary pattern in the entire screen operation mode, and performs a process corresponding to the gesture input.
  • the display component input determination unit 15 identifies the input content from the operation information corresponding to the touch operation on the display component displayed on the screen in the display component operation mode, and accepts the operation and determines the selected value.
  • the notification unit 18 outputs an audio signal for notifying the selection value by voice when the current selection value is changed to the new selection value after the change by the entire screen input determination unit 14, for example, a speaker. ). Further, the notification unit 18 may output an audio signal for outputting other notifications as audio to the audio output device.
  • the notification unit 18 itself may include a speaker.
  • the display control unit 19 changes the display of the operation screen from the current selection value before the change to the new change value. Change to selected value.
  • the display control unit 19 provides image information to the display panel unit 22 of the touch panel 20 or another display device (not shown) (for example, a liquid crystal monitor).
  • the selection value is a selection value determined by the operation determination unit 12 based on the touch input information, and the system application or the like controls the operation of the facility or the device based on this value.
  • FIG. 2 is a diagram illustrating an example of a hardware configuration of the touch panel input device 1 (including the touch input determination device 10) according to the first embodiment.
  • the touch panel 20 can detect a user's finger contact and generate operation information (identification information of each finger, coordinate information of a finger contact position, information indicating a finger contact state, etc.).
  • operation information identification information of each finger, coordinate information of a finger contact position, information indicating a finger contact state, etc.
  • the processor 31 executes a touch input determination program that is software stored in the memory 32, the functions of the components of the touch input determination device 10 are realized. Further, the processor 31 determines from the operation information corresponding to the touch operation stored in the memory 32 whether it is the entire screen operation mode or the display component operation mode, and determines a selection value in each operation mode.
  • FIG. 3A is a diagram illustrating a display example of the screen of the touch panel 20 in the display component operation mode
  • FIG. 3B is a diagram illustrating a display example of the screen of the touch panel 20 in the entire screen operation mode.
  • the user can switch the display content of the screen by performing an operation of swiping the screen left or right with a finger.
  • various components to be operated such as buttons for directly selecting a selection value, are displayed on the operation screen.
  • a tap which is a touch operation
  • an operation corresponding to the tapped display component for example, setting a selection value to a numerical value corresponding to the display component
  • the operation screen displayed in the entire screen operation mode shown in FIG. 3B displays a display of the current selection value and a display for prompting an operation instruction for screen switching.
  • a relative touch input point that is a touch input point for changing and determining a selection value by the touch operation is tapped.
  • a change amount based on the relative position information of the relative touch input point is obtained, a calculation for changing the selection value is performed using the change amount, and the touch panel input device 1 is loaded with the new selection value.
  • the operation mode is switched from the entire screen operation mode to the display component operation mode.
  • FIGS. 4B and 4C show touch inputs divided by a horizontal reference line 103 passing through the reference coordinate point 102.
  • a second touch input operation which is a touch operation for tapping the areas 104 and 105, is shown.
  • the reference coordinate point 102 is input by performing a touch operation of touching the reference coordinate point 102 on the screen 101 in the entire screen operation mode.
  • the entire screen input determination unit 14 defines a horizontal straight line (horizontal line) passing through the reference coordinate point 102 as a reference line (boundary line) 103, and FIG.
  • the user operation area 104 on the upper side of the reference line 103 shown is made to function as an upper button
  • the user operation area 105 on the lower side shown in FIG. 4C is made to function as a lower button. Therefore, the user adds “1”, which is a predetermined amount of change, to the current selection value “14” by tapping the upper button that is the upper user operation area 104 shown in FIG.
  • the current selection value is changed from “14” to “15”. Further, the user subtracts “1”, which is a predetermined change amount, from the currently selected value “14” by tapping the lower button, which is the lower user operation area 105 shown in FIG. Then, the current selection value is changed from “14” to “13”.
  • the upper user operation area 104 is used as an area for inputting the amount of change in the increasing direction, and the lower user operation area 105 is changed in the decreasing direction. It is an area for entering quantities. Note that the amount of change when the upper user operation area 104 or the lower user operation area 105 is tapped is not limited to “1”, and may be another value.
  • FIGS. 5A to 5C are diagrams showing a display example of the screen 111 of the touch panel 20 and a touch operation by the user's hands 40 and 41 in the entire screen operation mode, and FIG. 5A is a reference coordinate point.
  • 5A and 5C show a first touch input operation that is a touch operation performed to input 112, and FIGS. 5B and 5C show touches that are segmented by a reference line 113 passing through the reference coordinate point 112 in the vertical direction.
  • a second touch input operation which is a touch operation for tapping the input areas 114 and 115, is shown.
  • the reference coordinate point 112 is input by performing a touch operation of touching the reference coordinate point 112 on the screen 111 in the entire screen operation mode.
  • the entire screen input determination unit 14 defines a straight line (vertical line) passing through the reference coordinate point 112 as a reference line (boundary line) 113, and FIG.
  • the user operation area 114 on the right side of the reference line 113 shown in FIG. 5 functions as a right button
  • the user operation area 155 on the left side shown in FIG. 5C functions as a left button. Therefore, the user adds “1”, which is a predetermined change amount, to the current selection value “14” by tapping the right button, which is the user operation area 114 on the right side shown in FIG.
  • the current selection value is changed from “14” to “15”. Further, the user subtracts “1”, which is a predetermined change amount, from the current selection value “14” by tapping the left button, which is the left user operation area 115 shown in FIG. Thus, the current selection value is changed from “14” to “13”.
  • the right user operation area 114 is used as an area for inputting the amount of change in the increasing direction
  • the left user operation area 115 is set in the decreasing direction. This is an area for inputting the amount of change. Note that the amount of change when the right user operation area 114 or the left user operation area 115 is tapped is not limited to “1”, and may be another value.
  • FIGS. 6A to 6C are diagrams showing a display example of the screen 121 of the touch panel 20 and a touch operation by the user's hands 40 and 41 in the entire screen operation mode.
  • FIG. 6A is a reference coordinate point. 6 shows a first touch input operation that is a touch operation performed to input 122, and FIGS. 6B and 6C show four touches divided by reference lines 123 and 124 passing through the reference coordinate point 122. A second touch input operation which is a touch operation for tapping an input area (124, 125, etc.) is shown.
  • the reference coordinate point 122 is input by performing a touch operation of touching the reference coordinate point 122 on the screen 121 in the entire screen operation mode.
  • the entire screen input determination unit 14 defines straight lines that pass through the reference coordinate point 122 and are inclined at a predetermined angle with respect to the horizontal direction as reference lines (boundary lines) 123 and 124.
  • the user operation area 125 on the right side of the reference lines 123 and 124 shown in FIG. 6B functions as a right button
  • the user operation area on the left side of the reference lines 123 and 124 functions as a left button.
  • the upper user operation area 126 shown in c) is made to function as an upper button
  • the lower user operation area is made to function as a lower button.
  • the reference line 123 is a straight line inclined to the right by 45 degrees with respect to the horizontal direction
  • the reference line 124 is a straight line inclined to the right by 45 degrees with respect to the horizontal direction.
  • the inclination angle and the inclination direction are not limited to the illustrated example.
  • the reference line may be one or more than three.
  • a function or a numerical value can be assigned to each of the lower buttons which are user operation areas.
  • the reference line set based on the reference coordinate point is selected to be suitable for the behavior suitable for the application to be operated. For example, when selecting a destination floor in an elevator, the input accepting function is applied with the upper button and the lower button shown in FIGS. 4A to 4C, and the cursor is moved. 6) The input receiving function in the vertical and horizontal directions shown in (a) to (c) is applied.
  • FIG. 7 is a flowchart showing the operation of the touch input determination device 10 installed in the system.
  • step S101 when the system on which the touch input determination device 10 is mounted is activated, the respective units constituting the system are initialized, and the touch input determination device 10 is activated in the display component operation mode.
  • step S102 whether the operation mode switching unit 13 has detected a switching input, which is an instruction signal instructing switching of the operation mode, based on the operation information according to the touch operation input from the operation information input unit 11. Judge whether.
  • a switching input is detected (YES in step S102)
  • the process proceeds to step S103, and the operation mode is switched from the display component operation mode to the entire screen operation mode (ie, transition is made).
  • step S104 the relative touch input determination unit 16 identifies information related to the relative touch input from the operation information corresponding to the input touch operation, determines a change amount according to the relative touch input, and uses the change amount. A new selection value after the change is calculated from the current selection value.
  • the selection value determination process is shown in FIG.
  • step S105 by passing the new selection value determined in step S104 to the display control unit 19, the display content on the touch panel 20 is switched, and a screen reflecting the operation content is displayed.
  • step S106 by passing the selection value determined in step S104 to the notification unit 18, the notification content is switched, and a sound output (announcement) for prompting the operation and notification of the situation after the operation result is output from the speaker.
  • the gesture input determination unit 17 determines whether or not there is a switching input to the display component operation mode from the operation information corresponding to the touch operation input from the operation information input unit 11 and the touch history information. If a switching input is detected (YES in step S107), the operation mode is switched from the entire screen operation mode to the display component operation mode in step S108, and the screen shifts to the display component operation screen displayed at the initial startup. If there is no switching input to the display component operation mode (NO in step S107), the touch input operation by the relative touch input determination unit 16 is received until the switching input is received, and the display content and the notification content are switched accordingly.
  • the display component input determination unit 15 performs input determination on the display component in step S109. .
  • the display component input determination unit 15 determines whether or not the input determination is a display component determination based on whether or not the touch input coordinates are included in the operation range of the display component.
  • the display component input determination unit 15 determines a selection value.
  • the operation target is not a display component (NO in step S109)
  • the process returns to step S102.
  • step S110 the display component input determination unit 15 changes and determines the selection value based on the operation information corresponding to the touch operation input from the operation information input unit 11.
  • selection as shown in the display screen of each display component in FIG. 3A, a display component assigned with a specific selection value such as a button is arranged, and the selected value is touched by touch input to the display component. Change and determine the entered value.
  • step S111 by passing the selection value determined in step S110 to the display control unit 19, the display content on the touch panel 20 is switched, and a screen corresponding to the operation content is displayed.
  • step S112 by passing the selection value determined in step S110 to the notification unit 18, notification contents by voice from the speaker are switched, and a notification of the situation after the operation result and an announcement for prompting the operation are performed.
  • FIG. 8 is a flowchart showing selection value change processing (step S104) by the relative touch input determination unit 16 of the entire screen input determination unit 14 in the first embodiment.
  • step S201 the relative touch input determination unit 16 determines whether or not there is a touch input. If there is no touch input (NO in step S201), the process proceeds to step S202, and the touch input for inputting the reference coordinate point is performed. Accept. This state is an input reception state of the reference coordinate point. On the other hand, if a touch input point already exists (YES in step S201), in step S203, the relative touch input determination unit 16 determines whether the touch input is one point, and if the touch input point is a single point touch input. If (YES in step S203), the process proceeds to step S204. When the touch input point is not one point (NO in step S203), the relative touch input determination unit 16 returns the process to step S201.
  • step S204 the relative touch input determination unit 16 identifies operation information corresponding to the input touch operation, and assigns the touch input point as a reference coordinate point. Further, the relative touch input determination unit 16 changes the reception state from the input reception state of the reference coordinate point to the reception state of the touch input, and the operation information corresponding to the next touch operation input affects the selection value. Identify as input point.
  • step S ⁇ b> 205 the relative touch input determination unit 16 is a process for determining whether the finger of the reference coordinate point previously input is in contact with the touch panel 20 or not in the touch input acceptance state. If contact determination is performed and the finger at the reference coordinate point is away from the touch panel 20 (YES in step S205), the process returns to step S201, which is the start time of the determination process for relative touch input.
  • step S205 when the finger of the reference coordinate point is in contact with the touch panel 20 (NO in step S205), in step S206, has the relative touch input determination unit 16 detected touch input other than the reference coordinate point? Determine if. If there is a touch input (YES in step S206), the relative touch input determination unit 16 proceeds to an input value determination process. When there is no touch input (NO in step S206), the relative touch input determination unit 16 returns the process to step S205 and continuously monitors the touch input information.
  • step S207 the relative touch input determination unit 16 acquires the coordinate value of the reference coordinate point at the moment when the relative touch input is made, and calculates the reference line from the information.
  • Which of the reference lines shown in FIGS. 4A to 4C, 5A to 5C, and 6A to 6C is used depends on the application running in the system. What is predetermined according to the state of is used. Then, according to the type of the reference line, the reference line is determined from the coordinate value of the reference coordinate point.
  • step S208 the relative touch input determination unit 16 determines the relative position of the relative touch input point detected in step S206 with respect to the reference line determined in step S207, and determines a relative touch input value corresponding thereto.
  • step S209 the relative touch input determination unit 16 calculates a selection value using the relative touch input value determined in step S208.
  • the selection value before touch input is “14”, and “1” is added to the selection value to set the new selection value to “15”.
  • the selection value can be determined without looking at the touch panel 20 by the above processing in the relative touch input determination unit 16 and the status notification after the operation result in the notification unit 18 and the announcement for prompting the operation.
  • ⁇ 1-3 Effect
  • the user designates the user operation area divided by the reference line determined based on the reference coordinate point with his / her finger. Then, immediately after that, by performing a relative touch input for tapping the user operation area, it is possible to input a change amount that is a relative touch input value. In this way, the user can input the amount of change by performing a touch operation in the user operation area relatively above or relatively below the user coordinate area input by the user himself / herself. . For this reason, the user can easily perform the touch operation in the entire screen operation mode in a state where the screen of the touch panel 20 is not viewed, and can reduce input errors due to the touch operation.
  • one reference coordinate point is input by touching one point on the touch panel 20 with one finger in the touch operation on the touch panel 20, and a predetermined reference point passing through the one reference coordinate point is determined.
  • a reference line (for example, a horizontal line or a vertical line) is set in one direction, and one of a plurality of areas divided by the reference line is touched with one finger (ie, by one touch input point) ),
  • a relative touch input value that is a change amount added to or subtracted from the current selection value is input.
  • a method for changing the inclination of the reference line that is, the direction of the reference line
  • a touch operation will be described.
  • the touch input determination device the touch panel input device, the touch input determination method, and the touch input determination program according to the second embodiment are the same as those of the first embodiment. Therefore, in the description of the second embodiment, reference is also made to FIGS.
  • FIG. 9 is a diagram illustrating a correction process of the inclination of the reference line 203 in the touch panel input device according to the second embodiment.
  • the touch input determination device 10 is notified of one coordinate input as data when the user's index finger is brought into contact with the touch panel.
  • This is a software (S / W) driver that controls the touch panel 20, and collects information from the contact area information of the index finger on the touch panel 20 (including detailed information that can also grasp the shape, etc.) to one point input by the driver. Yes. Therefore, it is possible to acquire contact area information instead of one-point coordinate input, identify the shape of the input information, and correct the reference line.
  • the contact region information may be elliptical in shape because the belly portion of the index finger is brought into contact with the screen 201 of the touch panel 20. Therefore, the inclination information in the major axis direction of the elliptical shape is acquired, and the inclination of the reference line is corrected.
  • the correction process of the reference line 203 sets the reference line 203 according to the user input even when the touch panel 20 is inclined, for example. Can be reduced.
  • ⁇ 3 Embodiment 3
  • one-point touch input using one finger is used for relative touch input, which is a touch operation on the touch panel 20, but only one-point touch input is used in the third embodiment. Instead, multipoint touch input using multiple fingers is also used.
  • the number of relative touch input points in the relative touch input is not limited to one point, and when there are a plurality of relative touch input points, the number of relative touch input points depends on the number of relative touch input points. An example in which the relative touch input value is changed and the selection value as output information is changed using the relative touch input value will be described.
  • FIG. 10A to 10C show a display example and a touch operation of the screen 301 of the touch panel 20 in the entire screen operation mode of the touch panel input device (including the touch input determination device) according to the third embodiment of the present invention.
  • FIG. 10A shows a first touch input operation that is a touch operation performed to input the reference coordinate point 302
  • FIGS. 10B and 10C show the reference coordinate point 302.
  • Relative touch input that is a second touch input operation that is a touch operation for tapping an operation target area that is divided by a horizontal reference line that passes through.
  • the number of relative touch input points is linked to the tenth value of the relative touch input value, and “1” is set as the relative touch input value if the input is one point, and the relative touch input is input if the input is two points. Set “10” as the value. Then, in order to reflect the result on the selection value, the selection value is changed from “14” to “15” in the input of FIG. 10B, whereas the selection value is changed to “15” in the input of FIG. 14 "is changed to” 24 ".
  • the third embodiment it is possible to easily determine a large numerical value input by changing the relative touch input value according to the number of relative touch input points.
  • one reference coordinate point is input by touching one finger (that is, one point) on the screen of the touch panel 20 in a touch operation on the touch panel 20, and one reference coordinate point is A reference line having a predetermined relationship (for example, a reference line passing over a reference coordinate point) is set, and touch is performed by a relative touch input in which one of a plurality of touch input areas divided by the reference line is touched with a finger.
  • input information for example, a change amount
  • output information for example, a selected value
  • two reference coordinate points are input by touching two fingers (that is, two points) on the screen of the touch panel 20 in a touch operation on the touch panel 20, and two reference points are input.
  • a reference line having a predetermined relationship with the coordinate point (for example, a reference line passing over two reference coordinate points) is set, and one of a plurality of touch input areas divided by the reference line is touched with a finger.
  • touch input information for example, change amount
  • output information for example, a selection value
  • FIGS. 1, 2, and 7 are also referred to in the description of the fourth embodiment.
  • FIG. 11 shows a display example of the screen 401 of the touch panel 20 and the touch operation (the first touch input operation is the thumb) in the entire screen operation mode of the touch panel input device (including the touch input determination device) according to the fourth embodiment of the present invention.
  • the index finger As shown in FIG. 11, in the fourth embodiment, a touch operation performed to input a reference coordinate point is performed with two fingers (for example, a thumb and an index finger), and two reference coordinate points 402 are displayed. , 403 are input, and a straight line passing through the two reference coordinate points 402, 403 is defined as a reference line 404. Further, three or more reference coordinate points may be input. When setting a reference line, a line passing through the center of gravity of all the reference coordinate points (for example, a horizontal line or a vertical line) may be used as the reference line. Is possible.
  • FIG. 12 is a flowchart showing processing for changing a selection value, which is output information, by the relative touch input determination unit 16 of the entire screen input determination unit 14 according to the fourth embodiment.
  • step S301 the relative touch input determination unit 16 determines the presence or absence of touch input. If there is no touch input (NO in step 301), the process proceeds to step S302, accepts the touch input of the reference coordinate point, and receives the touch input. Information indicating the number and coordinates of the points and whether the finger is in contact with or not in contact with the touch input point is acquired.
  • step S303 when the relative touch input determination unit 16 detects an operation in which the finger at the touch input point moves away from the touch panel 20 (that is, an operation that changes from a contact state to a non-contact state), in step S304, the relative touch input determination unit 16 It is determined whether or not the touch input point separated by is the touch input point input last. That is, the relative touch input determination unit 16 identifies an operation in which one touch input is performed on the touch panel 20 and the touch input point is released immediately thereafter. The relative touch input determination unit 16 recognizes the touch input point that is the target of the one touch input as the touch input point of the relative touch input for inputting the change amount for determining the selection value.
  • step S305 the relative touch input determination unit 16 determines whether or not another touch input point still exists on the touch panel 20 at the time when the touch input point for determining the selection value leaves (YES in step S304). If another touch input point exists (YES in step S305), all of the touch input points are identified as reference coordinate points 402 and 403 for setting the reference line 404, and the process is performed in step S306. Proceed to If there is no other touch input (NO in step S305), the relative touch input determination unit 16 cannot set the reference line, so the process returns to step S303 and waits for re-input of the touch input point. .
  • the relative touch input determination unit 16 determines the setting specification of the reference line 404 from the information of the identified reference coordinate points 402 and 403. For example, when there are two reference coordinate points, the relative touch input determination unit 16 determines the reference line 404 by calculating as a straight line passing through the two reference coordinate points as the reference line setting specification. . In addition, the relative touch input determination unit 16 does not change the specification of the reference line 404 until all the fingers in contact with the touch input point are released from the touch panel 20, and does not change all the fingers of the touch input point from the touch panel 20. The input method of relative touch input is fixed until is released.
  • step S307 the relative touch input determination unit 16 acquires each coordinate of the actual reference coordinate point, and calculates the reference line 404 from the information indicating the coordinate.
  • step S308 the relative touch input determination unit 16 determines the relative position of the touch input point detected in step S303 with respect to the reference line 404 calculated in step S307, and determines a relative touch input value corresponding thereto.
  • step S309 the relative touch input determination unit 16 changes the current selection value using the relative touch input value determined in step S308, and determines a new selection value.
  • the method for determining the relative touch input value and the selection value is the same as that in the first embodiment.
  • step S301 if a touch input already exists at the start of the relative touch input determination process in step S301 (YES in step S301), the relative touch input determination unit 16 advances the process to step S310 and sets the reference line setting specifications. Is determined.
  • steps S310 to S312 after executing a series of relative touch input determination processes (steps S301 to S309), the touch input point continues to exist on the screen of the touch panel 20, and the relative touch input determination unit 16 continues to perform the touch input. It is a processing flow at the time of determining.
  • the setting specification in step S310 indicates that determined in step S306. If the reference line setting specification is not determined in step S310, the relative touch input determination unit 16 returns the process to step S301 and prompts the user to redo the input operation to the touch panel 20.
  • step S311 the relative touch input determination unit 16 detects a relative touch input that is an input operation of a relative touch input point for determining a selection value.
  • step S312 the relative touch input determination unit 16 determines whether the input according to the reference line setting specification confirmed in step S310 is performed based on the input operation of the touch input point in step S311. If so, the process proceeds to step S307 to perform a process for changing and determining the selection value. In step S312, if the input does not match the reference line setting specification and the consistency with the current touch input point cannot be ensured, the relative touch input determination unit 16 returns the process to step S301, and the touch panel. 20 urges the user to redo the input operation.
  • the reference line 404 is set based on a plurality of reference coordinate points, an arbitrary reference line can be set by an arbitrary number of touch input points. For this reason, the user can input the reference coordinate point without viewing the touch panel 20, and can perform the relative touch input in accordance with the input of the own reference coordinate point, so that input errors can be reduced.
  • Embodiments 1 to 4 can be combined with each other as appropriate.
  • the configurations and operations described in the first to fourth embodiments are only examples, and the user touches the screen of the touch panel 20 to specify a reference coordinate point. Immediately thereafter, the user touches the screen of the same touch panel 20. It is possible to change to another configuration and operation characterized by performing relative touch input.

Abstract

タッチ入力判定装置(10)は、タッチパネル(20)におけるタッチ操作によって入力された操作情報に応じた出力情報を出力する装置であって、操作モード切替部(13)と画面全体入力判定部(14)とを備え、画面全体入力判定部(14)は、画面(101)におけるタッチ操作である第1のタッチ入力操作が行われたときに、第1のタッチ入力操作を受け付けた画面上の位置を基準座標点(102)とし、基準座標点に対し予め決められた関係を持つ基準線(103)を設定することで、画面上に基準線で区分される複数のタッチ入力領域(104,105)を設定し、複数のタッチ入力領域のいずれかを選択するタッチ操作である第2のタッチ入力操作(相対タッチ入力)が行われたときに、選択されたタッチ入力領域に応じて決定されたタッチ入力情報を用いて出力情報(選択値)を変更する。

Description

タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム
 本発明は、タッチパネルにおけるタッチ操作によって入力された操作情報に応じた出力情報を出力するためのタッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラムに関する。
 一般に、タッチパネル入力装置を使用するユーザは、タッチパネルの画面に表示された表示部品としてのGUI(Graphical User Interface)を見ながらタッチ操作を行う。しかし、自動車の運転中などのように他の作業中にタッチパネルでタッチ操作を行うこと又は目が不自由な(すなわち、視覚障がいを持つ)ユーザが、タッチパネルのGUIを操作対象とするタッチ操作であるタッチ入力操作を行うことは難しい。
 この対策として、特許文献1は、タッチパネルの画面上に置かれる手の指の位置を検出し、検出された位置に機能選択などのために用いられるボタンを割り当てることにより、視覚障がいを持つユーザにとって操作性のよいユーザーインタフェースを提案している。
 また、特許文献2は、タッチパネルの画面に接触している複数の指の接触点を結んでできる形状と予め設定された形状との類似度に基づいて、タッチパネルに表示する操作パーツ(例えば、上ボタン、下ボタン、スライダ、回転ダイヤルなどの表示部品)を決定する装置を提案している。
特開2004-062867号公報(要約、図5) 国際公開第2016/035207号
 しかしながら、特許文献1に記載の装置において、ユーザは、手の各指に割り当てられた機能のマッピングを意識しながらタッチ操作を行う必要がありユーザの負担が大きく、また、ユーザによって行われたタッチ操作が、ユーザが意図していない内容の操作として誤認識されることがある。
 また、特許文献2に記載の装置において、3本の指で形成される上方向を向く頂角を持つ三角形の形状(すなわち、上ボタンに対応する形状)と3本の指で形成される下方向を向く頂角を持つ三角形の形状(すなわち、下ボタンに対応する形状)とが似ているため、ユーザによって行われたタッチ操作がユーザが意図していない内容の操作として誤認識されることがある。つまり、上ボタンを30度右回転させた形状と下ボタンを30度左回転した形状とが同じになるため、上ボタンと下ボタンとの区別が付きにくく、誤認識が起こることがある。
 本発明は、上記課題を解決するためになされたものであり、タッチパネルにおけるタッチ操作の負担を軽減することができ、タッチ操作による入力誤りを減らすことができるタッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラムを提供することを目的とする。
 本発明の一態様に係るタッチ入力判定装置は、タッチパネルにおけるタッチ操作によって入力された操作情報に応じた出力情報を出力する装置であって、前記タッチパネルにおけるタッチ操作の対象を切り替える操作モード切替部と、前記操作モード切替部が前記タッチパネルの画面の全体をタッチ操作の対象とする画面全体操作モードを選択したときに、前記タッチ操作に応じた操作情報に基づく処理を実行することで前記出力情報を生成する画面全体入力判定部と、を備え、前記画面全体入力判定部は、前記画面における前記タッチ操作である第1のタッチ入力操作が行われたときに、前記第1のタッチ入力操作を受け付けた前記画面上の位置を基準座標点とし、前記基準座標点に対し予め決められた関係を持つ基準線を設定することで、前記画面上に前記基準線で区分される複数のタッチ入力領域を設定し、前記複数のタッチ入力領域のいずれかを選択する前記タッチ操作である第2のタッチ入力操作が行われたときに、選択された前記タッチ入力領域に応じて決定されたタッチ入力情報を用いて前記出力情報を変更することを特徴としている。
 本発明の他の態様に係るタッチ入力判定方法は、タッチパネルにおけるタッチ操作によって入力された操作情報に応じた出力情報を出力するタッチ入力判定装置によって実行される方法であって、前記タッチパネルにおけるタッチ操作の対象を切り替えるステップと、前記タッチパネルの画面の全体をタッチ操作の対象とする画面全体操作モードを選択したときに、前記タッチ操作に応じた操作情報に基づく処理を実行することで前記出力情報を生成するステップと、を有し、前記出力情報を生成するステップは、前記画面における前記タッチ操作である第1のタッチ入力操作が行われたときに、前記第1のタッチ入力操作を受け付けた前記画面上の位置を基準座標点とし、前記基準座標点に対し予め決められた関係を持つ基準線を設定することで、前記画面上に前記基準線で区分される複数のタッチ入力領域を設定するステップと、前記複数のタッチ入力領域のいずれかを選択する前記タッチ操作である第2のタッチ入力操作が行われたときに、選択された前記タッチ入力領域に応じて決定されたタッチ入力情報を用いて前記出力情報を変更するステップと、を含むことを特徴としている。
 本発明によれば、タッチパネルにおけるタッチ操作の負担を軽減することができ、タッチ操作による入力誤りを減らすことができる。
本発明の実施の形態1に係るタッチパネル入力装置(タッチ入力判定装置を含む)の構成を概略的に示す機能ブロック図である。 実施の形態1に係るタッチパネル入力装置(タッチ入力判定装置を含む)のハードウェア構成を示す図である。 (a)は、表示部品操作モードにおけるタッチパネルの画面の表示例を示す図であり、(b)は、画面全体操作モードにおけるタッチパネルの画面の表示例を示す図である。 (a)から(c)は、画面全体操作モードにおけるタッチパネルの画面の表示例及びタッチ操作を示す図であり、(a)は、基準座標点を入力するために行われるタッチ操作である第1のタッチ入力操作を示し、(b)及び(c)は、基準座標点を通る水平方向の基準線で区分された操作対象領域をタップするタッチ操作である第2のタッチ入力操作を示す。 (a)から(c)は、画面全体操作モードにおけるタッチパネルの画面の他の表示例及びタッチ操作を示す図であり、(a)は、基準座標点を入力するために行われるタッチ操作である第1のタッチ入力操作を示し、(b)及び(c)は、基準座標点を通る垂直方向の基準線で区分された操作対象領域をタップするタッチ操作である第2のタッチ入力操作を示す。 (a)から(c)は、画面全体操作モードにおけるタッチパネルの画面のさらに他の表示例及びタッチ操作を示す図であり、(a)は、基準座標点を入力するために行われるタッチ操作である第1のタッチ入力操作を示し、(b)及び(c)は、通り水平方向に対し45度右上がりに傾斜する第1の基準線と基準座標点を通り水平方向に対し45度右下がりに傾斜する第2の基準線で区分された操作対象領域をタップするタッチ操作である第2のタッチ入力操作を示す。 実施の形態1に係るタッチ入力判定装置の動作を示すフローチャートである。 実施の形態1における画面全体入力判定部の相対タッチ入力判定部による選択値の変更処理を示すフローチャートである。 本発明の実施の形態2に係るタッチパネル入力装置(タッチ入力判定装置を含む)の画面全体操作モードにおける基準線の傾きの補正処理を示す図である。 (a)から(c)は、本発明の実施の形態3に係るタッチパネル入力装置(タッチ入力判定装置を含む)の画面全体操作モードにおけるタッチパネルの画面の表示例及びタッチ操作を示す図であり、(a)は、基準座標点を入力するために行われるタッチ操作である第1のタッチ入力操作を示し、(b)及び(c)は、基準座標点を通る水平方向の基準線で区分された操作対象領域をタップするタッチ操作である第2のタッチ入力操作を示す。 本発明の実施の形態4に係るタッチパネル入力装置(タッチ入力判定装置を含む)の画面全体操作モードにおけるタッチパネルの画面の表示例及びタッチ操作(第1のタッチ入力操作を親指と人差し指で行う場合)を示す図である。 実施の形態4における画面全体入力判定部の相対タッチ入力判定部による選択値の変更処理を示すフローチャートである。
 以下に、本発明の実施の形態に係るタッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラムを、添付図面を参照しながら説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
 実施の形態に係るタッチパネル入力装置は、タッチ操作(「タッチジェスチャ操作」とも言う)用の画面(すなわち、操作画面)を持つタッチパネルと、タッチパネルにおけるタッチ操作に応じた操作情報を受け取るタッチ入力判定装置とを具備している。タッチ入力判定装置は、タッチパネルにおけるタッチ操作によって入力された操作情報に応じた出力情報(例えば、選択値)を出力する。実施の形態に係るタッチ入力判定装置又はタッチパネル入力装置は、システム(例えば、設備又は機器など)に搭載され、システムに提供される選択値を新たな選択値に変更することができる。ここで、システムは、例えば、エレベータシステムであり、選択値は行先階を示す数値である。ただし、システムは、エレベータシステム以外のシステム(例えば、音響機器など)であってもよく、選択値は行先階以外の数値(例えば、音量を示す数値など)であってもよい。
《1》実施の形態1
《1-1》構成
 図1は、本発明の実施の形態1に係るタッチパネル入力装置1(タッチ入力判定装置10を含む)の構成を概略的に示す機能ブロック図である。図1に示されるように、タッチパネル入力装置1は、タッチ入力判定装置10と、タッチパネル20とを具備している。タッチパネル20は、ユーザによるタッチ操作を受け付ける操作パネル部(ユーザ操作部)21と、操作パネル部21に重ねて配置され、ユーザに画像を提供する表示パネル部(表示装置)22とを備えている。タッチ入力判定装置10は、実施の形態1に係るタッチ入力判定方法を実施することができる装置である。また、タッチ入力判定装置10は、実施の形態1に係るタッチ入力判定プログラムを実行することができる装置である。
 図1に示されるように、タッチ入力判定装置10は、操作情報入力部11と、ユーザによる操作情報に関する処理を行う操作判定部12と、ユーザに提供される音声情報を音声出力装置(例えば、スピーカ)に提供する通知部18と、タッチパネル20の表示パネル部22又は他の表示装置に画像情報を提供する表示制御部19とを具備している。
 また、操作判定部12は、操作モードの切り替えに関する処理を行う操作モード切替部13と、画面全体操作モードにおける操作情報に関する処理を行う画面全体入力判定部14と、画面部品操作モードにおける操作情報に関する処理を行う表示部品入力判定部15とを具備している。画面全体入力判定部14は、相対タッチ入力判定部16と、ジェスチャ入力判定部17とを具備している。ただし、タッチ入力判定装置10の構成は、図1の例に限定されない。
 先ず、実施の形態1に係るタッチ入力判定装置10の概要を説明する。タッチ入力判定装置10において、先ず、操作モード切替部13は、タッチパネル20におけるタッチ操作の対象を切り替える。具体的には、操作モード切替部13は、タッチパネル20の画面に表示された表示部品をタッチ操作の対象とする表示部品操作モード又はタッチパネル20の画面の全体をタッチ操作の対象とする画面全体操作モードを選択する。この選択は、例えば、ユーザ操作に応じて又は予め決められた設定情報に従って行われる。また、タッチパネル20の画面の全体とは、画面の完全に全体であってもよいが、画面のうちの予め決められた範囲の全体であってもよい。
 次に、選択値の初期値が入力される。この初期値は、予め決められた値、表示部品操作モードで入力された値、又は画面全体操作モードで入力された値などである。
 次に、操作モード切替部13は、操作モードを表示部品操作モードから画面全体操作モードに切り替える。この切り替えは、ユーザ操作に従って行われる。
 次に、画面全体入力判定部14は、タッチパネル20の画面におけるタッチ操作である第1のタッチ入力操作であるタッチが行われたときに(例えば、後述の図4(a)に例示される)、第1のタッチ入力操作を受け付けた画面上の位置を基準座標点とし、基準座標点に対し予め決められた関係を持つ基準線を設定することで、画面上に基準線で区分される複数の操作対象領域としてのタッチ入力領域を設定する。基準座標点に対し予め決められた関係を持つ基準線とは、例えば、基準座標点上を通過し画面の水平方向に平行な直線、基準座標点上を通過し画面の垂直方向に平行な直線、基準座標点上を通過し画面の水平方向に対し傾斜した直線などである。ただし、基準線は、曲線とすることも可能である。また、基準線は、複数の直線を含むことも可能である。
 次に、画面全体入力判定部14は、複数のタッチ入力領域のいずれかを選択するタッチ操作である第2のタッチ入力操作であるタップが行われたときに(例えば、後述の図4(b)及び(c)に例示される)、選択されたタッチ入力領域に応じて決定された変化量を用いて選択値を新たな選択値に変更する。決定された変化量を用いてとは、現在の選択値に変化量を加算することで新たな選択値を算出する場合と、現在の選択値から変化量を減算することで新たな選択値を算出する場合とがある。ただし、新たな選択値の算出方法は、変化量の加算又は減算に限定されず、他の計算式によって新たな選択値を算出してもよい。また、画面全体入力判定部14は、変更後の新たな選択値を、現在の選択値として確定するためのタッチ操作をユーザに要求してもよい。
 システムにタッチパネル入力装置1又はタッチ入力判定装置10を搭載することにより、ユーザは、基準座標点を基準にして決められた基準線によって区分された領域であるユーザ操作領域を自身で指でタッチして指定して基準線を設定し、その直後に、ユーザ操作領域をタップするタッチ操作(「相対タッチ入力」とも言う。)によって相対タッチ入力値である変化量を入力することができる。このように、ユーザは、例えば、左手で画面をタッチして基準座標点を設定しながら、右手で基準座標点より相対的に上側のユーザ操作領域又は相対的に下側のユーザ操作領域をタップする相対タッチ入力を行うことで、変化量を入力することができる。このため、ユーザは、タッチパネル20の画面を見ない状態において、画面全体操作モードのタッチ操作を容易に行うことができ、また、タッチ操作による入力誤りを減らすことができる。
 次に、実施の形態1に係るタッチ入力判定装置10の詳細を説明する。
 操作情報入力部11は、タッチパネル20で行われたタッチ操作に基づく操作情報を受け取り、操作情報に基づく信号を操作判定部12内の各機能ブロックに提供する。
 操作モード切替部13は、操作情報入力部11から操作情報に基づく信号を受け取り、タッチ操作が操作モードの切り替えに関する操作であるか否かを判定する。操作モード切替部13は、タッチ操作が操作モードの切り替えに関する操作であると判定したときに、操作モードを表示部品操作モードから画面全体操作モードに、又は、画面全体操作モードから表示部品操作モードに切り替える。
 画面全体入力判定部14は、画面全体操作モードのときに、画面の全体に対するタッチ操作に応じた操作情報から入力内容を識別し、選択値の変更及び決定などを行う。画面の全体に対するタッチ操作に応じた操作情報の入力内容は、相対タッチ入力判定部16及びジェスチャ入力判定部17により識別される。相対タッチ入力判定部16は、相対タッチ入力の基準とする点(すなわち、基準座標点)と、選択値を決定するための相対タッチ入力点(すなわち、タッチ入力操作の位置)を入力として受け付け、相対タッチ入力値を用いた計算によって、現在の選択値を新たな選択値に変更し、決定する処理を行う。ジェスチャ入力判定部17は、画面全体操作モードにおける任意のパターンのタッチ操作であるジェスチャ入力を判定し、ジェスチャ入力に対応する処理を行う。
 表示部品入力判定部15は、表示部品操作モードのときに、画面に表示される表示部品に対するタッチ操作に応じた操作情報から入力内容を識別し、操作の受け付け及び選択値の決定などを行う。
 通知部18は、画面全体入力判定部14によって現在の選択値が変更後の新たな選択値に変更されたときに、音声によって選択値を通知するための音声信号を音声出力装置(例えば、スピーカ)に送信する。また、通知部18は、他の通知を音声として出力させるための音声信号を音声出力装置に出力してもよい。また、通知部18自身が、スピーカを備えてもよい。
 表示制御部19は、画面全体入力判定部14によって、現在の選択値が変更後の新たな選択値に変更された場合、操作画面の表示を変更前の現在の選択値から変更後の新たな選択値に変更する。実施の形態1において、表示制御部19は、タッチパネル20の表示パネル部22又は図示しない他の表示装置(例えば、液晶モニタ)に画像情報を提供する。
 選択値は、操作判定部12がタッチ入力情報を基に決定した選択値であり、この値を基にして、システムのアプリケーションなどが、設備又は機器の動作を制御する。
 図2は、実施の形態1に係るタッチパネル入力装置1(タッチ入力判定装置10を含む)のハードウェア構成の一例を示す図である。タッチパネル20は、ユーザの指の接触を検知し、操作情報(各指の識別情報、指の接触位置の座標情報、指の接触状態を示す情報など)を生成することができる。プロセッサ31がメモリ32に記憶されているソフトウェアであるタッチ入力判定プログラムを実行することにより、タッチ入力判定装置10の各構成の機能が実現される。また、プロセッサ31は、メモリ32に記憶したタッチ操作に応じた操作情報から、画面全体操作モードであるか表示部品操作モードであるかを判定し、それぞれの操作モードにおいて選択値を決定する。
 図3(a)は、表示部品操作モードにおけるタッチパネル20の画面の表示例を示す図であり、図3(b)は、画面全体操作モードにおけるタッチパネル20の画面の表示例を示す図である。
 ユーザは、画面を指で左方向又は右方向にスワイプする操作を行うことによって画面の表示内容を切り替えることが可能である。図3(a)に示される表示部品操作モードにおいて、操作画面に、選択値を直接選択するためのボタンなど、操作対象とする様々な部品が表示される。表示部品が表示される領域に対し、タッチ操作であるタップを行うことにより、タップされた表示部品に応じた動作(例えば、選択値を表示部品に応じた数値に設定する)が行われる。
 図3(b)に示される画面全体操作モードで表示する操作画面には、現在の選択値の表示及び画面切り替えのための操作指示を促す表示などが表示される。この画面においては、タッチ操作によって相対タッチ入力の基準とする点である基準座標点を入力した後、タッチ操作によって選択値を変更及び決定するためのタッチ入力点である相対タッチ入力点をタップすることにより、相対タッチ入力点の相対的な位置情報に基づく変化量を取得し、この変化量を用いて選択値を変更する計算を行い、新たな選択値をタッチパネル入力装置1が搭載されたシステムに提供する。また、ジェスチャの入力を認識させ、例えば、画面下部の「Cancel」を囲む矩形領域を選択してスワイプすることにより、操作モードを画面全体操作モードから表示部品操作モードへ切り替える。
 図4(a)から(c)は、画面全体操作モードにおけるタッチパネル20の画面101の表示例及びユーザの手40,41によるタッチ操作を示す図であり、図4(a)は、基準座標点102を入力するために行われるタッチ操作である第1のタッチ入力操作を示し、図4(b)及び(c)は、基準座標点102を通る水平方向の基準線103で区分されたタッチ入力領域104,105をタップするタッチ操作である第2のタッチ入力操作を示す。
 画面全体操作モードの画面101において、基準座標点102をタッチするタッチ操作を行うことで、基準座標点102が入力される。図4(a)の場合には、画面全体入力判定部14は、基準座標点102を通過する水平方向の直線(水平線)を基準線(境界線)103と定義し、図4(b)に示される基準線103の上側のユーザ操作領域104を上ボタンとして機能させ、図4(c)に示される下側のユーザ操作領域105を下ボタンとして機能させる。したがって、ユーザは、図4(b)に示される上側のユーザ操作領域104である上ボタンをタップすることで現在の選択値「14」に予め決められた変化量である「1」を加算して、現在の選択値を「14」から「15」に変更する。また、ユーザは、図4(c)に示される下側のユーザ操作領域105である下ボタンをタップすることで現在の選択値「14」から予め決められた変化量である「1」を減算して、現在の選択値を「14」から「13」に変更する。このように、基準座標点を通る水平線を基準線にすることにより、上側のユーザ操作領域104を増加方向の変化量を入力するための領域とし、下側のユーザ操作領域105を減少方向の変化量を入力するための領域としている。なお、上側のユーザ操作領域104又は下側のユーザ操作領域105をタップしたときの変化量は、「1」に限定されず、他の値であってもよい。
 図5(a)から(c)は、画面全体操作モードにおけるタッチパネル20の画面111の表示例及びユーザの手40,41によるタッチ操作を示す図であり、図5(a)は、基準座標点112を入力するために行われるタッチ操作である第1のタッチ入力操作を示し、図5(b)及び(c)は、基準座標点を112を通る垂直方向の基準線113で区分されたタッチ入力領域114,115をタップするタッチ操作である第2のタッチ入力操作を示す。
 画面全体操作モードの画面111において、基準座標点112をタッチするタッチ操作を行うことで、基準座標点112が入力される。図5(a)の場合には、画面全体入力判定部14は、基準座標点112を通過する垂直方向の直線(垂直線)を基準線(境界線)113と定義し、図5(b)に示される基準線113の右側のユーザ操作領域114を右ボタンとして機能させ、図5(c)に示される左側のユーザ操作領域155を左ボタンとして機能させる。したがって、ユーザは、図5(b)に示される右側のユーザ操作領域114である右ボタンをタップすることで現在の選択値「14」に予め決められた変化量である「1」を加算して、現在の選択値を「14」から「15」に変更する。また、ユーザは、図5(c)に示される左側のユーザ操作領域115である左ボタンをタップすることで現在の選択値「14」から予め決められた変化量である「1」を減算して、現在の選択値を「14」から「13」に変更する。このように、基準座標点112を通る垂直線を基準線113にすることにより、右側のユーザ操作領域114を増加方向の変化量を入力するための領域とし、左側のユーザ操作領域115を減少方向の変化量を入力するための領域としている。なお、右側のユーザ操作領域114又は左側のユーザ操作領域115をタップしたときの変化量は、「1」に限定されず、他の値であってもよい。
 図6(a)から(c)は、画面全体操作モードにおけるタッチパネル20の画面121の表示例及びユーザの手40,41によるタッチ操作を示す図であり、図6(a)は、基準座標点122を入力するために行われるタッチ操作である第1のタッチ入力操作を示し、図6(b)及び(c)は、基準座標点122を通る基準線123,124で区分された4つのタッチ入力領域(124,125など)をタップするタッチ操作である第2のタッチ入力操作を示す。
 画面全体操作モードの画面121において、基準座標点122をタッチするタッチ操作を行うことで、基準座標点122が入力される。図6(a)の場合には、画面全体入力判定部14は、基準座標点122を通過する、水平方向に対し予め決められた角度傾斜した直線を基準線(境界線)123,124と定義し、図6(b)に示される基準線123,124の右側のユーザ操作領域125を右ボタンとして機能させ、基準線123,124の左側のユーザ操作領域を左ボタンとして機能させ、図6(c)に示される上側のユーザ操作領域126を上ボタンとして機能させ、下側のユーザ操作領域を下ボタンとして機能させる。基準線123は、水平方向に対して45度右上がりに傾斜した直線であり、基準線124は、水平方向に対して45度右下がりに傾斜した直線である。ただし、傾斜角及び傾斜方向は、図示の例に限定されない。また、基準線は1本又は3本以上とすることも可能である。
 図6(b)に示される右側のユーザ操作領域125である右ボタン、左側のユーザ操作領域である左ボタン、図6(c)に示される上側のユーザ操作領域126である上ボタン、下側のユーザ操作領域である下ボタンの各々に、機能又は数値を割り当てることができる。
 基準座標点に基づいて設定される基準線は、動作させるアプリケーションに適した振る舞いに適したものが選択される。例えば、エレベータにおける行先階の選択時の操作には、図4(a)から(c)に示される上ボタンと下ボタンとで入力の受け付け機能を適用し、カーソル移動をする場合には、図6(a)から(c)に示される上下左右方向の入力の受け付け機能を適用する。
《1-2》動作
 図7は、システムに搭載されたタッチ入力判定装置10の動作を示すフローチャートである。
 ステップS101において、タッチ入力判定装置10が搭載されたシステムを起動すると、システムを構成する各部の初期化が実施され、タッチ入力判定装置10は表示部品操作モードで起動する。
 次のステップS102において、操作モード切替部13は、操作情報入力部11から入力されたタッチ操作に応じた操作情報を基に、操作モードの切り替えを指示する指示信号である切替入力を検知したかどうかを判断する。切替入力を検知した場合(ステップS102においてYES)、処理はステップS103に進み、操作モードを表示部品操作モードから画面全体操作モードに切り替える(すなわち、遷移する)。
 ステップS104において、相対タッチ入力判定部16は、入力されたタッチ操作に応じた操作情報から相対タッチ入力に関する情報を識別し、相対タッチ入力に応じた変化量を決定し、この変化量を用いて現在の選択値から変更後の新たな選択値を算出する。選択値の決定処理は、後述の図8に示される。
 ステップS105において、ステップS104で決定した新たな選択値を表示制御部19に渡すことにより、タッチパネル20における表示内容を切り替え、操作内容を反映した画面を表示する。
 ステップS106において、ステップS104で決定した選択値を通知部18に渡すことにより、通知内容を切り替え、操作結果後の状況の通知及び操作を促す音声出力(アナウンス)を、スピーカから出力させる。
 次のステップS107において、ジェスチャ入力判定部17は、操作情報入力部11から入力されたタッチ操作に応じた操作情報とタッチの履歴情報から、表示部品操作モードへの切替入力の有無を判定する。切替入力を検知した場合は(ステップS107においてYES)、ステップS108で操作モードを画面全体操作モードから表示部品操作モードに切り替え、画面は初期起動時に表示した表示部品の操作画面に移行する。表示部品操作モードへの切替入力が無い場合は(ステップS107においてNO)、切替入力を受け付けるまで、相対タッチ入力判定部16によるタッチ入力操作を受け付け、それに応じて、表示内容及び通知内容を切り替える。
 ステップS102の画面切り替えに関する入力判定において、入力内容が画面全体操作モードへの切り替えではなかった場合(ステップS102においてNO)、ステップS109で表示部品入力判定部15は、表示部品に対する入力判定を実施する。表示部品入力判定部15は、表示部品の操作範囲にタッチ入力座標が含まれるか否かにより入力の判定が表示部品判定であるかどうかを判定する。表示部品の操作入力を検知した場合(ステップS109においてYES)、ステップS110において、表示部品入力判定部15は、選択値の決定を行い、操作対象が表示部品でない場合は(ステップS109においてNO)、処理はステップS102に戻る。
 ステップS110において、表示部品入力判定部15は、操作情報入力部11から入力されたタッチ操作に応じた操作情報を基に、選択値を変更及び決定する。選択の例として、図3(a)の各表示部品の表示画面に示すように、ボタンなど、固有の選択値を割り当てた表示部品を配置し、表示部品へのタッチ入力により選択値を、タッチ入力された値に変更及び決定する。
 ステップS111において、ステップS110で決定した選択値を表示制御部19に渡すことにより、タッチパネル20における表示内容を切り替え、操作内容に対応する画面を表示する。
 ステップS112で、ステップS110で決定した選択値を通知部18に渡すことにより、スピーカからの音声による通知内容を切り替え、操作結果後の状況の通知及び操作を促すアナウンスを実施する。
 図8は、実施の形態1における画面全体入力判定部14の相対タッチ入力判定部16による選択値の変更処理(ステップS104)を示すフローチャートである。
 ステップS201において、相対タッチ入力判定部16は、タッチ入力の有無を判定し、タッチ入力が無い場合(ステップS201においてNO)、処理をステップS202に進め、基準座標点の入力のためのタッチ入力を受け付ける。この状態は、基準座標点の入力受付状態である。一方、タッチ入力点が既に存在する場合は(ステップS201においてYES)、ステップS203において、相対タッチ入力判定部16は、1点のタッチ入力となっているかを判定し、1点のタッチ入力であれば(ステップS203においてYES)、処理をステップS204に移行する。タッチ入力点が1点でない場合は(ステップS203においてNO)、相対タッチ入力判定部16は、処理をステップS201に戻す。
 ステップS204において、相対タッチ入力判定部16は、入力されたタッチ操作に応じた操作情報を識別し、タッチ入力点を基準座標点として割り当てる。また、相対タッチ入力判定部16は、受付状態を、基準座標点の入力受付状態からタッチ入力の受付状態に遷移させ、次に入力されるタッチ操作に応じた操作情報は選択値に影響するタッチ入力点として識別する。
 ステップS205において、相対タッチ入力判定部16は、タッチ入力の受付状態において、先に入力している基準座標点の指がタッチパネル20に接触しているか非接触であるかを判定する処理である非接触判定を行ない、基準座標点の指がタッチパネル20から離れていた場合には(ステップS205においてYES)、処理を相対タッチ入力の判定処理の開始時であるステップS201に戻す。
 ステップS205において、基準座標点の指がタッチパネル20に接触している場合には(ステップS205においてNO)、ステップS206において、相対タッチ入力判定部16は、基準座標点以外のタッチ入力を検知したかどうかを判定する。タッチ入力があった場合は(ステップS206においてYES)、相対タッチ入力判定部16は、入力値の判定処理に移行する。タッチ入力が無い場合は(ステップS206においてNO)、相対タッチ入力判定部16は、処理をステップS205に戻し、継続してタッチ入力情報の監視を行う。
 ステップS207において、相対タッチ入力判定部16は、相対タッチ入力があった瞬間において、基準座標点の座標値を取得し、その情報から基準線を算出する。図4(a)から(c)、図5(a)から(c)、図6(a)から(c)に示される基準線のいずれを使用するかについては、システムにおいて起動しているアプリケーションの状態に応じて予め決められたものが使用される。そして、基準線の種類に従い、基準座標点の座標値から基準線を決定する。
 ステップS208において、相対タッチ入力判定部16は、ステップS207で決定した基準線に対し、ステップS206で検知した相対タッチ入力点の相対位置を判定し、それに応じた相対タッチ入力値を決定する。
 ステップS209において、相対タッチ入力判定部16は、ステップS208で決定した相対タッチ入力値を用いて選択値を算出する。図4(b)の例において、タッチ入力前の選択値が「14」であり、それに「1」を加算し、新たな選択値を「15」とする。
 以上の相対タッチ入力判定部16における処理と、通知部18における操作結果後の状況通知及び操作を促すアナウンスにより、タッチパネル20を目視せずに選択値を決定することが可能となる。
《1-3》効果
 以上に説明したように、実施の形態1によれば、ユーザは、基準座標点を基準にして決められた基準線によって区分されたユーザ操作領域を自分自身で指で指定し、その直後に、ユーザ操作領域をタップする相対タッチ入力を行うことによって相対タッチ入力値である変化量を入力することができる。このように、ユーザは、ユーザ自身が入力した基準座標点より相対的に上側のユーザ操作領域又は相対的に下側のユーザ操作領域でタッチ操作を行うことで、変化量を入力することができる。このため、ユーザは、タッチパネル20の画面を見ない状態において、画面全体操作モードのタッチ操作を容易に行うことができ、また、タッチ操作による入力誤りを減らすことができる。
《2》実施の形態2.
 上記実施の形態1において、タッチパネル20におけるタッチ操作において1本の指をタッチパネル20上の1点にタッチさせることで1つの基準座標点が入力され、この1つの基準座標点を通過する予め決められた方向の基準線(例えば、水平線又は垂直線など)が設定され、この基準線によって区分された複数の領域のいずれかを1本の指でタッチすることで(すなわち、1つのタッチ入力点によって)、現在の選択値に加算される又は現在の選択値から減算される変化量である相対タッチ入力値が入力される場合を説明した。これに対し、実施の形態2においては、タッチ操作によって基準線の傾き(すなわち、基準線の方向)を変更する方法を説明する。基準線の傾きを変更する機能を除いて、実施の形態2に係るタッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラムは、実施の形態1のものと同様である。このため、実施の形態2の説明においては、図1、図2、及び図7をも参照する。
 図9は、実施の形態2に係るタッチパネル入力装置における基準線203の傾きの補正処理を示す図である。通常、タッチパネル20からタッチ入力判定装置10に、タッチパネルにユーザの人差し指を接触させた場合のデータとして1点の座標入力が通知される。これは、タッチパネル20を制御するソフトウェア(S/W)ドライバにおいて、タッチパネル20に対する人差し指の接触領域情報(形状等も把握可能な詳細な情報を含む)からドライバにて1点の入力に集約している。そこで、1点の座標入力ではなく、接触領域情報を取得し、その入力情報の形状を識別し基準線を補正することが可能である。
 例として、図4(a)から(c)に示される上側のタッチ入力領域と下側のタッチ入力領域に対する相対タッチ入力を行う場合には、基準座標点202の入力の際も領域を分ける水平線をイメージし、図9のように人差し指を横方向に維持して入力する。その場合、人差し指の腹の部分をタッチパネル20の画面201に接触させるため、接触領域情報が楕円形状になり得る。そこで、楕円形状の長軸方向の傾き情報を取得し、基準線の傾きを補正する。
 以上に説明したように、実施の形態2によれば、基準線203の補正処理により、例えば、タッチパネル20自体が傾いていた場合においても、ユーザの入力に従って基準線203を設定するため、入力誤りを減らすことができる。
《3》実施の形態3.
 上記実施の形態1及び2においては、タッチパネル20におけるタッチ操作である相対タッチ入力に際し、1本の指を使う1点タッチ入力が使用されるが、実施の形態3においては、1点タッチ入力だけでなく、複数本の指を使う多点タッチ入力も使用される。つまり、実施の形態3においては、相対タッチ入力における相対タッチ入力点の数は1点に限定されず、相対タッチ入力点の数が複数である場合には、相対タッチ入力点の数に応じて相対タッチ入力値を変更し、相対タッチ入力値を用いて出力情報としての選択値を変更する例を説明する。相対タッチ入力点の数に応じて相対タッチ入力値を変更する点を除いて、実施の形態3に係るタッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラムは、実施の形態1又は2のものと同様である。このため、実施の形態3の説明においては、図1、図2、及び図7をも参照する。
 図10(a)から(c)は、本発明の実施の形態3に係るタッチパネル入力装置(タッチ入力判定装置を含む)の画面全体操作モードにおけるタッチパネル20の画面301の表示例及びタッチ操作を示す図であり、図10(a)は、基準座標点302を入力するために行われるタッチ操作である第1のタッチ入力操作を示し、図10(b)及び(c)は、基準座標点302を通る水平方向の基準線で区分された操作対象領域をタップするタッチ操作である第2のタッチ入力操作である相対タッチ入力を示す。
 ここでは、相対タッチ入力点の数を相対タッチ入力値の10の位の値に結び付け、1点の入力であれば相対タッチ入力値として「1」を、2点の入力であれば相対タッチ入力値として「10」を設定する。そして、その結果を選択値に反映させるため、図10(b)の入力では選択値が「14」から「15」に変更されるのに対し、図10(c)の入力では選択値が「14」から「24」に変更される。
 以上に説明したように、実施の形態3によれば、相対タッチ入力点の個数に応じて相対タッチ入力値を変更する方式により、大きな数値入力も容易に決定することが可能となる。
《4》実施の形態4.
 上記実施の形態1においては、タッチパネル20におけるタッチ操作においてタッチパネル20の画面上に1本の指(すなわち、1点)をタッチさせることで1つの基準座標点が入力され、1つの基準座標点と予め決められた関係を持つ基準線(例えば、基準座標点上を通過する基準線)が設定され、基準線によって区分された複数のタッチ入力領域のいずれかを指でタッチする相対タッチ入力によってタッチ入力情報(例えば、変化量)を取得し、タッチ入力情報を用いて出力情報(例えば、選択値)を変更する例を説明した。
 これに対し、実施の形態4においては、タッチパネル20におけるタッチ操作においてタッチパネル20の画面上に2本の指(すなわち、2点)をタッチさせることで2つの基準座標点が入力され、2つの基準座標点と予め決められた関係を持つ基準線(例えば、2つの基準座標点上を通過する基準線)が設定され、基準線によって区分された複数のタッチ入力領域のいずれかを指でタッチする相対タッチ入力によってタッチ入力情報(例えば、変化量)を取得し、タッチ入力情報を用いて出力情報(例えば、選択値)を変更する例を説明する。この点を除いて、実施の形態4に係るタッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラムは、実施の形態1のものと同様である。このため、実施の形態4の説明においては、図1、図2、及び図7をも参照する。
 図11は、本発明の実施の形態4に係るタッチパネル入力装置(タッチ入力判定装置を含む)の画面全体操作モードにおけるタッチパネル20の画面401の表示例及びタッチ操作(第1のタッチ入力操作を親指と人差し指で行う場合)を示す図である。図11に示されるように、実施の形態4においては、基準座標点を入力するために行われるタッチ操作が、2本の指(例えば、親指と人差し指)で行われ、2つの基準座標点402,403が入力され、2つの基準座標点402,403を通過する直線を基準線404とする。また、3点以上の基準座標点を入力してもよく、基準線を設定する際には、全ての基準座標点の重心を通る線(例えば、水平線又は垂直線)を基準線とすることが可能である。
 図12は、実施の形態4における画面全体入力判定部14の相対タッチ入力判定部16による出力情報である選択値の変更処理を示すフローチャートである。
 ステップS301において、相対タッチ入力判定部16は、タッチ入力の有無を判定し、タッチ入力が無い場合(ステップ301においてNO)、処理をステップS302に進め、基準座標点のタッチ入力を受け付け、タッチ入力点の数及び座標、タッチ入力点に指が接触状態にあるか非接触状態にあるかを示す情報を取得する。
 ステップS303において、相対タッチ入力判定部16は、タッチ入力点にある指がタッチパネル20から離れる動作(すなわち、接触状態から非接触状態になる動作)を検知した場合、ステップS304において、タッチパネル20から指が離れたタッチ入力点が最後に入力されたタッチ入力点であるか否かを判定する。つまり、相対タッチ入力判定部16は、タッチパネル20に対し、ある1点のタッチ入力が行なわれ、その直後に、そのタッチ入力点が離れる動作を識別する。相対タッチ入力判定部16は、この1点のタッチ入力の対象であるタッチ入力点を、選択値を決定するための変化量を入力するための相対タッチ入力のタッチ入力点であると認識する。
 ステップS305において、相対タッチ入力判定部16は、選択値を決定するためのタッチ入力点が離れた時点(ステップS304においてYES)において、まだタッチパネル20に他のタッチ入力点が存在するか否かを判定し、他のタッチ入力点が存在する場合は(ステップS305においてYES)、そのタッチ入力点の全てを、基準線404を設定するための基準座標点402,403として識別し、処理をステップS306に進める。また、他のタッチ入力が無い場合は(ステップS305においてNO)、相対タッチ入力判定部16は、基準線を設定することができないため、処理をステップS303に戻し、タッチ入力点の再入力を待つ。
 ステップS306において、相対タッチ入力判定部16は、識別した複数の基準座標点402,403の情報から、基準線404の設定仕様を決定する。例えば、相対タッチ入力判定部16は、2点の基準座標点が存在する場合、基準線の設定仕様として、その2点の基準座標点を通過する直線として計算することで基準線404を決定する。また、相対タッチ入力判定部16は、この基準線404の仕様は、タッチ入力点に接触している指の全てがタッチパネル20から離されるまで変更せず、タッチパネル20からタッチ入力点の指の全てが離れるまで相対タッチ入力の入力方式を固定する。
 ステップS307において、相対タッチ入力判定部16は、実際の基準座標点の各座標を取得し、座標を示す情報から基準線404を算出する。
 ステップS308において、相対タッチ入力判定部16は、ステップS307で算出した基準線404に対し、ステップS303で検知したタッチ入力点の相対位置を判定し、それに応じた相対タッチ入力値を決定する。
 ステップS309において、相対タッチ入力判定部16は、ステップS308で決定した相対タッチ入力値を用いて、現在の選択値を変更して、新たな選択値を決定する。相対タッチ入力値及び選択値の決定方法は、実施の形態1のものと同様である。
 一方、ステップS301において、相対タッチ入力の判定処理の開始時に、既にタッチ入力が存在した場合(ステップS301においてYES)、相対タッチ入力判定部16は、処理をステップS310に進め、基準線の設定仕様が既に決定済みか否かを判定する。ステップS310からS312の処理は、一連の相対タッチ入力の判定処理(ステップS301~S309)を実行した後に、タッチパネル20の画面にタッチ入力点が存在し続け相対タッチ入力判定部16が、引き続きタッチ入力を判定する際の処理フローである。ステップS310における設定仕様は、ステップS306で決定したものを指す。また、ステップS310において基準線の設定仕様が決定していない場合は、相対タッチ入力判定部16は、処理をステップS301に戻し、タッチパネル20への入力操作のやり直しを促す。
 ステップS311において、相対タッチ入力判定部16は、選択値を決定するための相対タッチ入力点の入力動作である相対タッチ入力を検知する。
 ステップS312において、相対タッチ入力判定部16は、ステップS311のタッチ入力点の入力動作を踏まえ、ステップS310で確認した基準線の設定仕様通りの入力となっているかを判定し、仕様通りの入力となっていれば、処理をステップS307に進めて、選択値を変更及び決定するための処理を行う。ステップS312において、基準線の設定仕様通りの入力とならず、現在のタッチ入力点との整合性が確保できない状況の場合には、相対タッチ入力判定部16は、処理をステップS301に戻し、タッチパネル20への入力操作のやり直しを促す。
 以上に説明したように、実施の形態4によれば、複数の基準座標点を基に基準線404を設定するので、任意のタッチ入力点数によって任意の基準線を設定することができる。このため、ユーザは、タッチパネル20を目視しない状況で基準座標点の入力を行い、自身の基準座標点の入力に合わせて、相対タッチ入力を行うことができるので、入力誤りを減らすことができる。
 なお、上記実施の形態1から4の構成は、適宜、互いに組み合わせることが可能である。
 また、上記実施の形態1から4で説明した構成及び動作は、例示であり、ユーザがタッチパネル20の画面をタッチして基準座標点を指定し、その直後に、ユーザが同じタッチパネル20の画面で相対タッチ入力を行うことを特徴とする他の構成及び動作に変更することが可能である。
 1 タッチパネル入力装置、 10 タッチ入力判定装置、 11 操作情報入力部、 12 操作判定部、 13 操作モード切替部、 14 画面全体入力判定部、 15 表示部品入力判定部、 16 相対タッチ入力判定部、 17 ジェスチャ入力判定部、 18 通知部、 19 表示制御部、 20 タッチパネル、 21 操作パネル部(ユーザ操作部)、 22 表示パネル部(表示装置)、 31 プロセッサ、 32 メモリ、 33 スピーカ(音声出力装置)、 40,41 手、 101,111,121,201,301,401 画面、 102,112,122,202,302,402 基準座標点、 103,113,123,124,203,303,403 基準線、 104,105,114,115,125,126 タッチ入力領域。

Claims (13)

  1.  タッチパネルにおけるタッチ操作によって入力された操作情報に応じた出力情報を出力するタッチ入力判定装置であって、
     前記タッチパネルにおけるタッチ操作の対象を切り替える操作モード切替部と、
     前記操作モード切替部が前記タッチパネルの画面の全体をタッチ操作の対象とする画面全体操作モードを選択したときに、前記タッチ操作に応じた操作情報に基づく処理を実行することで前記出力情報を生成する画面全体入力判定部と、
     を備え、
     前記画面全体入力判定部は、
     前記画面における前記タッチ操作である第1のタッチ入力操作が行われたときに、前記第1のタッチ入力操作を受け付けた前記画面上の位置を基準座標点とし、前記基準座標点に対し予め決められた関係を持つ基準線を設定することで、前記画面上に前記基準線で区分される複数のタッチ入力領域を設定し、
     前記複数のタッチ入力領域のいずれかを選択する前記タッチ操作である第2のタッチ入力操作が行われたときに、選択された前記タッチ入力領域に応じて決定されたタッチ入力情報を用いて前記出力情報を変更する
     ことを特徴とするタッチ入力判定装置。
  2.  前記出力情報は、選択値を示し、
     前記タッチ入力情報は、前記選択値の変化量を示し、
     前記画面全体入力判定部は、前記変化量を用いて前記選択値を新たな選択値に変更する
     ことを特徴とする請求項1に記載のタッチ入力判定装置。
  3.  前記基準線は、前記基準座標点を通過する線であることを特徴とする請求項1又は2に記載のタッチ入力判定装置。
  4.  前記基準線は、前記画面の水平方向に平行な直線、前記画面の垂直方向に平行な直線、及び前記水平方向に対し予め決められた角度傾斜した直線のうちの1つ以上を含むことを特徴とする請求項1から3のいずれか1項に記載のタッチ入力判定装置。
  5.  前記基準線は、直線及び曲線の少なくとも一方を含むことを特徴とする請求項1から3のいずれか1項に記載のタッチ入力判定装置。
  6.  前記画面全体入力判定部は、
     前記第1のタッチ入力操作を行う指が前記画面に接触する領域を示す接触領域情報を取得し、
     前記接触領域情報に基づいて前記基準線の方向を決定する
     ことを特徴とする請求項1から3のいずれか1項に記載のタッチ入力判定装置。
  7.  前記画面全体入力判定部は、前記第1のタッチ入力操作が2本の指で行われたときに、前記第1のタッチ入力操作を受け付けた前記画面上の2つの位置を2つの前記基準座標点とし、2つの前記基準座標点に対し予め決められた関係を持つ前記基準線を設定することを特徴とする請求項1から3のいずれか1項に記載のタッチ入力判定装置。
  8.  前記画面全体入力判定部は、
     前記第2のタッチ入力操作を行う指の本数に応じて、前記タッチ入力情報として互いに異なる値を設定する
     ことを特徴とする請求項1から7のいずれか1項に記載のタッチ入力判定装置。
  9.  前記第2のタッチ入力操作に関する情報、前記タッチ入力情報、及び前記出力情報のうちの1つ以上を通知する音声を音声出力装置から出力させる通知部をさらに有することを特徴とする請求項1から8のいずれか1項に記載のタッチ入力判定装置。
  10.  前記第2のタッチ入力操作に関する情報、前記タッチ入力情報、及び前記出力情報のうちの1つ以上を前記タッチパネルに表示させる表示制御部をさらに有することを特徴とする請求項1から9のいずれか1項に記載のタッチ入力判定装置。
  11.  タッチパネルと、
     前記タッチパネルにおけるタッチ操作によって入力された操作情報に応じた出力情報を出力するタッチ入力判定装置と、
     を有するタッチパネル入力装置であって、
     前記タッチパネルにおけるタッチ操作の対象を切り替える操作モード切替部と、
     前記操作モード切替部が前記タッチパネルの画面の全体をタッチ操作の対象とする画面全体操作モードを選択したときに、前記タッチ操作に応じた操作情報に基づく処理を実行することで前記出力情報を生成する画面全体入力判定部と、
     を備え、
     前記画面全体入力判定部は、
     前記画面における前記タッチ操作である第1のタッチ入力操作が行われたときに、前記第1のタッチ入力操作を受け付けた前記画面上の位置を基準座標点とし、前記基準座標点に対し予め決められた関係を持つ基準線を設定することで、前記画面上に前記基準線で区分される複数のタッチ入力領域を設定し、
     前記複数のタッチ入力領域のいずれかを選択する前記タッチ操作である第2のタッチ入力操作が行われたときに、選択された前記タッチ入力領域に応じて決定されたタッチ入力情報を用いて前記出力情報を変更する
     ことを特徴とするタッチパネル入力装置。
  12.  タッチパネルにおけるタッチ操作によって入力された操作情報に応じた出力情報を出力するタッチ入力判定装置によって実行されるタッチ入力判定方法であって、
     前記タッチパネルにおけるタッチ操作の対象を切り替えるステップと、
     前記タッチパネルの画面の全体をタッチ操作の対象とする画面全体操作モードを選択したときに、前記タッチ操作に応じた操作情報に基づく処理を実行することで前記出力情報を生成するステップと、
     を有し、
     前記出力情報を生成するステップは、
     前記画面における前記タッチ操作である第1のタッチ入力操作が行われたときに、前記第1のタッチ入力操作を受け付けた前記画面上の位置を基準座標点とし、前記基準座標点に対し予め決められた関係を持つ基準線を設定することで、前記画面上に前記基準線で区分される複数のタッチ入力領域を設定するステップと、
     前記複数のタッチ入力領域のいずれかを選択する前記タッチ操作である第2のタッチ入力操作が行われたときに、選択された前記タッチ入力領域に応じて決定されたタッチ入力情報を用いて前記出力情報を変更するステップと、
     を含む
     ことを特徴とするタッチ入力判定方法。
  13.  コンピュータに、タッチパネルにおけるタッチ操作によって入力された操作情報に応じた出力情報を出力するタッチ入力判定方法を実行させるタッチ入力判定プログラムであって、
     前記コンピュータに、
     前記タッチパネルにおけるタッチ操作の対象を切り替えるステップと、
     前記タッチパネルの画面の全体をタッチ操作の対象とする画面全体操作モードを選択したときに、前記タッチ操作に応じた操作情報に基づく処理を実行することで前記出力情報を生成するステップと、
     を実行させ、
     前記出力情報を生成するステップは、
     前記画面における前記タッチ操作である第1のタッチ入力操作が行われたときに、前記第1のタッチ入力操作を受け付けた前記画面上の位置を基準座標点とし、前記基準座標点に対し予め決められた関係を持つ基準線を設定することで、前記画面上に前記基準線で区分される複数のタッチ入力領域を設定するステップと、
     前記複数のタッチ入力領域のいずれかを選択する前記タッチ操作である第2のタッチ入力操作が行われたときに、選択された前記タッチ入力領域に応じて決定されたタッチ入力情報を用いて前記出力情報を変更するステップと、
     を含む
     ことを特徴とするタッチ入力判定プログラム。
PCT/JP2017/011611 2017-03-23 2017-03-23 タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム WO2018173179A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011611 WO2018173179A1 (ja) 2017-03-23 2017-03-23 タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011611 WO2018173179A1 (ja) 2017-03-23 2017-03-23 タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム

Publications (1)

Publication Number Publication Date
WO2018173179A1 true WO2018173179A1 (ja) 2018-09-27

Family

ID=63585186

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/011611 WO2018173179A1 (ja) 2017-03-23 2017-03-23 タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム

Country Status (1)

Country Link
WO (1) WO2018173179A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020255388A1 (ja) * 2019-06-21 2020-12-24 三菱電機株式会社 入力制御装置、入力装置、及び入力制御方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103047A (ja) * 2014-11-27 2016-06-02 アルパイン株式会社 電子機器、該電子機器を備えた車載機器及び該電子機器を用いて実行すべき処理の指示方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103047A (ja) * 2014-11-27 2016-06-02 アルパイン株式会社 電子機器、該電子機器を備えた車載機器及び該電子機器を用いて実行すべき処理の指示方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020255388A1 (ja) * 2019-06-21 2020-12-24 三菱電機株式会社 入力制御装置、入力装置、及び入力制御方法
JPWO2020255388A1 (ja) * 2019-06-21 2021-10-21 三菱電機株式会社 入力制御装置、入力装置、及び入力制御方法
JP7118271B2 (ja) 2019-06-21 2022-08-15 三菱電機株式会社 入力制御装置、入力装置、及び入力制御方法

Similar Documents

Publication Publication Date Title
JP5957834B2 (ja) 携帯情報端末、タッチ操作制御方法、及びプログラム
JP5580694B2 (ja) 情報処理装置、その制御方法、プログラム及び記憶媒体
US9354780B2 (en) Gesture-based selection and movement of objects
EP2541385A2 (en) Information processing apparatus, information processing method, program and remote control system
JP5640486B2 (ja) 情報表示装置
KR20080041809A (ko) 휴대용 단말기에서 디스플레이 제어 방법 및 장치
JP2006072854A (ja) 入力装置
JP5522755B2 (ja) 入力表示制御装置、シンクライアントシステム、入力表示制御方法およびプログラム
JP2012137837A (ja) タッチ入力処理装置、情報処理装置およびタッチ入力制御方法
JP6385173B2 (ja) エレベータのタッチパネル式行き先階登録操作盤およびエレベータのタッチパネル式行き先階登録操作盤における利用者判定方法
JP4924164B2 (ja) タッチ式入力装置
JP2007172303A (ja) 情報入力システム
JP2012099005A (ja) 入力装置、入力方法および入力プログラム
JP2011134273A (ja) 情報処理装置、情報処理方法およびプログラム
WO2018173179A1 (ja) タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム
WO2013080425A1 (ja) 入力装置、情報端末、入力制御方法、および入力制御プログラム
KR20190110625A (ko) 터치 입력 판정 장치, 터치 패널 입력 장치, 터치 입력 판정 방법, 및 터치 입력 판정 프로그램
KR101553119B1 (ko) 연속적인 터치를 이용한 사용자 인터페이스 방법 및 장치
KR101573287B1 (ko) 전자기기에서 터치 위치 디스플레이 방법 및 장치
JP6253861B1 (ja) タッチジェスチャ判定装置、タッチジェスチャ判定方法、タッチジェスチャ判定プログラム、及びタッチパネル入力装置
JP5275185B2 (ja) 電力系統監視制御装置
JP6567233B2 (ja) タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム
JP2014155856A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
US10955962B2 (en) Electronic device and control method thereof that switches a touch panel between an independent mode and a dual input mode
JPH1040010A (ja) タッチパネル付き情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17901782

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17901782

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP