WO2018142783A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2018142783A1
WO2018142783A1 PCT/JP2017/044917 JP2017044917W WO2018142783A1 WO 2018142783 A1 WO2018142783 A1 WO 2018142783A1 JP 2017044917 W JP2017044917 W JP 2017044917W WO 2018142783 A1 WO2018142783 A1 WO 2018142783A1
Authority
WO
WIPO (PCT)
Prior art keywords
contact position
control unit
reference point
image
predetermined reference
Prior art date
Application number
PCT/JP2017/044917
Other languages
English (en)
French (fr)
Inventor
誓司 大西
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Priority to JP2018565978A priority Critical patent/JP6791272B2/ja
Priority to EP17895375.8A priority patent/EP3579094B1/en
Priority to CN201780085627.3A priority patent/CN110249298B/zh
Priority to US16/483,179 priority patent/US10976902B2/en
Publication of WO2018142783A1 publication Critical patent/WO2018142783A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a display device.
  • Patent Document 1 a display device that enlarges or reduces a displayed image by a user performing a pinch operation is known (for example, Patent Document 1).
  • the image is enlarged when the user performs a pinch-out operation.
  • the image is reduced by the user performing a pinch-in operation.
  • the finger of the user who performs the pinch operation and the image to be enlarged or reduced may overlap, and the operability is poor.
  • the present invention has been made in view of the above problems, and an object thereof is to provide a display device capable of improving operability.
  • the display device includes a display unit, a detection unit, and a control unit.
  • the display unit has a display surface.
  • the display unit displays an image.
  • the detection unit is capable of detecting a plurality of contact positions based on contact of an object to be detected with the display surface.
  • the control unit controls the display unit and the detection unit.
  • the plurality of contact positions include a first contact position, a second contact position, and a third contact position.
  • 5 is a flowchart showing a setting method for image enlargement processing or reduction processing of the display device according to the embodiment of the present invention. It is a schematic diagram which shows the display apparatus which concerns on embodiment of this invention. It is a schematic diagram which shows the display apparatus which concerns on embodiment of this invention. It is a schematic diagram which shows the display apparatus which concerns on embodiment of this invention. It is a schematic diagram which shows the display apparatus which concerns on embodiment of this invention. It is a schematic diagram which shows the display apparatus which concerns on embodiment of this invention. It is a schematic diagram which shows the display apparatus which concerns on embodiment of this invention. It is a schematic diagram which shows the display apparatus which concerns on embodiment of this invention. 5 is a flowchart showing a setting method for image enlargement processing or reduction processing of the display device according to the embodiment of the present invention.
  • 5 is a flowchart showing a setting method for image enlargement processing or reduction processing of the display device according to the embodiment of the present invention. 5 is a flowchart showing a setting method for image enlargement processing or reduction processing of the display device according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a display device 10 according to an embodiment of the present invention.
  • 2A to 2C are schematic views showing the display device 10 according to the embodiment of the present invention.
  • the left hand H ⁇ b> 1 indicates the left hand of the user who operates the display device 10.
  • the right hand H2 indicates the right hand of the user who operates the display device 10.
  • the first contact position P1, the second contact position P2, the third contact position P3a, and the third contact position P3b indicate contact positions detected by the detection unit 30.
  • the distance d1 indicates the distance between the second contact position P2 and the third contact position P3a.
  • the distance d2 indicates the distance between the second contact position P2 and the third contact position P3b.
  • the first contact position P1, the second contact position P2, the third contact position P3a, and the third contact position P3b may be collectively referred to as the contact position P.
  • the display device 10 includes a display unit 20, a detection unit 30, a storage unit 40, and a control unit 50.
  • the display device 10 is, for example, a smartphone or a tablet computer.
  • the display unit 20 has a display surface 22.
  • the display unit 20 displays the image G.
  • the image G includes an image indicating the character A.
  • the display unit 20 is, for example, a liquid crystal panel.
  • the detection unit 30 detects the contact position P based on the contact of the detected object with respect to the display surface 22.
  • the detection unit 30 can detect a plurality of contact positions P.
  • the plurality of contact positions P include a first contact position P1, a second contact position P2, and a third contact position P3.
  • the detection unit 30 is, for example, a touch sensor.
  • the detected object is, for example, a finger of a user who operates the display device 10 or a touch pen.
  • a user's finger operating the display device 10 will be described as an example.
  • the storage unit 40 is, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). A control program is stored in the ROM.
  • the control unit 50 controls the display unit 20, the detection unit 30, and the storage unit 40.
  • the control unit 50 is, for example, a CPU (Central Processing Unit).
  • the control unit 50 detects the first contact position P1 when the second contact position P2 and the third contact position P3 are detected after the detection unit 30 detects the first contact position P1.
  • the image G is moved so that is positioned at a predetermined reference point BP.
  • the control unit 50 determines that the pinch operation has been performed by changing the distance between the second contact position P2 and the third contact position P3, the control unit 50 performs a predetermined reference point BP.
  • the image G is enlarged or reduced.
  • the control unit 50 moves the image G and then performs an enlargement process or a reduction process of the image G. Therefore, it is possible to prevent the finger of the user who performs the pinch operation and an image to be enlarged (for example, an image showing the character A) from overlapping. As a result, operability can be improved.
  • FIG. 3 is a flowchart showing a setting method for enlargement processing or reduction processing of the image G of the display device 10 according to the embodiment of the present invention.
  • the process of enlarging or reducing the image G is performed by executing the processes of steps S102 to S112 shown in FIG.
  • an enlargement process for the image G will be described.
  • Step S102 The user contacts the first contact position P1. Specifically, as shown in FIG. 2A, the index finger of the user's left hand H1 touches the first contact position P1. When the first contact position P1 is touched, the detection unit 30 detects the first contact position P1. The process proceeds to step S104.
  • Step S104 The user contacts the second contact position P2. Specifically, as shown in FIG. 2B, the thumb of the user's right hand H2 touches the second contact position P2. When the second contact position P2 is touched, the detection unit 30 detects the second contact position P2. The process proceeds to step S106.
  • Step S106 The user contacts the third contact position P3a. Specifically, as shown in FIG. 2B, the index finger of the user's right hand H2 touches the third contact position P3a. When the third contact position P3a is touched, the detection unit 30 detects the third contact position P3a. The process proceeds to step S108.
  • Step S108 The controller 50 moves the image G so that the first contact position P1 is located at the predetermined reference point BP. Specifically, as shown in FIG. 2B, when the second contact position P2 and the third contact position P3a are detected after the detection unit 30 detects the first contact position P1, the control unit 50 The image G is moved so that the contact position P1 is positioned at a predetermined reference point BP. In the present embodiment, the predetermined reference point BP is located on the upper left side of the display surface 22. Therefore, the image G moves to the upper left side. That is, the image showing the letter A moves to the upper left. The process proceeds to step S110.
  • Step S110 The control unit 50 determines whether or not at least one of the second contact position P2 and the third contact position P3a has moved. Specifically, the control unit 50 determines whether or not at least one of the thumb of the user's right hand H2 and the index finger of the user's right hand H2 has moved. More specifically, the control unit 50 determines whether or not the distance between the second contact position P2 and the third contact position P3a has changed. When it is determined that neither the second contact position P2 nor the third contact position P3a is moving (step S110: No), that is, when the user does not perform a pinch operation, the control unit 50 If determined, the process returns to step S110.
  • step S110: Yes When the control unit 50 determines that at least one of the second contact position P2 and the third contact position P3a has moved (step S110: Yes), that is, when the control unit 50 determines that a pinch operation has been performed by the user.
  • the process proceeds to step S112. For example, as shown in FIG. 2C, when the index finger of the user's right hand H2 moves from the third contact position P3a to the third contact position P3b, the distance between the second contact position P2 and the third contact position P3b is the distance d1. To the distance d2. Therefore, the control unit 50 determines that a pinch operation has been performed by the user (step S110: Yes), and the process proceeds to step S112.
  • Step S112 The control unit 50 performs the enlargement process or the reduction process of the image G on the predetermined reference point BP. Specifically, the control unit 50 performs an enlargement process or a reduction process of the image G using the reference point BP as a starting point. In the present embodiment, as illustrated in FIG. 2C, the control unit 50 performs an enlargement process of the image G using the reference point BP as a starting point. The process ends.
  • the control unit 50 detects the second contact position P2 and the third contact position P3a after the detection unit 30 detects the first contact position P1. If it has been done, the image G is moved so that the first contact position P1 is positioned at the predetermined reference point BP.
  • the control unit 50 determines that the pinch operation has been performed by changing the distance between the second contact position P2 and the third contact position P3a, the control unit 50 performs the enlargement process or the reduction process of the image G with respect to the predetermined reference point BP. Do. Therefore, it is possible to prevent the finger of the user who performs the pinch operation and an image to be enlarged (for example, an image showing the character A) from overlapping. As a result, operability can be improved.
  • control unit 50 detects that the first contact position P1 is a predetermined reference point when the second contact position P2 and the third contact position P3 are detected after the detection unit 30 detects the first contact position P1.
  • the image G is moved so as to be positioned at BP. Therefore, before performing the pinch operation, the image G is moved so as to be positioned at the predetermined reference point BP. For this reason, it can suppress that a user's finger
  • the finger that has touched the first contact position P1 may be released, or the user may perform the pinch operation while pressing the first contact position P1.
  • the predetermined reference point BP is located on the upper left side of the display surface 22, but the predetermined reference point BP is located at the center of the display surface 22. May be.
  • FIG. 1 and FIGS. 4A to 4C are schematic views showing the display device 10 according to the embodiment of the present invention.
  • the detection unit 30 detects the first contact position P1.
  • the detection unit 30 detects the second contact position P2. Further, when the third contact position P3a is touched, the detection unit 30 detects the third contact position P3a.
  • the control unit 50 moves the image G so that the first contact position P1 is located at a predetermined reference point BP.
  • the predetermined reference point BP is located at the center of the display surface 22. Therefore, the image showing the letter A moves to the center.
  • the control unit 50 determines that a pinch operation has been performed by the user. Then, the control unit 50 performs the enlargement process or the reduction process of the image G on the predetermined reference point BP. Specifically, the control unit 50 performs an enlargement process or a reduction process of the image G using the reference point BP as a starting point. In the present embodiment, as illustrated in FIG. 4C, the control unit 50 performs a reduction process on the image G using the reference point BP as a starting point.
  • the predetermined reference point BP is located at the center of the display surface 22. Therefore, when a pinch operation is performed, an image to be enlarged or reduced (for example, an image showing the letter A) is displayed in the center. As a result, the image to be enlarged or reduced at the first contact position P1 moves to a position where it is easy to see. As a result, operability can be improved.
  • the display device 10 may switch the reference point BP based on the positional relationship between the first contact position P1 and the operation position MP.
  • the operation position MP is defined by the second contact position P2 and the third contact position P3a.
  • FIG. 5 is a flowchart showing a setting method of the enlargement process or reduction process of the image G of the display device 10 according to the embodiment of the present invention.
  • 6A to 6C and FIGS. 7A to 7C are schematic views showing the display device 10 according to the embodiment of the present invention.
  • the end portion Ea, the end portion Eb, the end portion Ec, and the end portion Ed are respectively an upper end portion of the display surface 22, a right end portion of the display surface 22, The lower end of the display surface 22 and the left end of the display surface 22 are shown.
  • a corner portion Ca, a corner portion Cb, a corner portion Cc, and a corner portion Cd are a left upper corner portion of the display surface 22 and a right upper corner portion of the display surface 22, respectively.
  • the boundary line BL indicates the boundary line passing through the first contact position P1.
  • the first region R1 and the second region R2 are regions divided by the boundary line BL.
  • the first region R1 is located on the left side of the first contact position P1
  • the second region R2 is located on the right side of the first contact position P1.
  • the enlargement process or the reduction process of the image G is performed by executing the processes in steps S202 to S220 shown in FIG.
  • an enlargement process for the image G will be described.
  • the description of the overlapping part with the method of enlarging or reducing the image G shown in the flowchart of FIG. 3 is omitted.
  • Step S202 The user contacts the first contact position P1. Specifically, as shown in FIGS. 6A and 7A, the index finger of the user's left hand H1 touches the first contact position P1. When the first contact position P1 is touched, the detection unit 30 detects the first contact position P1. When the first contact position P1 is detected by the detection unit 30, the control unit 50 specifies the boundary line BL so as to pass through the first contact position P1. And the control part 50 specifies the area
  • Step S204 The user contacts the second contact position P2. Specifically, as shown in FIGS. 6B and 7B, the thumb of the user's right hand H2 touches the second contact position P2. When the second contact position P2 is touched, the detection unit 30 detects the second contact position P2. The process proceeds to step S206.
  • Step S206 The user contacts the third contact position P3a. Specifically, as shown in FIGS. 6B and 7B, the index finger of the user's right hand H2 touches the third contact position P3a. When the third contact position P3a is touched, the detection unit 30 detects the third contact position P3a. The process proceeds to step S208.
  • Step S208 The control unit 50 recognizes the positional relationship between the first contact position P1 and the operation position MP.
  • the operation position MP is defined by the second contact position P2 and the third contact position P3a.
  • the operation position MP is an intermediate point between the second contact position P2 and the third contact position P3a.
  • the operation position MP may be either the second contact position P2 or the third contact position P3a.
  • Step S210 The control unit 50 determines the positional relationship of the operation position MP with respect to the first contact position P1.
  • step S210: left side the process proceeds to step S214.
  • step S210: right side the process proceeds to step S212.
  • step S212 For example, as illustrated in FIG. 7B, when the operation position MP is located on the left side with respect to the first contact position P1, the control unit 50 positions the operation position MP on the left side with respect to the first contact position P1.
  • step S214 On the other hand, as shown in FIG. 6B, when the operation position MP is located on the right side with respect to the first contact position P1, the control unit 50 positions the operation position MP on the right side with respect to the first contact position P1.
  • step S212 the control unit 50 determines the positional relationship of the operation position MP with respect to the first contact position P1.
  • Step S212 The control unit 50 specifies a predetermined reference point BP on the upper left side of the display surface 22. That is, as illustrated in FIG. 6B, the control unit 50 specifies the predetermined reference point BP so as to be located in a first region R1 different from the second region R2 where the operation position MP is located.
  • the predetermined reference point BP is located at the end Ea. Specifically, the predetermined reference point BP is located at the corner portion Ca. The process proceeds to step S216.
  • Step S214 The control unit 50 specifies a predetermined reference point BP on the upper right side of the display surface 22. That is, as shown in FIG. 7B, the control unit 50 specifies the predetermined reference point BP so as to be located in the second region R2 different from the first region R1 where the operation position MP is located.
  • the predetermined reference point BP is located at the end Ea. Specifically, the predetermined reference point BP is located at the corner Cb. The process proceeds to step S216.
  • Step S216 The control unit 50 moves the image G so that the first contact position P1 is located at the predetermined reference point BP.
  • step S210 when the control unit 50 determines that the operation position MP is located on the right side with respect to the first contact position P1 (step S210: right side), as illustrated in FIG. 30, when the second contact position P2 and the third contact position P3a are detected after the first contact position P1 has been detected, the predetermined reference point BP in which the first contact position P1 is specified by the control unit 50, That is, the control unit 50 moves the image G so as to be positioned on the upper left side of the display surface 22. Accordingly, the image G moves to the upper left side of the display surface 22.
  • step S210 when the control unit 50 determines in step S210 that the operation position MP is located on the left side with respect to the first contact position P1 (step S210: left side), as shown in FIG.
  • the first contact position P1 is a predetermined reference point BP specified by the control unit 50, That is, the control unit 50 moves the image G so as to be positioned on the upper right side of the display surface 22. That is, the control unit 50 moves the image G so that the first contact position P1 is located on the upper right side of the display surface 22. Therefore, the image G moves to the upper right side of the display surface 22. That is, the image showing the letter B moves to the upper right side of the display surface 22.
  • the process proceeds to step S218.
  • Step S218 The controller 50 determines whether or not at least one of the second contact position P2 and the third contact position P3a has moved. Specifically, the control unit 50 determines whether or not at least one of the thumb of the user's right hand H2 and the index finger of the user's right hand H2 has moved. More specifically, the control unit 50 determines whether or not the distance between the second contact position P2 and the third contact position P3a has changed. If the control unit 50 determines that neither the second contact position P2 nor the third contact position P3a is moving (step S218: No), that is, if the user does not perform a pinch operation, the control unit 50 If determined, the process returns to step S218.
  • step S218: Yes When the control unit 50 determines that at least one of the second contact position P2 and the third contact position P3a has moved (step S218: Yes), that is, when the control unit 50 determines that a pinch operation has been performed by the user.
  • the process proceeds to step S220.
  • the control unit 50 determines that a pinch operation has been performed by the user (step S218: Yes), and the process proceeds to step S220.
  • Step S220 The control unit 50 performs the enlargement process or the reduction process of the image G on the predetermined reference point BP. Specifically, the control unit 50 performs an enlargement process or a reduction process of the image G using the reference point BP as a starting point. For example, as illustrated in FIG. 6C, the control unit 50 performs an enlargement process of the image G using the reference point BP, that is, the upper left side of the display surface 22 as a starting point. Alternatively, as illustrated in FIG. 7C, the control unit 50 performs the enlargement process of the image G using the reference point BP, that is, the upper right side of the display surface 22 as a starting point. The process ends.
  • the control unit 50 performs the first contact position P1, the operation position MP defined by the second contact position P2, and the third contact position P3a.
  • a predetermined reference point BP is identified based on the positional relationship. Therefore, it is possible to suppress overlapping of a finger of a user who performs a pinch operation and an image to be enlarged (for example, an image showing the character A or the character B). As a result, operability can be improved.
  • the display surface 22 includes two regions divided by a boundary line BL passing through the first contact position P1.
  • the control unit 50 sets the predetermined reference point BP to the other region of the two regions. Identify to be located. For example, when it is determined that the operation position MP is located in the first region R1, the control unit 50 specifies the predetermined reference point BP so as to be located in the second region R2. On the other hand, when determining that the operation position MP is located in the second region R2, the control unit 50 specifies the predetermined reference point BP so as to be located in the first region R1.
  • the image G is moved to a region on the side different from the position where the pinch operation is performed.
  • an image to be enlarged or reduced for example, an image showing the character A or the character B
  • the control unit 50 When it is determined that the operation position MP is located on the right side of the first contact position P1, the control unit 50 identifies the predetermined reference point BP so as to be located on the upper left side of the display surface 22, and from the first contact position P1. If it is determined that the operation position MP is located on the left side, the predetermined reference point BP is specified to be located on the upper right side of the display surface 22. Therefore, it is possible to suppress overlapping of the finger of the user who performs the pinch operation and an image to be enlarged or reduced (for example, an image showing the character A or the character B). As a result, operability can be improved.
  • the setting of the position of the starting point of the enlargement process or the reduction process may be changeable according to the timing at which the third contact position P3 is detected.
  • FIG. 8 is a flowchart showing a setting method for the enlargement process or reduction process of the image G of the display device 10 according to the embodiment of the present invention.
  • the process of enlarging or reducing the image G is performed by executing the processes in steps S302 to S322 shown in FIG. In the present embodiment, an enlargement process for the image G will be described.
  • the setting of the position of the starting point of the enlarging or reducing process is changed according to the timing at which the third contact position P3 is detected.
  • the description of the overlapping part with the method of enlarging or reducing the image G shown in the flowchart of FIG. 3 is omitted.
  • Step S302 The user contacts the first contact position P1 at time t1. Specifically, as shown in FIG. 6A, the index finger of the user's left hand H1 touches the first contact position P1. When the first contact position P1 is touched, the detection unit 30 detects the first contact position P1. The process proceeds to step S304.
  • Step S304 The control unit 50 stores the time t1 in the storage unit 40. The process proceeds to step S306.
  • Step S306 The user contacts the second contact position P2. Specifically, as shown in FIG. 6B, the thumb of the user's right hand H2 touches the second contact position P2. When the second contact position P2 is touched, the detection unit 30 detects the second contact position P2. The process proceeds to step S308.
  • Step S308 The user contacts the third contact position P3a at time t2. Specifically, as shown in FIG. 6B, the index finger of the user's right hand H2 touches the third contact position P3a. When the third contact position P3a is touched, the detection unit 30 detects the third contact position P3a. The process proceeds to step S310.
  • Step S310 The control unit 50 stores the time t2 in the storage unit 40. The process proceeds to step S312.
  • Step S312 The control unit 50 determines whether or not time t2 ⁇ time t1 (first period) is equal to or shorter than a reference point position determination period (threshold).
  • the reference point position determination period is stored in the storage unit 40.
  • the reference point position determination period is, for example, 5 seconds.
  • Step S314 The control unit 50 moves the image G so that the first contact position P1 is positioned at the predetermined reference point BP. Specifically, as shown in FIG. 6B, when the second contact position P2 and the third contact position P3a are detected after the detection unit 30 detects the first contact position P1, the control unit 50 performs the first contact.
  • the image G is moved so that the position P1 is positioned at a predetermined reference point BP.
  • the predetermined reference point BP is located on the upper left side of the display surface 22. Therefore, the image G moves to the upper left side. That is, the image showing the letter A moves to the upper left.
  • the process proceeds to step S316.
  • Step S316 The controller 50 determines whether or not at least one of the second contact position P2 and the third contact position P3a has moved. Specifically, the control unit 50 determines whether or not at least one of the thumb of the user's right hand H2 and the index finger of the user's right hand H2 has moved. More specifically, the control unit 50 determines whether or not the distance between the second contact position P2 and the third contact position P3a has changed. If the control unit 50 determines that neither the second contact position P2 nor the third contact position P3a is moving (step S316: No), that is, if the user does not perform a pinch operation, the control unit 50 If determined, the process returns to step S316.
  • step S316: Yes When the control unit 50 determines that at least one of the second contact position P2 and the third contact position P3a has moved (step S316: Yes), that is, when the control unit 50 determines that a pinch operation has been performed by the user.
  • the process proceeds to step S318.
  • the control unit 50 determines that a pinch operation has been performed by the user (step S316: Yes), and the process proceeds to step S318.
  • Step S318 The control unit 50 performs the enlargement process or the reduction process of the image G on the predetermined reference point BP. Specifically, the control unit 50 performs an enlargement process or a reduction process of the image G using the reference point BP as a starting point. In the present embodiment, as illustrated in FIG. 6C, the control unit 50 performs an enlargement process of the image G using the reference point BP as a starting point. The process ends.
  • Step S320 The controller 50 determines whether at least one of the second contact position P2 and the third contact position P3a has moved. Specifically, the control unit 50 determines whether or not at least one of the thumb of the user's right hand H2 and the index finger of the user's right hand H2 has moved. More specifically, the control unit 50 determines whether or not the distance between the second contact position P2 and the third contact position P3a has changed. When the control unit 50 determines that neither the second contact position P2 nor the third contact position P3a is moving (step S320: No), that is, if the user does not perform a pinch operation, the control unit 50 If determined, the process returns to step S320.
  • step S320: Yes When the control unit 50 determines that at least one of the second contact position P2 and the third contact position P3a has moved (step S320: Yes), that is, when the control unit 50 determines that a pinch operation has been performed by the user.
  • the process proceeds to step S322.
  • the control unit 50 determines that a pinch operation has been performed by the user (step S320: Yes), and the process proceeds to step S322.
  • Step S322 The control unit 50 performs an enlargement process or a reduction process of the image G on the operation position MP. Specifically, the control unit 50 performs an enlargement process or a reduction process of the image G with the operation position MP as a starting point. In the present embodiment, the control unit 50 performs an enlargement process of the image G with the operation position MP as a starting point. The process ends.
  • the control unit 50 detects the time t1 when the first contact position P1 is detected and the third contact position P3. It is determined whether or not the first period (time t2 ⁇ time t1) indicating the period from the time t2 is equal to or less than a threshold value (reference point position determination period). Based on the determination result, the controller 50 moves the image G so that the first contact position P1 is located at a predetermined reference point BP.
  • the control unit 50 determines that the first period (time t2 ⁇ time t1) is equal to or less than the threshold value (reference point position determination period)
  • the control unit 50 determines that the first contact position P1 is the predetermined reference point BP.
  • the image G is moved so as to be positioned at.
  • the control unit 50 performs an enlargement process or a reduction process of the image G on the reference point BP. Therefore, it is possible to suppress overlapping of the finger of the user who performs the pinch operation and an image to be enlarged or reduced (for example, an image showing the character A or the character B). As a result, operability can be improved.
  • control unit 50 determines that the first period (time t2 ⁇ time t1) is longer than the threshold (reference point position determination period), the control unit 50 does not move the image G to the operation position MP.
  • enlargement processing or reduction processing of the image G is performed. Therefore, when the user performs a pinch operation without specifying the movement destination of the image G by a touch operation, the image G is enlarged or reduced with respect to the position where the pinch operation is performed without moving the image G. Can be processed.
  • the display device 10 it is possible to change whether or not to move the image G when performing a pinch operation according to the timing at which the third contact position P3a is touched. Therefore, the user can change the setting of the position of the image G to be enlarged or reduced according to the application.
  • the control unit 50 detects the second contact position P2 and the third contact position P3 after the detection unit 30 detects the first contact position P1. At that time, the image G is moved so that the first contact position P1 is positioned at the predetermined reference point BP. However, when it is determined that the pinch operation has been performed, the control unit 50 may move the image G so that the first contact position P1 is positioned at the predetermined reference point BP.
  • FIG. 9 is a flowchart showing a setting method for enlargement processing or reduction processing of the image G of the display device 10 according to the embodiment of the present invention.
  • the method of enlarging or reducing the image G shown in the flowchart of FIG. 9 is the same as the method of enlarging or reducing the image G shown in the flowchart of FIG. 3 except that the timing at which the control unit 50 moves the image G is different. Since the process is the same as that of the method, the description of the overlapping part is omitted.
  • Step S402 to Step S406 The user contacts the first contact position P1, the second contact position P2, and the third contact position P3a.
  • the process proceeds to step S408.
  • Step S408 The controller 50 determines whether or not at least one of the second contact position P2 and the third contact position P3a has moved. Specifically, the control unit 50 determines whether or not at least one of the thumb of the user's right hand H2 and the index finger of the user's right hand H2 has moved. More specifically, the control unit 50 determines whether or not the distance between the second contact position P2 and the third contact position P3a has changed. When the control unit 50 determines that neither the second contact position P2 nor the third contact position P3a is moving (step S408: No), that is, if the user does not perform a pinch operation, the control unit 50 If determined, the process returns to step S408.
  • step S408 When the control unit 50 determines that at least one of the second contact position P2 and the third contact position P3a has moved (step S408: Yes), that is, when the control unit 50 determines that a pinch operation has been performed by the user. The process proceeds to step S410.
  • Step S410 The controller 50 moves the image G so that the first contact position P1 is located at the predetermined reference point BP. Specifically, when the control unit 50 determines that a pinch operation has been performed, the image G is moved so that the first contact position P1 is positioned at a predetermined reference point BP. The process proceeds to step S412.
  • Step S412 The control unit 50 performs the enlargement process or the reduction process of the image G on the predetermined reference point BP. Specifically, the control unit 50 performs an enlargement process or a reduction process of the image G using the reference point BP as a starting point. In the present embodiment, the control unit 50 performs the enlargement process of the image G using the reference point BP as a starting point. The process ends.
  • the control unit 50 determines that the pinch operation has been performed, the control unit 50 displays the image G so that the first contact position P1 is positioned at the predetermined reference point BP. Moving. Therefore, it is possible to prevent the finger of the user who performs the pinch operation and an image to be enlarged (for example, an image showing the character A) from overlapping. As a result, operability can be improved.
  • FIG. 10 is a flowchart showing a setting method for enlargement processing or reduction processing of the image G of the display device 10 according to the embodiment of the present invention.
  • Step S502 The user contacts the first contact position P1. Specifically, as shown in FIGS. 2A and 4A, the index finger of the user's left hand H1 touches the first contact position P1. When the first contact position P1 is touched, the detection unit 30 detects the first contact position P1. The process proceeds to step S504.
  • Step S504 The user contacts the second contact position P2. Specifically, as shown in FIGS. 2B and 4B, the thumb of the user's right hand H2 touches the second contact position P2. When the second contact position P2 is touched, the detection unit 30 detects the second contact position P2. The process proceeds to step S506.
  • Step S506 The user contacts the third contact position P3a. Specifically, as shown in FIGS. 2B and 4B, the index finger of the user's right hand H2 touches the third contact position P3a. When the third contact position P3a is touched, the detection unit 30 detects the third contact position P3a. The process proceeds to step S508.
  • Step S508 The controller 50 determines whether or not at least one of the second contact position P2 and the third contact position P3a has moved. Specifically, the control unit 50 determines whether or not at least one of the thumb of the user's right hand H2 and the index finger of the user's right hand H2 has moved. More specifically, the control unit 50 determines whether or not the distance between the second contact position P2 and the third contact position P3a has changed. If the control unit 50 determines that neither the second contact position P2 nor the third contact position P3a is moving (step S508: No), that is, if the user does not perform a pinch operation, the control unit 50 If determined, the process returns to step S508.
  • step S508 When the control unit 50 determines that at least one of the second contact position P2 and the third contact position P3a has moved (step S508: Yes), that is, when the control unit 50 determines that a pinch operation has been performed by the user. The process proceeds to step S510.
  • Step S510 The controller 50 determines how the distance between the second contact position P2 and the third contact position P3a has changed. Specifically, the control unit 50 determines that the distance between the second contact position P2 and the third contact position P3a is the second contact position P2 when the third contact position P3a is detected by the detection unit 30 in step S506. It is determined whether the distance d1 with respect to the third contact position P3a is longer or shorter. When the control unit 50 determines that the distance is shorter than the distance d1 (step S510: shortened), that is, when the control unit 50 determines that a pinch-in operation has been performed, the process proceeds to step S518. When it is determined that the control unit 50 has become longer than the distance d1 (step S510: longer), that is, when the control unit 50 determines that a pinch-out operation has been performed, the process proceeds to step S512.
  • Step S512 The control unit 50 specifies a predetermined reference point BP at the end of the display surface 22.
  • the control unit 50 specifies a predetermined reference point BP on the upper left side of the display surface 22. The process proceeds to step S514.
  • Step S514 The control unit 50 moves the image G so that the first contact position P1 is located at the predetermined reference point BP. Specifically, as shown in FIG. 2B, when the second contact position P2 and the third contact position P3a are detected after the detection unit 30 detects the first contact position P1, the control unit 50 The image G is moved so that the contact position P1 is positioned at a predetermined reference point BP. In the present embodiment, the predetermined reference point BP is located on the upper left side of the display surface 22. Therefore, the image G moves to the upper left side. That is, the image showing the letter A moves to the upper left. The process proceeds to step S516.
  • Step S516 The control unit 50 performs an enlargement process of the image G with respect to the predetermined reference point BP. Specifically, as illustrated in FIG. 2C, the control unit 50 performs an enlargement process of the image G using the reference point BP as a starting point. The process ends.
  • Step S518 The control unit 50 specifies a predetermined reference point BP at the center of the display surface 22. The process proceeds to step S520.
  • Step S520 The control unit 50 moves the image G so that the first contact position P1 is located at the predetermined reference point BP. Specifically, as shown in FIG. 4B, when the second contact position P2 and the third contact position P3a are detected after the detection unit 30 detects the first contact position P1, the control unit 50 performs the first contact.
  • the image G is moved so that the position P1 is positioned at a predetermined reference point BP.
  • the predetermined reference point BP is located at the center of the display surface 22. Therefore, the image showing the letter A moves to the center.
  • the process proceeds to step S522.
  • Step S522 The control unit 50 performs the reduction process of the image G with respect to the predetermined reference point BP. Specifically, as illustrated in FIG. 4C, the control unit 50 performs a reduction process on the image G with the reference point BP as a starting point. The process ends.
  • the control unit 50 determines that the pinch-out operation has been performed, the control unit 50
  • the reference point BP is specified at the end of the display surface 22.
  • the control unit 50 specifies a predetermined reference point BP at the center of the display surface 22. Therefore, when the pinch operation is performed, the image G is moved to a position where it can be easily seen according to the type of the pinch operation. For this reason, it can suppress that a user's finger
  • FIGS. 1 to 10 The embodiments of the present invention have been described above with reference to the drawings (FIGS. 1 to 10). However, the present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist thereof (for example, (1) to (2) shown below).
  • the drawings schematically show each component as a main component, and the length, the number, and the like of each component shown in the drawings are different from the actual for convenience of drawing.
  • the shape, dimension, etc. of each component shown by said embodiment are an example, Comprising: It does not specifically limit, A various change is possible in the range which does not deviate substantially from the effect of this invention.
  • the display surface 22 is divided into two regions on the left and right by the boundary line BL.
  • the invention is not limited to this.
  • the display surface 22 may be divided into two upper and lower regions by the boundary line BL.
  • the display device 10 is a smartphone or a tablet computer, but the present invention is not limited to this.
  • the display device 10 may be provided in the image forming apparatus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

表示装置(10)は、表示部(20)と、検出部(30)と、制御部(50)とを備える。表示部(20)は、表示面(22)を有する。表示部(20)は、画像(G)を表示する。検出部(30)は、表示面(22)に対する被検出物の接触に基づく複数の接触位置を検出可能である。複数の接触位置は、第1接触位置(P1)と第2接触位置(P2)と第3接触位置(P3)とを含む。制御部(50)は、検出部(30)によって第1接触位置(P1)が検出された後に、第2接触位置(P2)と第3接触位置(P3)とが検出された場合、第1接触位置(P1)が所定の基準点(BP)に位置するように画像(G)を移動する。制御部(50)は、第2接触位置(P2)と第3接触位置(P3)との距離が変化することによってピンチ操作が行われたと判定すると、所定の基準点(BP)に対して画像(G)の拡大処理または縮小処理を行う。

Description

表示装置
 本発明は、表示装置に関する。
 従来、ユーザーがピンチ操作を行うことによって、表示された画像を拡大または縮小を行う表示装置が知られている(例えば、特許文献1)。特許文献1に記載の携帯端末では、ユーザーがピンチアウト操作を行うことによって画像が拡大される。また、特許文献1に記載の携帯端末では、ユーザーがピンチイン操作を行うことによって画像が縮小される。
特開2015-49621号公報
 しかしながら、特許文献1に記載の携帯端末では、ピンチ操作を行うユーザーの指と、拡大または縮小したい画像とが重なる可能性があり、操作性が悪かった。
 本発明は上記課題に鑑みてなされたものであり、その目的は操作性を向上させることができる表示装置を提供することにある。
 本発明に係る表示装置は、表示部と、検出部と、制御部とを備える。前記表示部は、表示面を有する。前記表示部は、画像を表示する。前記検出部は、前記表示面に対する被検出物の接触に基づく複数の接触位置を検出可能である。前記制御部は、前記表示部と前記検出部とを制御する。前記複数の接触位置は、第1接触位置と第2接触位置と第3接触位置とを含む。前記制御部は、前記検出部によって前記第1接触位置が検出された後に、前記第2接触位置と前記第3接触位置とが検出された場合、前記第1接触位置が所定の基準点に位置するように前記画像を移動する。前記制御部は、前記第2接触位置と前記第3接触位置との距離が変化することによってピンチ操作が行われたと判定すると、前記所定の基準点に対して前記画像の拡大処理または縮小処理を行う。
 本発明によれば、操作性を向上させることができる。
本発明の実施形態に係る表示装置を示すブロック図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置の画像の拡大処理または縮小処理の設定方法を示すフローチャートである。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置の画像の拡大処理または縮小処理の設定方法を示すフローチャートである。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置を示す模式図である。 本発明の実施形態に係る表示装置の画像の拡大処理または縮小処理の設定方法を示すフローチャートである。 本発明の実施形態に係る表示装置の画像の拡大処理または縮小処理の設定方法を示すフローチャートである。 本発明の実施形態に係る表示装置の画像の拡大処理または縮小処理の設定方法を示すフローチャートである。
 以下、本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一または相当部分については同一の参照符号を付して説明を繰り返さない。
 図1および図2A~図2Cを参照して本発明に係る表示装置10の実施形態を説明する。図1は、本発明の実施形態に係る表示装置10を示すブロック図である。図2A~図2Cは、本発明の実施形態に係る表示装置10を示す模式図である。図2Aにおいて、左手H1は、表示装置10を操作するユーザーの左手を示す。図2Bおよび図2Cにおいて、右手H2は、表示装置10を操作するユーザーの右手を示す。第1接触位置P1、第2接触位置P2、第3接触位置P3aおよび第3接触位置P3bは、検出部30によって検出された接触位置を示す。距離d1は、第2接触位置P2と第3接触位置P3aとの距離を示す。距離d2は、第2接触位置P2と第3接触位置P3bとの距離を示す。なお、本明細書において第1接触位置P1、第2接触位置P2、第3接触位置P3aおよび第3接触位置P3bを総称して接触位置Pと記載することがある。
 図1に示すように、表示装置10は、表示部20と、検出部30と、記憶部40と、制御部50とを備える。表示装置10は、例えば、スマートフォンまたはタブレット型コンピューターである。
 図2A~図2Cに示すように、表示部20は、表示面22を有する。表示部20は、画像Gを表示する。本実施形態では、画像Gには、文字Aを示す画像が含まれる。表示部20は、例えば、液晶パネルである。
 検出部30は、表示面22に対する被検出物の接触に基づく接触位置Pを検出する。検出部30は、複数の接触位置Pを検出可能である。複数の接触位置Pは、第1接触位置P1と第2接触位置P2と第3接触位置P3とを含む。検出部30は、例えば、タッチセンサーである。被検出物は、例えば、表示装置10を操作するユーザーの指またはタッチペンである。以下、本明細書において、被検出物として、表示装置10を操作するユーザーの指を例に挙げて説明する。
 記憶部40は、例えば、ROM(Read Only Memory)およびRAM(Random Access Memory)である。ROMには、制御プログラムが格納されている。
 制御部50は、表示部20と、検出部30と、記憶部40とを制御する。制御部50は、例えば、CPU(Central Processing Unit)である。図2Bに示すように、制御部50は、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3とが検出された場合、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。そして、図2Cに示すように、制御部50は、第2接触位置P2と第3接触位置P3との距離が変化することによってピンチ操作が行われたと判定すると、所定の基準点BPに対して画像Gの拡大処理または縮小処理を行う。このように、ユーザーによってピンチ操作が行われた際、制御部50は、画像Gを移動してから、画像Gの拡大処理または縮小処理を行う。したがって、ピンチ操作を行うユーザーの指と、拡大したい画像(例えば、文字Aを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 図1~図3を参照して、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の方法について説明する。図3は、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の設定方法を示すフローチャートである。図3に示すステップS102~ステップS112の処理が実行されることによって画像Gの拡大処理または縮小処理が行われる。本実施形態では、画像Gの拡大処理について説明する。
 ステップS102:ユーザーが第1接触位置P1に接触する。詳しくは、図2Aに示すように、ユーザーの左手H1の人差し指が、第1接触位置P1をタッチする。第1接触位置P1がタッチされることによって、検出部30は、第1接触位置P1を検出する。処理は、ステップS104に進む。
 ステップS104:ユーザーが第2接触位置P2に接触する。詳しくは、図2Bに示すように、ユーザーの右手H2の親指が、第2接触位置P2をタッチする。第2接触位置P2がタッチされることによって、検出部30は、第2接触位置P2を検出する。処理は、ステップS106に進む。
 ステップS106:ユーザーが第3接触位置P3aに接触する。詳しくは、図2Bに示すように、ユーザーの右手H2の人差し指が、第3接触位置P3aをタッチする。第3接触位置P3aがタッチされることによって、検出部30は、第3接触位置P3aを検出する。処理は、ステップS108に進む。
 ステップS108:制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。詳しくは、図2Bに示すように、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3aとが検出された時に、制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。本実施形態では、所定の基準点BPは、表示面22の左上側に位置する。したがって、画像Gは、左上側に移動する。すなわち、文字Aを示す画像は、左上側に移動する。処理は、ステップS110に進む。
 ステップS110:制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたか否かを判定する。詳しくは、制御部50は、ユーザーの右手H2の親指とユーザーの右手H2の人差し指との少なくとも一方が動いたか否かを判定する。より詳しくは、制御部50は、第2接触位置P2と第3接触位置P3aとの距離が変化したか否かを判定する。制御部50は、第2接触位置P2と第3接触位置P3aとのいずれもが動いていないと判定した場合(ステップS110:No)、すなわち、ユーザーによってピンチ操作が行われていないと制御部50が判定した場合、処理は、ステップS110に戻る。制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたと判定した場合(ステップS110:Yes)、すなわち、ユーザーによってピンチ操作が行われたと制御部50が判定した場合、処理は、ステップS112に進む。例えば、図2Cに示すように、ユーザーの右手H2の人差し指が第3接触位置P3aから第3接触位置P3bに移動した場合、第2接触位置P2と第3接触位置P3bとの距離が、距離d1から距離d2へと変化する。したがって、制御部50は、ユーザーによってピンチ操作が行われたと判定し(ステップS110:Yes)、処理は、ステップS112に進む。
 ステップS112:制御部50は、所定の基準点BPに対して画像Gの拡大処理または縮小処理を行う。詳しくは、制御部50は、基準点BPを起点として画像Gの拡大処理または縮小処理を行う。本実施形態では、図2Cに示すように、制御部50は、基準点BPを起点として画像Gの拡大処理を行う。処理は終了する。
 以上、図1~図3を参照して説明したように、制御部50は、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3aとが検出された場合、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。制御部50は、第2接触位置P2と第3接触位置P3aとの距離が変化することによってピンチ操作が行われたと判定すると、所定の基準点BPに対して画像Gの拡大処理または縮小処理を行う。したがって、ピンチ操作を行うユーザーの指と、拡大したい画像(例えば、文字Aを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 また、制御部50は、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3とが検出された時に、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。したがって、ピンチ操作を行う前に、所定の基準点BPに位置するように画像Gは移動される。このため、ピンチ操作を行うユーザーの指と、拡大したい画像(例えば、文字Aを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 なお、ユーザーがピンチ操作を行う前に、第1接触位置P1に接触した指を離してもよいし、第1接触位置P1を押しながらユーザーがピンチ操作を行ってもよい。
 図1~図3を参照して説明した表示装置10では、所定の基準点BPは、表示面22の左上側に位置していたが、所定の基準点BPは、表示面22の中央に位置してもよい。
 図1および図4A~図4Cを参照して、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の方法について説明する。図4A~図4Cは、本発明の実施形態に係る表示装置10を示す模式図である。
 図4Aに示すように、第1接触位置P1がタッチされることによって、検出部30は、第1接触位置P1を検出する。
 図4Bに示すように、第2接触位置P2がタッチされることによって、検出部30は、第2接触位置P2を検出する。また、第3接触位置P3aがタッチされることによって、検出部30は、第3接触位置P3aを検出する。検出部30によって、第2接触位置P2と第3接触位置P3aとが検出された時に、制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。本実施形態では、所定の基準点BPは、表示面22の中央に位置する。したがって、文字Aを示す画像は、中央に移動する。
 図4Cに示すように、ユーザーの右手H2の人差し指が第3接触位置P3aから第3接触位置P3bに移動した場合、第2接触位置P2と第3接触位置P3bとの距離が、距離d1から距離d2へと変化する。その結果、制御部50は、ユーザーによってピンチ操作が行われたと判定する。そして、制御部50は、所定の基準点BPに対して画像Gの拡大処理または縮小処理を行う。詳しくは、制御部50は、基準点BPを起点として画像Gの拡大処理または縮小処理を行う。本実施形態では、図4Cに示すように、制御部50は、基準点BPを起点として画像Gの縮小処理を行う。
 以上、図1および図4A~図4Cを参照して説明したように、所定の基準点BPは、表示面22の中央に位置する。したがって、ピンチ操作を行う場合、拡大または縮小したい画像(例えば、文字Aを示す画像)が中央に表示される。その結果、第1接触位置P1の拡大または縮小したい画像が見やすい位置に移動する。その結果、操作性を向上させることができる。
 表示装置10は、第1接触位置P1と操作位置MPとの位置関係に基づいて、基準点BPを切り替えるようにしてもよい。操作位置MPは、第2接触位置P2および第3接触位置P3aで規定される。
 図1および図5~図7Cを参照して、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の方法について説明する。図5は、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の設定方法を示すフローチャートである。図6A~図6Cおよび図7A~図7Cは、本発明の実施形態に係る表示装置10を示す模式図である。
 図6A~図6Cおよび図7A~図7Cにおいて、端部Ea、端部Eb、端部Ecおよび端部Edは、それぞれ、表示面22の上側の端部、表示面22の右側の端部、表示面22の下側の端部および表示面22の左側の端部を示す。図6A~図6Cおよび図7A~図7Cにおいて、隅部Ca、隅部Cb、隅部Ccおよび隅部Cdは、それぞれ、表示面22の左上側の隅部、表示面22の右上側の隅部、表示面22の右下側の隅部、表示面22の左下側の隅部を示す。図6A~図6Cおよび図7A~図7Cにおいて、境界線BLは、第1接触位置P1を通る境界線を示す。第1領域R1および第2領域R2は、境界線BLで分割された領域である。図6A~図6Cおよび図7A~図7Cにおいて、第1領域R1は、第1接触位置P1よりも左側に位置し、第2領域R2は、第1接触位置P1よりも右側に位置する。
 図5に示すステップS202~ステップS220の処理が実行されることによって画像Gの拡大処理または縮小処理が行われる。本実施形態では、画像Gの拡大処理について説明する。図3のフローチャートに示す画像Gの拡大処理または縮小処理の方法との重複部分については説明を省略する。
 ステップS202:ユーザーが第1接触位置P1に接触する。詳しくは、図6Aおよび図7Aに示すように、ユーザーの左手H1の人差し指が、第1接触位置P1をタッチする。第1接触位置P1がタッチされることによって、検出部30は、第1接触位置P1を検出する。検出部30によって第1接触位置P1検出されると、制御部50は、第1接触位置P1を通るように、境界線BLを特定する。そして、制御部50は、境界線BLによって2つに分割された領域を、第1領域R1と第2領域R2とに特定する。処理は、ステップS204に進む。
 ステップS204:ユーザーが第2接触位置P2に接触する。詳しくは、図6Bおよび図7Bに示すように、ユーザーの右手H2の親指が、第2接触位置P2をタッチする。第2接触位置P2がタッチされることによって、検出部30は、第2接触位置P2を検出する。処理は、ステップS206に進む。
 ステップS206:ユーザーが第3接触位置P3aに接触する。詳しくは、図6Bおよび図7Bに示すように、ユーザーの右手H2の人差し指が、第3接触位置P3aをタッチする。第3接触位置P3aがタッチされることによって、検出部30は、第3接触位置P3aを検出する。処理は、ステップS208に進む。
 ステップS208:制御部50は、第1接触位置P1と、操作位置MPとの位置関係を認識する。図6Bおよび図7Bに示すように、操作位置MPは、第2接触位置P2および第3接触位置P3aで規定される。本実施形態では、操作位置MPは、第2接触位置P2および第3接触位置P3aの中間点である。なお、操作位置MPは、第2接触位置P2および第3接触位置P3aのいずれか一方であってもよい。処理は、ステップS210に進む。
 ステップS210:制御部50は、第1接触位置P1に対する操作位置MPの位置関係を判定する。制御部50が、操作位置MPが第1接触位置P1に対して左側に位置していると判定した場合(ステップS210:左側)、処理は、ステップS214に進む。制御部50が、操作位置MPが第1接触位置P1に対して右側に位置していると判定した場合(ステップS210:右側)、処理は、ステップS212に進む。例えば、図7Bに示すように、操作位置MPが第1接触位置P1に対して左側に位置している場合、制御部50が、操作位置MPが第1接触位置P1に対して左側に位置していると判定し、処理はステップS214に進む。一方、図6Bに示すように、操作位置MPが第1接触位置P1に対して右側に位置している場合、制御部50が、操作位置MPが第1接触位置P1に対して右側に位置していると判定し、処理はステップS212に進む。
 ステップS212:制御部50は、所定の基準点BPを表示面22の左上側に特定する。すなわち、図6Bに示すように、制御部50は、所定の基準点BPを、操作位置MPが位置する第2領域R2とは異なる第1領域R1に位置するように特定する。本実施形態では、所定の基準点BPは、端部Eaに位置する。詳しくは、所定の基準点BPは、隅部Caに位置する。処理は、ステップS216に進む。
 ステップS214:制御部50は、所定の基準点BPを表示面22の右上側に特定する。すなわち、図7Bに示すように、制御部50は、所定の基準点BPを、操作位置MPが位置する第1領域R1とは異なる第2領域R2に位置するように特定する。本実施形態では、所定の基準点BPは、端部Eaに位置する。詳しくは、所定の基準点BPは、隅部Cbに位置する。処理は、ステップS216に進む。
 ステップS216:制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。詳しくは、ステップS210において、制御部50が、操作位置MPが第1接触位置P1に対して右側に位置していると判定した場合(ステップS210:右側)、図6Bに示すように、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3aとが検出された時に、第1接触位置P1が制御部50によって特定された所定の基準点BP、すなわち、表示面22の左上側に位置するように制御部50は画像Gを移動する。したがって、画像Gは、表示面22の左上側に移動する。すなわち、文字Aを示す画像は、表示面22の左上側に移動する。一方、ステップS210において、制御部50が、操作位置MPが第1接触位置P1に対して左側に位置していると判定した場合(ステップS210:左側)、図7Bに示すように、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3aとが検出された時に、第1接触位置P1が、制御部50によって特定された所定の基準点BP、すなわち、表示面22の右上側に位置するように制御部50は画像Gを移動する。すなわち、制御部50は第1接触位置P1が、表示面22の右上側に位置するように画像Gを移動する。したがって、画像Gは、表示面22の右上側に移動する。すなわち、文字Bを示す画像は、表示面22の右上側に移動する。処理は、ステップS218に進む。
 ステップS218:制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたか否かを判定する。詳しくは、制御部50は、ユーザーの右手H2の親指とユーザーの右手H2の人差し指との少なくとも一方が動いたか否かを判定する。より詳しくは、制御部50は、第2接触位置P2と第3接触位置P3aとの距離が変化したか否かを判定する。制御部50は、第2接触位置P2と第3接触位置P3aとのいずれもが動いていないと判定した場合(ステップS218:No)、すなわち、ユーザーによってピンチ操作が行われていないと制御部50が判定した場合、処理は、ステップS218に戻る。制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたと判定した場合(ステップS218:Yes)、すなわち、ユーザーによってピンチ操作が行われたと制御部50が判定した場合、処理は、ステップS220に進む。例えば、図6Cおよび図7Cに示すように、ユーザーの右手H2の人差し指が第3接触位置P3aから第3接触位置P3bに移動した場合、第2接触位置P2と第3接触位置P3bとの距離が、距離d1から距離d2へと変化する。したがって、制御部50は、ユーザーによってピンチ操作が行われたと判定し(ステップS218:Yes)、処理は、ステップS220に進む。
 ステップS220:制御部50は、所定の基準点BPに対して画像Gの拡大処理または縮小処理を行う。詳しくは、制御部50は、基準点BPを起点として画像Gの拡大処理または縮小処理を行う。例えば、図6Cに示すように、制御部50は、基準点BP、すなわち、表示面22の左上側を起点として画像Gの拡大処理を行う。あるいは、図7Cに示すように、制御部50は、基準点BP、すなわち、表示面22の右上側を起点として画像Gの拡大処理を行う。処理は終了する。
 以上、図1および図5~図7Cを参照して説明したように、制御部50は、第1接触位置P1と、第2接触位置P2および第3接触位置P3aで規定される操作位置MPとの位置関係を認識し、位置関係に基づいて所定の基準点BPを特定する。したがって、ピンチ操作を行うユーザーの指と、拡大したい画像(例えば、文字Aまたは文字Bを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 また、表示面22は、第1接触位置P1を通る境界線BLで分割される2つの領域を含む。制御部50は、2つの領域(第1領域R1および第2領域R2)のうち一方の領域に操作位置MPが位置すると判定した場合、所定の基準点BPを2つの領域のうち他方の領域に位置するように特定する。例えば、制御部50は、操作位置MPが第1領域R1に位置すると判定した場合、所定の基準点BPを第2領域R2に位置するように特定する。一方、制御部50は、操作位置MPが第2領域R2に位置すると判定した場合、所定の基準点BPを第1領域R1に位置するように特定する。したがって、ピンチ操作を行う際、ピンチ操作が行われた位置と異なる側の領域に画像Gは移動される。その結果、ピンチ操作を行うユーザーの指と、拡大または縮小したい画像(例えば、文字Aまたは文字Bを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 制御部50は、第1接触位置P1よりも右側に操作位置MPが位置すると判定した場合、所定の基準点BPを表示面22の左上側に位置するように特定し、第1接触位置P1よりも左側に操作位置MPが位置すると判定した場合、所定の基準点BPを表示面22の右上側に位置するように特定する。したがって、ピンチ操作を行うユーザーの指と、拡大または縮小したい画像(例えば、文字Aまたは文字Bを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 第3接触位置P3が検出されたタイミングに応じて、拡大処理または縮小処理の起点の位置の設定を変更可能にしてもよい。図1、図6A~図6Cおよび図8を参照して、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の方法について説明する。図8は、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の設定方法を示すフローチャートである。図8に示すステップS302~ステップS322の処理が実行されることによって画像Gの拡大処理または縮小処理が行われる。本実施形態では、画像Gの拡大処理について説明する。図8のフローチャートに示す画像Gの拡大処理または縮小処理の方法は、第3接触位置P3が検出されたタイミングに応じて、拡大処理または縮小処理の起点の位置の設定を変更する。図3のフローチャートに示す画像Gの拡大処理または縮小処理の方法との重複部分については説明を省略する。
 ステップS302:ユーザーが時刻t1に第1接触位置P1に接触する。詳しくは、図6Aに示すように、ユーザーの左手H1の人差し指が、第1接触位置P1をタッチする。第1接触位置P1がタッチされることによって、検出部30は、第1接触位置P1を検出する。処理は、ステップS304に進む。
 ステップS304:制御部50が、記憶部40に時刻t1を記憶させる。処理は、ステップS306に進む。
 ステップS306:ユーザーが第2接触位置P2に接触する。詳しくは、図6Bに示すように、ユーザーの右手H2の親指が、第2接触位置P2をタッチする。第2接触位置P2がタッチされることによって、検出部30は、第2接触位置P2を検出する。処理は、ステップS308に進む。
 ステップS308:ユーザーが時刻t2に第3接触位置P3aに接触する。詳しくは、図6Bに示すように、ユーザーの右手H2の人差し指が、第3接触位置P3aをタッチする。第3接触位置P3aがタッチされることによって、検出部30は、第3接触位置P3aを検出する。処理は、ステップS310に進む。
 ステップS310:制御部50が、記憶部40に時刻t2を記憶させる。処理は、ステップS312に進む。
 ステップS312:制御部50は、時刻t2-時刻t1(第1期間)が基準点位置判定期間(閾値)以下であるか否かを判定する。基準点位置判定期間は、記憶部40に記憶されている。基準点位置判定期間は、例えば5秒である。制御部50が時刻t2-時刻t1が基準点位置判定期間よりも長いと判定した場合(ステップS312:No)、処理は、ステップS320に進む。制御部50が時刻t2-時刻t1が基準点位置判定期間以下であると判定した場合(ステップS312:Yes)、処理は、ステップS314に進む。
 ステップS314:制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。詳しくは、図6Bに示すように、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3aとが検出された時に、制御部50は第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。本実施形態では、所定の基準点BPは、表示面22の左上側に位置する。したがって、画像Gは、左上側に移動する。すなわち、文字Aを示す画像は、左上側に移動する。処理は、ステップS316に進む。
 ステップS316:制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたか否かを判定する。詳しくは、制御部50は、ユーザーの右手H2の親指とユーザーの右手H2の人差し指との少なくとも一方が動いたか否かを判定する。より詳しくは、制御部50は、第2接触位置P2と第3接触位置P3aとの距離が変化したか否かを判定する。制御部50は、第2接触位置P2と第3接触位置P3aとのいずれもが動いていないと判定した場合(ステップS316:No)、すなわち、ユーザーによってピンチ操作が行われていないと制御部50が判定した場合、処理は、ステップS316に戻る。制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたと判定した場合(ステップS316:Yes)、すなわち、ユーザーによってピンチ操作が行われたと制御部50が判定した場合、処理は、ステップS318に進む。例えば、図6Cに示すように、ユーザーの右手H2の人差し指が第3接触位置P3aから第3接触位置P3bに移動した場合、第2接触位置P2と第3接触位置P3bとの距離が、距離d1から距離d2へと変化する。したがって、制御部50は、ユーザーによってピンチ操作が行われたと判定し(ステップS316:Yes)、処理は、ステップS318に進む。
 ステップS318:制御部50は、所定の基準点BPに対して画像Gの拡大処理または縮小処理を行う。詳しくは、制御部50は、基準点BPを起点として画像Gの拡大処理または縮小処理を行う。本実施形態では、図6Cに示すように、制御部50は、基準点BPを起点として画像Gの拡大処理を行う。処理は終了する。
 ステップS320:制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたか否かを判定する。詳しくは、制御部50は、ユーザーの右手H2の親指とユーザーの右手H2の人差し指との少なくとも一方が動いたか否かを判定する。より詳しくは、制御部50は、第2接触位置P2と第3接触位置P3aとの距離が変化したか否かを判定する。制御部50は、第2接触位置P2と第3接触位置P3aとのいずれもが動いていないと判定した場合(ステップS320:No)、すなわち、ユーザーによってピンチ操作が行われていないと制御部50が判定した場合、処理は、ステップS320に戻る。制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたと判定した場合(ステップS320:Yes)、すなわち、ユーザーによってピンチ操作が行われたと制御部50が判定した場合、処理は、ステップS322に進む。例えば、図6Cに示すように、ユーザーの右手H2の人差し指が第3接触位置P3aから第3接触位置P3bに移動した場合、第2接触位置P2と第3接触位置P3bとの距離が、距離d1から距離d2へと変化する。したがって、制御部50は、ユーザーによってピンチ操作が行われたと判定し(ステップS320:Yes)、処理は、ステップS322に進む。
 ステップS322:制御部50は、操作位置MPに対して画像Gの拡大処理または縮小処理を行う。詳しくは、制御部50は、操作位置MPを起点として画像Gの拡大処理または縮小処理を行う。本実施形態では、制御部50は、操作位置MPを起点として画像Gの拡大処理を行う。処理は終了する。
 図1、図2A~図2Cおよび図8を参照して説明したように、表示装置10では、制御部50は、第1接触位置P1が検出された時刻t1と、第3接触位置P3が検出された時刻t2との期間を示す第1期間(時刻t2-時刻t1)が閾値(基準点位置判定期間)以下であるか否かを判定する。制御部50は、判定結果に基づいて、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。
 詳しくは、制御部50が第1期間(時刻t2-時刻t1)が閾値(基準点位置判定期間)以下であると判定した場合、制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。そして、制御部50は、基準点BPに対して画像Gの拡大処理または縮小処理を行う。したがって、ピンチ操作を行うユーザーの指と、拡大または縮小したい画像(例えば、文字Aまたは文字Bを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 一方、制御部50が第1期間(時刻t2-時刻t1)が閾値(基準点位置判定期間)よりも長いと判定した場合、制御部50は、画像Gを移動させることなく、操作位置MPに対して画像Gの拡大処理または縮小処理を行う。したがって、ユーザーがタッチ操作によって画像Gの移動先を指定することなくピンチ操作を行うことによって、画像Gを移動させることなく、ピンチ操作が行われた位置に対して、画像Gを拡大処理または縮小処理させることができる。
 このように、表示装置10では、第3接触位置P3aが接触されたタイミングに応じて、ピンチ操作を行う場合に、画像Gを移動させるか否かを変更可能である。したがって、ユーザーは用途に応じて拡大または縮小したい画像Gの位置の設定を変更することができる。
 図1~図8を参照して説明した表示装置10では、制御部50は、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3とが検出された時に、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動していた。しかしながら、制御部50は、ピンチ操作が行われたと判定した時に、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動してもよい。
 図1および図9を参照して、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の方法について説明する。図9は、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の設定方法を示すフローチャートである。図9に示すステップS402~ステップS412の処理が実行されることによって画像Gの拡大処理または縮小処理が行われる。図9のフローチャートに示す画像Gの拡大処理または縮小処理の方法は、制御部50が画像Gを移動するタイミングが異なる点を除いて、図3のフローチャートに示す画像Gの拡大処理または縮小処理の方法と同様の処理であるため、重複部分については説明を省略する。
 ステップS402~ステップS406:ユーザーが第1接触位置P1、第2接触位置P2および第3接触位置P3aに接触する。ステップS402~ステップS406の処理が実行されると、処理は、ステップS408に進む。
 ステップS408:制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたか否かを判定する。詳しくは、制御部50は、ユーザーの右手H2の親指とユーザーの右手H2の人差し指との少なくとも一方が動いたか否かを判定する。より詳しくは、制御部50は、第2接触位置P2と第3接触位置P3aとの距離が変化したか否かを判定する。制御部50は、第2接触位置P2と第3接触位置P3aとのいずれもが動いていないと判定した場合(ステップS408:No)、すなわち、ユーザーによってピンチ操作が行われていないと制御部50が判定した場合、処理は、ステップS408に戻る。制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたと判定した場合(ステップS408:Yes)、すなわち、ユーザーによってピンチ操作が行われたと制御部50が判定した場合、処理は、ステップS410に進む。
 ステップS410:制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。詳しくは、制御部50が、ピンチ操作が行われたと判定した時に、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。処理は、ステップS412に進む。
 ステップS412:制御部50は、所定の基準点BPに対して画像Gの拡大処理または縮小処理を行う。詳しくは、制御部50は、基準点BPを起点として画像Gの拡大処理または縮小処理を行う。本実施形態では、制御部50は、基準点BPを起点として画像Gの拡大処理を行う。処理は終了する。
 以上、図1および図9を参照して説明したように、制御部50は、ピンチ操作が行われたと判定した時に、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。したがって、ピンチ操作を行うユーザーの指と、拡大したい画像(例えば、文字Aを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 ピンチイン操作が行われたかピンチアウト操作が行われたかに応じて、拡大処理または縮小処理の起点の位置の設定を変更可能にしてもよい。図1、図2A~図2C、図4A~図4Cおよび図10を参照して、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の方法について説明する。図10は、本発明の実施形態に係る表示装置10の画像Gの拡大処理または縮小処理の設定方法を示すフローチャートである。図10に示すステップS502~ステップS522の処理が実行されることによって画像Gの拡大処理または縮小処理が行われる。図3のフローチャートに示す画像Gの拡大処理または縮小処理の方法との重複部分については説明を省略する。
 ステップS502:ユーザーが第1接触位置P1に接触する。詳しくは、図2Aおよび図4Aに示すように、ユーザーの左手H1の人差し指が、第1接触位置P1をタッチする。第1接触位置P1がタッチされることによって、検出部30は、第1接触位置P1を検出する。処理は、ステップS504に進む。
 ステップS504:ユーザーが第2接触位置P2に接触する。詳しくは、図2Bおよび図4Bに示すように、ユーザーの右手H2の親指が、第2接触位置P2をタッチする。第2接触位置P2がタッチされることによって、検出部30は、第2接触位置P2を検出する。処理は、ステップS506に進む。
 ステップS506:ユーザーが第3接触位置P3aに接触する。詳しくは、図2Bおよび図4Bに示すように、ユーザーの右手H2の人差し指が、第3接触位置P3aをタッチする。第3接触位置P3aがタッチされることによって、検出部30は、第3接触位置P3aを検出する。処理は、ステップS508に進む。
 ステップS508:制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたか否かを判定する。詳しくは、制御部50は、ユーザーの右手H2の親指とユーザーの右手H2の人差し指との少なくとも一方が動いたか否かを判定する。より詳しくは、制御部50は、第2接触位置P2と第3接触位置P3aとの距離が変化したか否かを判定する。制御部50は、第2接触位置P2と第3接触位置P3aとのいずれもが動いていないと判定した場合(ステップS508:No)、すなわち、ユーザーによってピンチ操作が行われていないと制御部50が判定した場合、処理は、ステップS508に戻る。制御部50は、第2接触位置P2と第3接触位置P3aとの少なくとも一方が動いたと判定した場合(ステップS508:Yes)、すなわち、ユーザーによってピンチ操作が行われたと制御部50が判定した場合、処理は、ステップS510に進む。
 ステップS510:制御部50は、第2接触位置P2と第3接触位置P3aとの距離がどのように変化したかを判定する。詳しくは、制御部50は、第2接触位置P2と第3接触位置P3aとの距離が、ステップS506において、検出部30によって第3接触位置P3aが検出された際の、第2接触位置P2と第3接触位置P3aとの距離d1よりも長くなったか短くなったかを判定する。制御部50が、距離d1よりも短くなったと判定した場合(ステップS510:短くなった)、すなわち、制御部50が、ピンチイン操作が行われたと判定した場合、処理は、ステップS518に進む。制御部50が、距離d1よりも長くなったと判定した場合(ステップS510:長くなった)、すなわち、制御部50が、ピンチアウト操作が行われたと判定した場合、処理は、ステップS512に進む。
 ステップS512:制御部50は、所定の基準点BPを表示面22の端部に特定する。例えば、制御部50は、所定の基準点BPを表示面22の左上側に特定する。処理は、ステップS514に進む。
 ステップS514:制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。詳しくは、図2Bに示すように、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3aとが検出された時に、制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。本実施形態では、所定の基準点BPは、表示面22の左上側に位置する。したがって、画像Gは、左上側に移動する。すなわち、文字Aを示す画像は、左上側に移動する。処理は、ステップS516に進む。
 ステップS516:制御部50は、所定の基準点BPに対して画像Gの拡大処理を行う。詳しくは、図2Cに示すように、制御部50は、基準点BPを起点として画像Gの拡大処理を行う。処理は終了する。
 ステップS518:制御部50は、所定の基準点BPを表示面22の中央に特定する。処理は、ステップS520に進む。
 ステップS520:制御部50は、第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。詳しくは、図4Bに示すように、検出部30によって第1接触位置P1が検出された後に、第2接触位置P2と第3接触位置P3aとが検出された時に、制御部50は第1接触位置P1が所定の基準点BPに位置するように画像Gを移動する。本実施形態では、所定の基準点BPは、表示面22の中央に位置する。したがって、文字Aを示す画像は、中央に移動する。処理は、ステップS522に進む。
 ステップS522:制御部50は、所定の基準点BPに対して画像Gの縮小処理を行う。詳しくは、図4Cに示すように、制御部50は、基準点BPを起点として画像Gの縮小処理を行う。処理は終了する。
 以上、図1、図2A~図2C、図4A~図4Cおよび図10を参照して説明したように、制御部50がピンチアウト操作が行われたと判定した場合、制御部50は、所定の基準点BPを表示面22の端部に特定する。また、制御部50がピンチイン操作が行われたと判定した場合、制御部50は、所定の基準点BPを表示面22の中央に特定する。したがって、ピンチ操作の際に、ピンチ操作の種類に応じて、画像Gが見やすい位置に移動する。このため、ピンチ操作を行うユーザーの指と、拡大したい画像(例えば、文字Aを示す画像)とが重なることを抑制することができる。その結果、操作性を向上させることができる。
 以上、図面(図1~図10)を参照しながら本発明の実施形態を説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である(例えば、下記に示す(1)~(2))。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の長さ、個数等は、図面作成の都合上から実際とは異なる。また、上記の実施形態で示す各構成要素の形状、寸法等は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。
 (1)図6A~図6Cおよび図7A~図7Cを参照して説明したように、表示装置10において、表示面22は、境界線BLによって左右の2つの領域に分割されていたが、本発明はこれに限定されない。例えば、表示面22は、境界線BLによって上下の2つの領域に分割されていてもよい。
 (2)図1~図10を参照して説明したように、表示装置10は、スマートフォンまたはタブレット型コンピューターであったが、本発明はこれに限定されない。例えば、表示装置10は、画像形成装置に設けられていてもよい。

Claims (14)

  1.  表示面を有し、画像を表示する表示部と、
     前記表示面に対する被検出物の接触に基づく複数の接触位置を検出可能な検出部と、
     前記表示部と前記検出部とを制御する制御部と
    を備え、
     前記複数の接触位置は、第1接触位置と第2接触位置と第3接触位置とを含み、
     前記制御部は、前記検出部によって前記第1接触位置が検出された後に、前記第2接触位置と前記第3接触位置とが検出された場合、前記第1接触位置が所定の基準点に位置するように前記画像を移動し、前記第2接触位置と前記第3接触位置との距離が変化することによってピンチ操作が行われたと判定すると、前記所定の基準点に対して前記画像の拡大処理または縮小処理を行う、表示装置。
  2.  前記所定の基準点は、前記表示面の端部に位置する、請求項1に記載の表示装置。
  3.  前記所定の基準点は、前記表示面の隅部に位置する、請求項2に記載の表示装置。
  4.  前記所定の基準点は、前記表示面の左上側に位置する、請求項3に記載の表示装置。
  5.  前記制御部は、前記第1接触位置と、前記第2接触位置および前記第3接触位置で規定される操作位置との位置関係を認識し、前記位置関係に基づいて前記所定の基準点を特定する、請求項1に記載の表示装置。
  6.  前記表示面は、前記第1接触位置を通る境界線で分割される2つの領域を含み、
     前記制御部は、前記2つの領域のうち一方の領域に前記操作位置が位置すると判定した場合、前記所定の基準点を前記2つの領域のうち他方の領域に位置するように特定する、請求項5に記載の表示装置。
  7.  前記制御部は、前記第1接触位置よりも右側に前記操作位置が位置すると判定した場合、前記所定の基準点を前記表示面の左上側に位置するように特定し、前記第1接触位置よりも左側に前記操作位置が位置すると判定した場合、前記所定の基準点を前記表示面の右上側に位置するように特定する、請求項6に記載の表示装置。
  8.  前記操作位置は、前記第2接触位置および前記第3接触位置の中間点である、請求項5に記載の表示装置。
  9.  前記操作位置は、前記第2接触位置および前記第3接触位置のいずれか一方である、請求項5に記載の表示装置。
  10.  前記所定の基準点は、前記表示面の中央に位置する、請求項1に記載の表示装置。
  11.  前記制御部は、前記検出部によって前記第1接触位置が検出された後に、前記第2接触位置と前記第3接触位置とが検出された時に、前記第1接触位置が前記所定の基準点に位置するように前記画像を移動する、請求項1に記載の表示装置。
  12.  前記制御部は、前記ピンチ操作が行われたと判定した時に、前記第1接触位置が前記所定の基準点に位置するように前記画像を移動する、請求項1に記載の表示装置。
  13.  前記制御部は、前記第1接触位置が検出された時刻と前記第3接触位置が検出された時刻との期間を示す第1期間が閾値以下であるか否かを判定し、
     判定結果に基づいて、前記第1接触位置が前記所定の基準点に位置するように前記画像を移動する、請求項1に記載の表示装置。
  14.  前記制御部は、前記第2接触位置と前記第3接触位置との距離が長くなった場合にピンチアウト操作が行われたと判定し、前記第2接触位置と前記第3接触位置との距離が短くなった場合にピンチイン操作が行われたと判定し、前記ピンチアウト操作が行われたと判定した場合、前記所定の基準点を前記表示面の端部に特定し、前記ピンチイン操作が行われたと判定した場合、前記所定の基準点を前記表示面の中央に特定する、請求項1に記載の表示装置。
PCT/JP2017/044917 2017-02-06 2017-12-14 表示装置 WO2018142783A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018565978A JP6791272B2 (ja) 2017-02-06 2017-12-14 表示装置
EP17895375.8A EP3579094B1 (en) 2017-02-06 2017-12-14 Display device
CN201780085627.3A CN110249298B (zh) 2017-02-06 2017-12-14 显示装置
US16/483,179 US10976902B2 (en) 2017-02-06 2017-12-14 Using reference point to perform enlargement and reduction of displayed content

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-019424 2017-02-06
JP2017019424 2017-02-06

Publications (1)

Publication Number Publication Date
WO2018142783A1 true WO2018142783A1 (ja) 2018-08-09

Family

ID=63040381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/044917 WO2018142783A1 (ja) 2017-02-06 2017-12-14 表示装置

Country Status (5)

Country Link
US (1) US10976902B2 (ja)
EP (1) EP3579094B1 (ja)
JP (1) JP6791272B2 (ja)
CN (1) CN110249298B (ja)
WO (1) WO2018142783A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067194A (ja) * 2012-09-25 2014-04-17 Canon Inc 情報処理装置及びその制御方法、並びにプログラムと記憶媒体
JP2014153951A (ja) * 2013-02-08 2014-08-25 Shimane Prefecture タッチ式入力システムおよび入力制御方法
JP2015007844A (ja) * 2013-06-24 2015-01-15 キヤノンマーケティングジャパン株式会社 ユーザインタフェース装置、ユーザインタフェース方法およびプログラム
JP2015049621A (ja) 2013-08-30 2015-03-16 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2015125462A (ja) * 2013-12-25 2015-07-06 シャープ株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8416217B1 (en) * 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
US8578292B2 (en) * 2006-12-14 2013-11-05 Microsoft Corporation Simultaneous document zoom and centering adjustment
US20110012848A1 (en) * 2008-04-03 2011-01-20 Dong Li Methods and apparatus for operating a multi-object touch handheld device with touch sensitive display
JP2011028635A (ja) * 2009-07-28 2011-02-10 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
JP5842000B2 (ja) * 2010-06-30 2016-01-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 表示画像のズームイン
US20140071171A1 (en) * 2012-09-12 2014-03-13 Alcatel-Lucent Usa Inc. Pinch-and-zoom, zoom-and-pinch gesture control
JP5772802B2 (ja) * 2012-11-29 2015-09-02 コニカミノルタ株式会社 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム
JP6244655B2 (ja) * 2013-05-16 2017-12-13 ソニー株式会社 画像処理装置および画像処理方法
KR20150000278A (ko) * 2013-06-24 2015-01-02 삼성전자주식회사 디스플레이 장치 및 제어 방법
US20170177204A1 (en) * 2015-12-18 2017-06-22 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Centering gesture to enhance pinch-to-zoom gesture on touchscreens
WO2017130163A1 (en) * 2016-01-29 2017-08-03 Onshape Inc. Force touch zoom selection
US10416777B2 (en) * 2016-08-16 2019-09-17 Microsoft Technology Licensing, Llc Device manipulation using hover

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067194A (ja) * 2012-09-25 2014-04-17 Canon Inc 情報処理装置及びその制御方法、並びにプログラムと記憶媒体
JP2014153951A (ja) * 2013-02-08 2014-08-25 Shimane Prefecture タッチ式入力システムおよび入力制御方法
JP2015007844A (ja) * 2013-06-24 2015-01-15 キヤノンマーケティングジャパン株式会社 ユーザインタフェース装置、ユーザインタフェース方法およびプログラム
JP2015049621A (ja) 2013-08-30 2015-03-16 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2015125462A (ja) * 2013-12-25 2015-07-06 シャープ株式会社 情報処理装置、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3579094A4

Also Published As

Publication number Publication date
CN110249298A (zh) 2019-09-17
JPWO2018142783A1 (ja) 2019-11-21
US10976902B2 (en) 2021-04-13
EP3579094A1 (en) 2019-12-11
EP3579094A4 (en) 2020-12-16
CN110249298B (zh) 2022-09-27
EP3579094B1 (en) 2023-06-07
JP6791272B2 (ja) 2020-11-25
US20200233549A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
KR101836381B1 (ko) 터치스크린 단말기에서 화면 디스플레이 제어 방법 및 장치
US10282067B2 (en) Method and apparatus of controlling an interface based on touch operations
JP6019736B2 (ja) 表示装置及びプログラム
JP4770878B2 (ja) 情報表示装置及びプログラム
CN107615231B (zh) 显示装置以及显示控制方法
JP5638570B2 (ja) 画像表示装置、画像表示方法、及び、画像表示プログラム
JP6171643B2 (ja) ジェスチャ入力装置
KR20130097567A (ko) 화면에 표시된 개체의 크기 조정 방법 및 장치
US20140164993A1 (en) Method and electronic device for enlarging and displaying contents
US9671948B2 (en) Image-display control system, image-display control method, and non-transitory computer-readable storage medium storing image-display control program
US20140253479A1 (en) Display device and display method
JP2014016714A (ja) 情報表示装置、情報表示方法、情報表示プログラム、および、プログラム記録媒体
WO2018142783A1 (ja) 表示装置
US9024881B2 (en) Information processing apparatus, information processing method, and computer program
JP2010113459A (ja) 画像表示装置、方法、及びプログラム
JP6669087B2 (ja) 表示装置
US20190087077A1 (en) Information processing apparatus, screen control method
JP6197559B2 (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
CN104346123A (zh) 图像显示装置和图像显示方法
JP2017211903A (ja) 表示装置及び表示方法
JP2017084216A (ja) 入力処理装置、及びそれを備えた画像形成装置
JP2015049837A (ja) 携帯端末装置
JP2013073366A (ja) 情報処理装置
JP6210911B2 (ja) 情報端末、表示制御方法、及び表示制御プログラム
JP5636584B2 (ja) 文字入力装置、文字入力方法及び文字入力プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17895375

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018565978

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017895375

Country of ref document: EP