WO2021255775A1 - 表示制御装置および表示制御方法 - Google Patents

表示制御装置および表示制御方法 Download PDF

Info

Publication number
WO2021255775A1
WO2021255775A1 PCT/JP2020/023354 JP2020023354W WO2021255775A1 WO 2021255775 A1 WO2021255775 A1 WO 2021255775A1 JP 2020023354 W JP2020023354 W JP 2020023354W WO 2021255775 A1 WO2021255775 A1 WO 2021255775A1
Authority
WO
WIPO (PCT)
Prior art keywords
hand
touch panel
display control
user
display device
Prior art date
Application number
PCT/JP2020/023354
Other languages
English (en)
French (fr)
Inventor
秀樹 原
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/023354 priority Critical patent/WO2021255775A1/ja
Priority to JP2022531104A priority patent/JP7353491B2/ja
Publication of WO2021255775A1 publication Critical patent/WO2021255775A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present disclosure relates to a display control device and a display control method for performing display control in a video display device provided with a first touch panel and a second touch panel on both the front and back sides.
  • Patent Document 1 discloses a terminal device in which a first display surface and a second display surface that function as a touch panel are in front and back screen states with the front and back directions facing each other.
  • the surface of the first display surface or the second display surface having a large contact area with the user's finger or palm is defined as the surface with which the user's palm is in contact, and the other surface is the operation surface.
  • the terminal device causes the user to display the necessary display on the front of the user's face according to the state in which the user holds the terminal device.
  • the operability for the user differs depending on whether the user holds the video display device with his / her right hand or his / her left hand. Therefore, in the video display device, it is preferable that the operation screen is displayed in consideration of the hand holding the video display device.
  • the technique disclosed in Patent Document 1 even if it is possible to determine whether the first display surface and the second display surface are the front surface or the back surface when viewed from the user, is the user holding the terminal device with his / her right hand? Since it is not considered whether the hand is gripped by the left hand, the above problem cannot be solved.
  • the present disclosure has been made to solve the above-mentioned problems, and an object of the present disclosure is to provide a display control device capable of performing display control in consideration of a hand holding a video display device. ..
  • the display control device is a display control device for performing display control in a video display device having a first touch panel and a second touch panel on both the front and back sides, and is a display control device in the first touch panel and the second touch panel.
  • the gripping hand that the user is gripping the image display device is the right hand.
  • a gripping hand determination unit that determines whether the user has a left hand or a gripping hand, and a gripping hand determination unit on the touch panel on the surface side of the image display device that is the front of the user's face when the user is holding the image display device.
  • a display control unit for displaying an operation unit for one-handed operation is provided on the gripping hand side determined by.
  • FIG. 1 It is a figure which shows the configuration example of the image display device which mounts the display control device which concerns on Embodiment 1.
  • FIG. It is a figure which shows an example of the image of the appearance of the image display apparatus equipped with the display control apparatus which concerns on Embodiment 1.
  • FIG. It is a flowchart for demonstrating operation of the touch display control apparatus which concerns on Embodiment 1.
  • FIG. 4A is a figure which shows the capacitance in the touch panel on the front surface side.
  • FIG. 4B is a diagram showing an example of an image of the distribution of the capacitance
  • FIG. 4B is a diagram showing an example of an image of the distribution of the capacitance in the touch panel on the back surface side.
  • Embodiment 1 it is a figure which shows an example of the image of the distribution of the capacitance in the touch panel in the state where the user holds the image display device with the left hand
  • FIG. 5A is the figure which shows the capacitance in the touch panel on the front surface side
  • FIG. 5B is a diagram showing an example of an image of the distribution of the capacitance
  • FIG. 5B is a diagram showing an example of an image of the distribution of the capacitance in the touch panel on the back surface side.
  • the display control unit shows an image of a screen example of a touch panel in which an operation unit for one-handed operation is displayed on the gripping hand side determined by the gripping hand determination unit
  • FIG. 6A is a display
  • FIG. 6B is a diagram showing an image of a screen example in which the control unit displays the operation unit at the initial position.
  • FIG. 6B shows the display control unit for right-hand operation when the gripping hand determination unit determines that the gripping hand is the right hand. It is a figure which shows the image of the screen example which displayed the operation part. It is a figure which shows the image of the screen example. It is a flowchart for demonstrating the operation of the display control apparatus which concerns on Embodiment 1.
  • FIG. 1 is a diagram showing an image of a screen example in which the control unit displays the operation unit at the initial position.
  • FIG. 6B shows the display control unit for right-hand operation when the gripping hand determination unit determines that the gripping hand is the right hand.
  • It is a figure which shows the
  • FIG. 9A shows that the display control unit is for right-hand operation when the gripping hand determination unit determines that the gripping hand is the right hand.
  • FIG. 9B shows an image of a touchable area set by the display control unit when the display control unit displays the operation unit for left hand operation when the gripping hand determination unit determines that the gripping hand is the left hand.
  • FIG. 11 is for one-handed operation in which the display control unit changes the display position on the touch panel according to the position of the gripping hand holding the image display device in the first embodiment.
  • 11A is a diagram for explaining an image of the operation unit, FIG. 11A shows a perspective view of an image of a user holding the image display device from the front side of the image display device, and FIG. 11B is an image.
  • FIG. 12 is for one-handed operation in which the display control unit changes the display position on the touch panel according to the position of the gripping hand holding the image display device in the first embodiment.
  • 12A is a diagram for explaining an image of an operation unit
  • FIG. 12A shows a perspective view of an image of a user holding an image display device from the front side of the image display device
  • FIG. 12B is an image.
  • 13A and 13B are diagrams showing an example of the hardware configuration of the display control device according to the first embodiment.
  • FIG. 1 is a diagram showing a configuration example of a video display device 100 equipped with a display control device 1 according to the first embodiment.
  • the video display device 100 is applied to a smartphone, a tablet terminal, a portable game device, or the like having a touch input function.
  • the video display device 100 includes a touch panel display (hereinafter referred to as "touch panel”) having a touch input function on both the front and back sides.
  • touch panel a touch panel display
  • the touch panels provided on both the front and back surfaces of the video display device 100 are the first touch panel 101 or the second touch panel 102.
  • FIG. 2 is a diagram showing an example of an image of the appearance of the image display device 100 equipped with the display control device 1 according to the first embodiment.
  • FIG. 2A shows a perspective view of an image of the image display device 100 as viewed from the front surface side
  • FIG. 2B shows a perspective view of an image of the image display device 100 as viewed from the back surface side.
  • the video display device 100 assumes a smartphone.
  • the surface facing the front of the user's face is the "surface" of the image display device 100 while the user is holding the image display device 100, and the surface opposite to the user's face is displayed as an image. It is referred to as the "back surface" of the device 100.
  • the touch panel provided on the "front side” of the video display device 100 is referred to as a "front side touch panel”, and the touch panel provided on the "back side” of the video display device 100 is referred to as a "back side touch panel”.
  • the first touch panel 101 is referred to as a “front side touch panel”
  • the second touch panel 102 is referred to as a “back side touch panel”.
  • the first touch panel 101 and the second touch panel 102 are collectively referred to simply as a "touch panel”.
  • the user grips the video display device 100 with one hand and performs the one-handed operation with the gripped hand when operating the video display device 100.
  • the user performs a touch operation on the touch panel on the front surface side to execute various operations possessed by the image display device 100.
  • the video display device 100 displays the operation unit when the user performs a touch operation based on the control of the display control device 1.
  • the video display unit 103 of the video display device 100 displays the operation unit.
  • the operation unit is, for example, an operation screen on which an icon or the like is displayed.
  • the image display device 100 receives a touch operation by the user, the image display device 100 displays an image corresponding to the touch operation.
  • the image display unit 103 displays an image according to a touch operation by the user. It is not essential that the touch panel on the back side has a display function.
  • the touch panel is, for example, a capacitive touch panel.
  • a touch sensor is built in the touch panel, and the touch sensor changes the capacitance when an object touches the touch sensor or the object approaches the touch sensor. Detect.
  • the touch panel for example, when the touch sensor detects a change in capacitance, it is assumed that the user touches the touch panel, and information regarding the distribution of the capacitance (hereinafter referred to as "capacitance distribution information”) is provided.
  • Capacitance distribution information information regarding the distribution of the capacitance
  • the first touch panel 101 and the second touch panel 102 are associated with information that can be identified as the first touch panel 101 or the second touch panel 102, respectively, and display the capacitance distribution information.
  • the capacitance distribution information includes information in which the value of the capacitance and the information indicating the position on the touch panel where the value is detected are associated with each other.
  • the position on the touch panel is represented by coordinates, for example.
  • FIG. 3 is a diagram showing an example of an image of the distribution of the capacitance detected by the touch panel when the touch by the user to the touch panel is detected by the touch panel.
  • the touch panel with two points, in other words, touches with two fingers.
  • the xy plane shows a touch sensor embedded inside the touch panel.
  • the vertical axis indicates the capacitance detected by the touch sensor.
  • the touch sensor detects the change in capacitance at the point where the finger is touched.
  • the touch sensor also detects the change in capacitance when the user touches the touch panel with his / her palm.
  • the display control device 1 acquires information in which the value of the capacitance is associated with the position on the touch panel in which the value is detected, as the capacitance distribution information, as shown by the vertical axis in FIG. ...
  • the display control device 1 determines a hand (hereinafter referred to as "grasping hand") in which the user is holding the image display device 100 based on the capacitance distribution information. .. Specifically, the display control device 1 determines whether the user is holding the image display device 100 with his / her right hand or his / her left hand based on the capacitance distribution information. The details of the method of determining the gripping hand by the display control device 1 will be described later.
  • the image display device 100 causes the image display device 100 to display the operation unit according to the determined gripping hand.
  • the display control device 1 includes a capacitance acquisition unit 11, a gripping hand determination unit 12, and a display control unit 13.
  • the capacitance acquisition unit 11 acquires the capacitance distribution information from the touch panel.
  • the capacitance acquisition unit 11 outputs the acquired capacitance distribution information to the gripper determination unit 12.
  • the gripping hand determination unit 12 determines whether the gripping hand on which the user is gripping the image display device 100 is the right hand or the left hand, based on the capacitance distribution information acquired by the capacitance acquisition unit 11. .. A method for determining a gripper by the gripper determination unit 12 will be described with reference to specific examples.
  • the gripping hand determination unit 12 determines the gripping hand based on at least the distribution of the capacitance in the touch panel having the larger number of areas where touch is detected. In general, when the user grips the image display device 100, it is assumed that the number of fingers attached to the back surface side is larger than the number of fingers attached to the front surface side.
  • the gripping hand determination unit 12 determines the gripping hand at least based on the distribution of the capacitance in the touch panel on the back surface side of the image display device 100.
  • the gripping hand determination unit 12 is viewed from the user in a state where the user is gripping the image display device 100 among a plurality of areas where touch is detected on the touch panel on the back surface side, for example. It is assumed that the gripping hand is determined for the area located at the uppermost part in the vertical direction of the display device 100 (hereinafter referred to as “grasping determination target area").
  • the gripping hand determination unit 12 is, for example, on the touch panel on the back surface side, depending on the direction of a line passing through the center of gravity of the grip determination target area and both ends in the longitudinal direction of the grip determination target area (hereinafter referred to as “area center of gravity line”). , Determine whether the gripping hand is the right hand or the left hand.
  • FIG. 4 is a diagram showing an example of an image of the capacitance distribution on the touch panel in a state where the user is holding the image display device 100 with the right hand in the first embodiment
  • FIG. 4A is a diagram showing an image of the capacitance distribution on the front surface side
  • FIG. 4B is a diagram showing an example of an image of a capacitance distribution on a touch panel
  • FIG. 4B is a diagram showing an example of an image of a capacitance distribution on a touch panel on the back surface side.
  • FIG. 4 is a diagram showing an example of an image of the capacitance distribution on the touch panel in a state where the user is holding the image display device 100 with the right hand in the first embodiment
  • FIG. 4A is a diagram showing an image of the capacitance distribution on the front surface side
  • FIG. 4B is a diagram showing an example of an image of a capacitance distribution on a touch panel
  • FIG. 4B is a diagram showing an example of an image of a capacitance distribution on
  • FIG. 5 is a diagram showing an example of an image of the capacitance distribution on the touch panel in a state where the user is holding the image display device 100 with the left hand in the first embodiment
  • FIG. 5A is a diagram showing an image of the capacitance distribution on the front surface side
  • FIG. 5B is a diagram showing an example of an image of a capacitance distribution on a touch panel
  • FIG. 5B is a diagram showing an example of an image of a capacitance distribution on a touch panel on the back surface side.
  • the image of the capacitance distribution on the back surface side is shown as an image seen from the front surface side of the image display device 100.
  • the image display device 100 is supported by the user supporting the back surface of the image display device 100 with four fingers and the front surface of the image display device 100 with one finger. It is supposed to be gripped.
  • the touch areas of the user's four fingers on the touch panel on the back surface side are shown by 401a to 401d (see FIG. 4B).
  • the touch areas 401a to 401d can be specified from the distribution of capacitance on the touch panel on the back surface side.
  • the grip determination target area is the area indicated by 401a.
  • the touch area of one finger of the user on the touch panel on the front surface side is shown by 401e (see FIG. 4A).
  • the touch areas of the user's four fingers on the touch panel on the back surface side are shown by 501a to 501d (see FIG. 5B).
  • the touch areas 501a to 501d can be specified from the distribution of capacitance on the touch panel on the back surface side.
  • the grip determination target area is the area indicated by 501a.
  • FIG. 5 the touch area of one finger of the user on the touch panel on the front surface side is shown by 501e (see FIG. 5A).
  • the direction of the area center of gravity line 402 extends from the lower right to the upper left when viewed from the surface side of the image display device 100.
  • the direction of the area center of gravity line 502 extends from the lower left to the upper right when viewed from the surface side of the image display device 100. ..
  • the number of fingers supporting the back surface side is larger than the number of fingers supporting the front surface side.
  • the area center of gravity line is set in the upper left direction when viewed from the front surface side if the right hand is the gripping hand in the gripping determination target area. If the left hand is the gripping hand, it is assumed that it often extends in the upper right direction when viewed from the surface side.
  • the gripping hand determination unit 12 can determine whether the gripping hand is the right hand or the left hand, for example, depending on the direction of the area center of gravity line. If the area center of gravity line seen from the surface side extends from the lower right to the upper left, the gripping hand determination unit 12 can determine that the gripping hand is the right hand (see FIG. 4B), and the area center of gravity line seen from the surface side moves from the lower left to the upper right. If it is extended, the gripping hand can be determined to be the left hand (see FIG. 5B). In the above example, the gripping hand determination unit 12 determines the gripping hand according to the direction of the area center of gravity line seen from the surface side, but this is only an example.
  • the gripping hand determination unit 12 may determine the gripping hand according to the direction of the area center of gravity line as viewed from the back surface side. In this case, the gripper determination unit 12 can determine that the gripper is the right hand if the area center of gravity line seen from the back surface side extends from the lower left to the upper right direction, and the area center of gravity line seen from the back surface side extends from the lower right to the upper left direction. If so, the gripping hand can be determined to be the left hand.
  • the gripping hand determination unit 12 determines whether the gripping hand is the right hand or the left hand depending on the direction of the area center of gravity line, but this is only an example.
  • the gripping hand determination unit 12 may determine, for example, by the angle formed by the "area center of gravity line” and the "reference line” when viewed from the surface side.
  • the "reference line” is the “device center line” drawn to the right from the intersection of the "area center of gravity line” and the "device center line” when viewed from the surface side of the image display device 100. A line that goes straight.
  • the "device center line” is the image display device 100 that passes through the center of the touch panel on the back surface side while the user is holding the image display device 100 on the touch panel on the back surface side.
  • the "reference line” is set to 0 degrees, the upper side of the “reference line” is positive, and the lower side of the “reference line” is negative.
  • the angle formed by the area center of gravity line 402 and the reference line (shown by 404 in FIG. 4B) as seen from the surface side is , Will be negative.
  • the center line of the device is shown by 403.
  • the angle formed by the area center of gravity line 502 and the reference line (shown by 504 in FIG. 5B) as seen from the surface side is , Will be a plus.
  • the center line of the device is shown by 503.
  • the gripping hand determination unit 12 can determine whether the gripping hand is the right hand or the left hand, for example, depending on the angle formed by the area center of gravity line and the reference line.
  • the gripping hand determination unit 12 can determine that the gripping hand is the right hand if the angle formed by the area center of gravity line and the reference line is negative when viewed from the surface side (see FIG. 4B), and the area center of gravity when viewed from the surface side. If the angle formed by the line and the reference line is positive, the gripping hand can be determined to be the left hand (see FIG. 5B).
  • the gripping hand determination unit 12 determines the gripping hand based on the angle formed by the area center of gravity line and the reference line when viewed from the surface side, but this is only an example.
  • the gripping hand determination unit 12 may determine the gripping hand based on the angle formed by the area center of gravity line and the reference line when viewed from the back surface side.
  • the reference line is, for example, a line perpendicular to the device center line drawn to the right from the intersection of the area center of gravity line and the device center line when viewed from the surface side of the image display device 100.
  • the gripping hand determination unit 12 can determine that the gripping hand is the right hand if the angle formed by the area center of gravity line and the reference line is negative even when viewed from the back surface side, and the angle formed by the area center of gravity line and the reference line is positive. If it is, the gripping hand can be determined to be the left hand.
  • the gripping hand determination unit 12 has the distribution of the capacitance detected by the touch panel having the larger number of touch-detected areas, in other words, the touch panel on the back surface side. Based on the above, the gripper was to be determined. However, this is just one example. For example, in the gripping hand determination unit 12, in addition to the capacitance distribution on the touch panel having a large number of touch-detected areas, the static electricity on the touch panel on the opposite side of the touch panel having a large number of touch-detected areas. In consideration of the distribution of the electric capacity, it may be determined whether the gripping hand is the right hand or the left hand.
  • the gripper determination unit 12 considers the distribution of the capacitance detected by the touch panel on the front surface side in addition to the distribution of the capacitance detected by the touch panel on the back surface side.
  • the gripper may be determined.
  • the gripping hand determination unit 12 may determine the gripping hand in consideration of the position of the touch area on the touch panel on the front surface side. In the example shown in FIGS. 4 and 5, the gripping hand determination unit 12 may determine the gripping hand by, for example, the position of the area shown by 401e in FIG. 4A or the touch area shown by 501e in FIG. 5A. good.
  • the gripping hand determination unit 12 sets the position of the touch area to, for example, the position of the center of gravity of the touch area. In FIG. 4A, the center of gravity of the touch area 401e is indicated by 404. Further, in FIG. 5A, the center of gravity of the touch area 501e is indicated by 504.
  • the center of gravity 404 of the touch area 401e on the front surface side is located on the right side of the center line of the device when viewed from the surface side.
  • the center of gravity 504 of the touch area 501e on the front surface side is located on the left side of the center line of the device when viewed from the surface side. ..
  • the gripping hand determination unit 12 can determine that the gripping hand is the right hand and is located on the left side of the device center line. For example, the gripping hand can be determined to be the left hand.
  • the gripping hand determination unit 12 determines the gripping hand by considering the distribution of the capacitance detected by the touch panel on the front surface side in addition to the distribution of the capacitance detected by the touch panel on the back surface side. Compared with the case where the gripping hand is determined only from the distribution of the capacitance detected by the touch panel on the back surface side, the gripping hand can be determined more accurately.
  • the determination result of the gripping hand based on the touch area on the touch panel on the front surface side may differ from the determination result of the gripping hand based on the touch area on the touch panel on the back surface side, in other words, the gripping determination target area.
  • the gripping hand determination unit 12 gives priority to the gripping hand determination result based on the touch area on the touch panel on the back surface side.
  • the gripping hand determination unit 12 can determine that the gripping hand is the right hand based on the position of the center of the touch area on the touch panel on the front surface side.
  • the gripping hand determination unit 12 can determine that the gripping hand is the left hand based on the gripping determination target area on the touch panel on the back surface side.
  • the gripping hand determination unit 12 finally determines that the gripping hand is the left hand.
  • the gripping hand determination unit 12 gives priority to the gripping hand determination result based on the distribution of the capacitance in the touch panel on the back surface side, in other words, the touch panel having the larger number of touch areas.
  • the gripping hand determination unit 12 When the user determines the gripping hand holding the video display device 100, the gripping hand determination unit 12 outputs information regarding the determination result (hereinafter referred to as “grasping hand determination result information”) to the display control unit 13. .
  • the gripping hand determination result information includes information on whether the gripping hand is determined to be the right hand or the left hand, and information on the capacitance distribution.
  • the display control unit 13 sets an operation unit for one-handed operation to be displayed on the touch panel on the front surface side of the image display device 100 based on the gripping hand determination result information output from the gripping hand determination unit 12, and the gripping hand determination unit An operation unit for one-handed operation is displayed on the gripping hand side determined by 12.
  • the display control unit 13 is an operation unit for right-hand operation as an operation unit to be displayed on the touch panel on the front surface side of the image display device 100 based on the grip hand determination result information output from the grip hand determination unit 12.
  • Set the unit or the operation unit for left-hand operation When the display control unit 13 sets the operation unit for right-hand operation or the operation unit for left-hand operation, the display control unit 13 causes the video display unit 103 of the video display device 100 to display the operation unit.
  • FIG. 6 is a diagram showing an image of a screen example of a touch panel in which the display control unit 13 displays an operation unit for one-handed operation on the gripping hand side determined by the gripping hand determination unit 12 in the first embodiment.
  • FIG. 6A shows an image of a screen example in which the display control unit 13 displays the operation unit 601a at the initial position.
  • FIG. 6B is a diagram showing an image of a screen example in which the display control unit 13 displays the operation unit 601b for right hand operation when the gripping hand determination unit 12 determines that the gripping hand is the right hand.
  • FIG. 6C is a diagram showing an image of a screen example in which the display control unit 13 displays the operation unit 601c for left hand operation when the gripping hand determination unit 12 determines that the gripping hand is the left hand.
  • the display control unit 13 displays the operation unit 601a at the initial position as shown in FIG. 6A when the user does not hold the image display device 100.
  • the state in which the user does not hold the image display device 100 means, for example, a state in which the capacitance distribution information is not output from the touch panel.
  • the operation unit 601a displayed in a state where the user does not hold the image display device 100 is an operation unit 601a for two-handed operation assuming the possibility that the user operates with both hands.
  • the initial position where the operation unit 601a for two-handed operation is displayed can be appropriately set in advance.
  • the operation unit 601a for two-handed operation is displayed in the center on the touch panel on the front surface side of the image display device 100 so that the user may operate with the right hand or the left hand. It shall be done.
  • the “center” is not limited to the strict “center”. In the first embodiment, “center” also includes “substantially center”.
  • the capacitance distribution information is output from the touch panel, and the gripping hand determination unit 12 determines the gripping hand holding the video display device 100 by the user.
  • the display control unit 13 sets the operation unit for right-hand operation or left-hand operation according to the determination result of the grip hand by the grip-hand determination unit 12, and sets the operation unit for right-hand operation or operation for left-hand operation. Display the part. Specifically, when the gripping hand determination unit 12 determines that the gripping hand is the right hand, the display control unit 13 sets the operation unit for right-hand operation and sets the operation unit for the right-hand operation with respect to the image display unit 103 of the image display device 100.
  • the operation unit 601b for right-hand operation of a predetermined size is displayed at a position closer to the right-hand side (see FIG. 6B).
  • the display control unit 13 sets the operation unit for left hand operation, and the display control unit 13 sets the operation unit for left hand operation and is on the left hand side with respect to the image display unit 103 of the image display device 100.
  • a predetermined size of the operation unit 601c for left-hand operation is displayed at a position close to the position (see FIG. 6C). In this way, when the user grips the video display device 100, the display control unit 13 changes the display mode of the operation unit from the initial state (see FIG. 6A) according to the gripping hand determined by the gripping hand determination unit 12. do.
  • the size of the operation unit for one-handed operation is a size obtained by reducing the operation unit 601a for two-handed operation at a preset reduction rate. Further, in the first embodiment, the position on the touch panel for displaying the operation unit 601b for right-hand operation and the position on the touch panel for displaying the operation unit 601c for left-hand operation are predetermined. When the display control unit 13 displays the operation unit for one-handed operation, the user touch-operates the operation unit.
  • FIG. 7 is a flowchart for explaining the operation of the display control device 1 according to the first embodiment.
  • the user is not in the state of grasping the image display device 100, the touch operation of the user is detected by the touch panel (first touch panel 101 and the second touch panel 102) of the image display device 100, and the capacitance distribution information is transmitted from the touch panel.
  • the display control device 1 Upon output, the display control device 1 performs an operation as described in the flowchart of FIG. 7.
  • the capacitance acquisition unit 11 acquires the capacitance distribution information from the touch panel (step ST701).
  • the capacitance acquisition unit 11 outputs the acquired capacitance distribution information to the gripper determination unit 12.
  • the gripping hand determination unit 12 Based on the capacitance distribution information acquired by the capacitance acquisition unit 11 in step ST701, the gripping hand determination unit 12 holds the image display device 100 by the user with the right hand or the left hand. (Step ST702). In step ST702, when the gripping hand determination unit 12 determines that the gripping hand holding the image display device 100 is the right hand (when “YES” in step ST702), the gripping hand is the right hand.
  • the gripping hand determination result information indicating that the determination is made is output to the display control unit 13.
  • the display control unit 13 sets the operation unit for right-hand operation based on the grip hand determination result information output from the grip hand determination unit 12 in step ST702, and sets the operation unit for right-hand operation, and the right hand on the touch panel on the front surface side of the image display device 100.
  • the operation unit for right-hand operation is displayed on the side (step ST703).
  • step ST702 when the gripping hand determination unit 12 determines that the gripping hand holding the image display device 100 is the left hand (when “NO” in step ST702), the gripping hand is the left hand.
  • the gripping hand determination result information indicating that the determination is made is output to the display control unit 13.
  • the display control unit 13 sets the operation unit for left-hand operation based on the grip hand determination result information output from the grip hand determination unit 12 in step ST702, and sets the operation unit for left-hand operation, and the left hand on the touch panel on the front surface side of the image display device 100.
  • the operation unit for left-hand operation is displayed on the side (step ST704).
  • the gripper holding the image display device 100 by the user is based on the capacitance distribution information regarding the capacitance distribution in the first touch panel 101 and the second touch panel 102. Determine if it is the right hand or the left hand.
  • the display control device 1 determines the gripping hand, the display control device 1 operates with one hand on the gripping hand side on the touch panel on the front surface side of the video display device 100, which is the front of the user's face in the state where the user is gripping the video display device 100. Display the operation unit for.
  • the display control device 1 can perform display control in consideration of the hand holding the image display device 100 by the user.
  • the display control device 1 can also control the display of the operation unit in consideration of the dominant hand of the user.
  • the display control device 1 can control whether to display the operation unit for one-handed operation or the operation unit for two-handed operation so that the user can easily perform the touch operation in consideration of the dominant hand of the user. ..
  • the gripping hand determination unit 12 determines the gripping hand on which the user is gripping the image display device 100 based on the capacitance distribution information acquired by the capacitance acquisition unit 11. Then, it is determined whether or not the determined gripping hand is the dominant hand of the user.
  • the gripping hand determination unit 12 determines the dominant hand of the user, for example, from the tendency of the touch operation by the user in the past. In this case, for example, when the gripping hand determination unit 12 determines the user's gripping hand, the information that can identify the user and the gripping hand determination result information are associated with each other and stored in a storage unit (not shown). And.
  • the information that can identify the user is, for example, an ID, and the information that can identify the user is assumed to be registered in advance.
  • the storage unit is provided in a place where the display control device 1 can be referred to.
  • the gripping hand determination unit 12 may determine the tendency of the user's touch operation with reference to the storage unit. Further, for example, it is assumed that the dominant hand information in which the user's dominant hand is set in advance is registered in the storage unit, and the gripping hand determination unit 12 may determine the user's dominant hand based on the registered dominant hand information. .. For example, the user registers the dominant hand information in advance.
  • the gripping hand determination unit 12 When the gripping hand determination unit 12 outputs the gripping hand determination result information, the information on whether the gripping hand is determined to be the right hand or the left hand and the capacitance distribution information are included in the gripping hand determination result information. In addition, the determined gripping hand should include information on whether or not it is the dominant hand of the user.
  • the display control unit 13 When the gripping hand determined by the gripping hand determination unit 12 is the user's dominant hand based on the gripping hand determination result information output from the gripping hand determination unit 12, the display control unit 13 operates the display mode of the operation unit with one hand. Set to one-handed operation mode to display the operation unit for. Then, the display control unit 13 sets an operation unit for one-handed operation on the touch panel on the front surface side of the video display device 100, and displays the operation unit for one-handed operation on the gripping hand side determined by the gripping hand determination unit 12. Let me. Since the specific operation of displaying the operation unit for one-handed operation has already been explained, duplicate explanations will be omitted.
  • the display control unit 13 sets the display mode of the operation unit to the two-handed operation mode for displaying the operation unit for two-handed operation.
  • the display control unit 13 does not change the display mode of the operation unit displayed on the touch panel on the front surface side of the image display device 100 from the initial state (see FIG. 6A) displayed at the initial position. That is, the display control unit 13 sets the operation unit for two-handed operation so that the user may operate it with the right hand or the left hand, and the operation unit for two-handed operation is set on the front surface side of the image display device 100. It is displayed in the center on the touch panel of.
  • FIG. 8 is a flowchart for explaining the operation of the display control device 1 when the display control device 1 controls the display of the operation unit in consideration of the dominant hand of the user in the first embodiment. ..
  • the specific operations of step ST801 and steps ST804 to ST805 are the same as the specific operations of step ST701 and step ST704 to ST705 described with reference to FIG. 7, respectively, and thus overlap. The explanation given is omitted.
  • the gripping hand determination unit 12 Based on the capacitance distribution information acquired by the capacitance acquisition unit 11 in step ST801, the gripping hand determination unit 12 holds the image display device 100 by the user with the right hand or the left hand. Is determined. Further, at this time, the gripping hand determination unit 12 determines whether or not the determined gripping hand is the dominant hand of the user (step ST802).
  • the gripping hand determination unit 12 determines that the gripping hand holding the image display device 100 is the user's dominant hand (when “YES” in step ST802), and the user is the image display device 100. When it is determined that the gripping hand holding the hand is the right hand (when "YES” in step ST803), the information indicating that the gripping hand is the right hand and the fact that the gripping hand is determined to be the user's dominant hand.
  • the gripping hand determination result information including the above information is output to the display control unit 13. Then, the operation of the display control device 1 proceeds to step ST804.
  • the gripping hand determination unit 12 determines that the gripping hand holding the image display device 100 is the user's dominant hand (when “YES” in step ST802), and the user is the image display device 100. When it is determined that the gripping hand holding the hand is the left hand (in the case of "NO” in step ST803), the information indicating that the gripping hand is the left hand and the fact that the gripping hand is determined to be the user's dominant hand.
  • the gripping hand determination result information including the above information is output to the display control unit 13. Then, the operation of the display control device 1 proceeds to step ST805.
  • step ST802 when the gripping hand determination unit 12 determines that the gripping hand holding the image display device 100 is not the user's dominant hand (when “NO” in step ST802), the gripping hand is the right hand.
  • the gripping hand determination result information including the information on whether the hand is the left hand or the gripping hand and the information indicating that the gripping hand is not the dominant hand of the user is output to the display control unit 13.
  • the operation of the display control device 1 proceeds to step ST806.
  • the display control unit 13 sets the display mode of the operation unit to the two-handed operation mode for displaying the operation unit for two-handed operation, and sets the display mode of the operation unit to be displayed on the touch panel on the front surface side of the video display device 100 to the initial position.
  • the display control unit 13 sets the operation unit for two-handed operation so that the user may operate it with the right hand or the left hand, and the operation unit for two-handed operation is set on the front surface side of the image display device 100. It is set to be displayed in the center on the touch panel of (step ST806).
  • the display control device 1 can control the display of the operation unit in consideration of the dominant hand of the user. Specifically, when the display control device 1 determines that the gripping hand holding the video display device 100 is the user's dominant hand, the display control device 1 moves toward the gripping hand side and displays an operation unit for one-handed operation. If it is determined that the gripping hand is not the dominant hand of the user, the operation unit for two-handed operation is displayed. When the gripping hand is not the dominant hand, it is difficult for the user to perform a touch operation with the non-dominant hand, that is, a one-handed operation.
  • the display control device 1 displays an operation unit for two-handed operation.
  • the display control device 1 can improve the operability of the video display device 100 by the user when the video display device 100 is gripped by the user's non-dominant hand.
  • the display control device 1 sets and displays an operation unit for one-handed operation, and a user can perform a touch operation (hereinafter referred to as a "touchable area"). Can also be set.
  • the operation unit for one-handed operation is reduced and displayed at a position closer to the gripping hand side of the user than the operation unit for two-handed operation.
  • the touchable area is limited to the area where the operation unit for one-handed operation is displayed on the touch panel on the front surface side of the video display device 100. Therefore, the display control device 1 sets the touchable area according to the operation unit for one-handed operation.
  • the display control unit 13 sets an operation unit for one-handed operation to be displayed on the touch panel on the front surface side based on the gripping hand determination result information output from the gripping hand determination unit 12. Then, the operation unit for one-handed operation is displayed on the gripping hand side determined by the gripping hand determination unit 12. At that time, the display control unit 13 sets the touchable area. Specifically, the display control unit 13 sets an area in which the operation unit for one-handed operation is displayed on the touch panel on the front surface side of the image display device 100 as a touchable area. When the display control unit 13 displays the operation unit for right-hand operation, the display control unit 13 sets the area in which the operation unit for right-hand operation is displayed as the touchable area. When the display control unit 13 displays the operation unit for left-hand operation, the display control unit 13 sets the area in which the operation unit for left-hand operation is displayed as the touchable area.
  • FIG. 9 is a diagram for explaining an example of an image of the touchable area set by the display control unit 13.
  • the gripping hand determination unit 12 determines that the gripping hand is the right hand and the display control unit 13 displays the operation unit 601b for right hand operation
  • the touchable setting of the display control unit 13 is possible. It is a figure which shows the image of the region 901.
  • FIG. 9B shows a touchable position set by the display control unit 13 when the display control unit 13 displays the operation unit 601c for left hand operation when the grip hand determination unit 12 determines that the grip hand is the left hand. It is a figure which shows the image of the region 902.
  • the display control unit 13 causes the image display unit 103 of the image display device 100 to display an operation unit for one-handed operation. Further, the display control unit 13 outputs information regarding the set touchable area to the control unit (not shown) of the video display device 100.
  • the control unit of the video display device 100 limits the touchable area on the touch panel on the front surface side of the video display device 100 to the area set by the display control unit 13.
  • FIG. 10 is for explaining the operation of the display control device 1 in the case where the operation unit for one-handed operation is set and displayed and the touchable area is set in the first embodiment. It is a flowchart.
  • the specific operations of steps ST1001 to ST1004 are the same as the specific operations of steps ST701 to ST704 described with reference to FIG. 7, respectively, and therefore duplicate description will be omitted.
  • step ST1003 when the operation unit is set for right-hand operation and the operation unit for right-hand operation is displayed on the right-hand side on the touch panel on the front surface side of the video display device 100, the display control unit 13 displays the right-hand operation unit.
  • the area for displaying the operation unit for operation is set as the touchable area (step ST1005).
  • the display control unit 13 outputs information about the set touchable area to the control unit of the video display device 100.
  • the display control unit 13 When the operation unit is set for left-hand operation in step ST1004 and the operation unit for left-hand operation is displayed on the left-hand side on the touch panel on the front surface side of the video display device 100, the display control unit 13 operates the left-hand operation.
  • the area for displaying the operation unit for is set as the touchable area (step ST1006).
  • the display control unit 13 outputs information about the set touchable area to the control unit of the video display device 100.
  • the display control device 1 controls the video display device 100 to display the operation unit for operation, and controls to limit the touchable area according to the display area of the operation unit for one-handed operation. Can be done.
  • the display control device 1 can perform display control in consideration of the hand holding the image display device 100 by the user, and can further improve the operability for the user.
  • the display control device 1 is configured so that the display control of the operation unit can be performed in consideration of the dominant hand of the user.
  • the display mode of the operation unit is set to the one-handed operation mode, the operation for one-handed operation is performed. It is also possible to set and display the unit and set the touchable area.
  • the operation of the display control device 1 is the operation as described with reference to the flowchart of FIG. 8, in which the operation of step ST1005 of FIG. 10 is performed after the operation of step ST804, and the operation of step ST805 is followed by the operation of FIG. The operation of step ST1006 will be performed.
  • the position on the touch panel for displaying the operation unit for right-hand operation (see 601b in FIG. 6) and the touch panel for displaying the operation unit for left-hand operation (see 601c in FIG. 6) are displayed.
  • the upper position was determined in advance.
  • the display control unit 13 of the display control device 1 can also change the display position on the touch panel for displaying the operation unit for one-handed operation according to the position of the gripper holding the image display device 100. ..
  • a specific example will be described.
  • the display control unit 13 divides the display area on the touch panel on the front surface side into a plurality of display areas, and depending on which display area the position of the touch area on the front surface side is on, the image display device of the operation unit for one-handed operation.
  • the vertical display position of 100 can be changed.
  • the position of the touch area on the surface side is, for example, the center of the touch area.
  • the vertical display position of the operation unit for one-handed operation may be changed based on the position of any touch area.
  • FIGS. 11 and 12 show that in the first embodiment, the display control unit 13 changes the display position on the touch panel according to the position of the gripper holding the image display device 100. It is a figure for demonstrating the image of the operation part 1103, 1203 for one-handed operation.
  • 11A and 12A show perspective views of an image of the user holding the image display device 100 as viewed from the surface side of the image display device 100
  • FIGS. 11B and 12B show the surface of the image display device 100.
  • a perspective view of an image of the state in which the operation unit is displayed on the touch panel as viewed from the front surface side of the image display device 100 is shown.
  • the display control unit 13 divides the display area on the touch panel into three parts and changes the vertical display position of the operation unit for one-handed operation.
  • the display control unit 13 divides the display area on the touch panel into three equal parts in the vertical direction, the bottom area is the first area 1102a, the middle area is the second area 1102b, and one.
  • the uppermost region is assumed to be the third region 1102c.
  • the first region is indicated by 1102a
  • the second region is indicated by 1102b
  • the third region is indicated by 1102c.
  • the display control unit 13 displays, for example, the operation unit (shown by 1103 in FIG. 11B) at a position corresponding to the second region 1102b, as shown in FIG. 11B.
  • the center of gravity of the touch area on the front surface side of the image display device 100 is on the first region 1102a. Therefore, the display control unit 13 displays, for example, the operation unit (shown by 1203 in FIG. 12B) at a position corresponding to the first region 1102a, as shown in FIG. 12B.
  • the display position of the operation unit corresponding to the first region 1102a, the second region 1102b, or the third region 1102c is predetermined.
  • the size of the operation unit to be displayed in the first region 1102a, the second region 1102b, or the third region 1102c is also predetermined.
  • the display control unit 13 may change the operation for one-handed operation when changing the vertical display position of the operation unit for one-handed operation depending on which display area the position of the touch area on the front surface is on.
  • the touchable area may be set according to the display position of the unit. For example, in FIG. 11B, the display control unit 13 is assumed to have set the touchable area 1104, and in FIG. 12B, the display control unit 13 is assumed to have set the touchable area 1204.
  • the method of changing the display position of the operation unit for one-handed operation by the display control unit 13 as described above is only an example.
  • the display control unit 13 changes the display position of the operation unit for one-handed operation so that the center of the operation unit comes to the position on the touch panel on the front surface side facing the position of the center of gravity of the plurality of touch areas on the back surface side. You may.
  • the display control device 1 has the display position of the operation unit for one-handed operation or the touchable area according to the display position, depending on the position of the gripper holding the image display device 100. The position of can be changed. As a result, the display control device 1 can perform display control in consideration of the hand holding the image display device 100 by the user, and can further improve the operability for the user.
  • the display control unit 13 changes the size of the operation unit for one-handed operation according to the position of the gripping hand holding the image display device 100 by the user. May be good.
  • the display control unit 13 can be used for two-handed operation of the one-handed operation unit according to the position of the gripping hand in which the user holds the image display device 100.
  • the reduction ratio for the operation unit may be changed.
  • the display control unit 13 is an operation unit for one-handed operation depending on how far the position of the touch area on the front surface side is to the right or left with respect to the center line of the device.
  • the reduction ratio for the operation unit for two-handed operation may be changed.
  • the display control unit 13 has the reduction ratio as the position of the touch area on the front surface moves to the right with respect to the device center line or to the left with respect to the device center line. Raise.
  • the display control device 1 can change the size of the operation unit for one-handed operation according to the position of the gripper holding the image display device 100.
  • the display control device 1 can perform display control in consideration of the hand holding the image display device 100 by the user, and can further improve the operability for the user.
  • FIG. 13A and 13B are diagrams showing an example of the hardware configuration of the display control device 1 according to the first embodiment.
  • the functions of the capacitance acquisition unit 11, the gripping hand determination unit 12, and the display control unit 13 are realized by the processing circuit 1301. That is, the display control device 1 has a processing circuit 1301 for performing display control in the video display device 100.
  • the processing circuit 1301 may be dedicated hardware as shown in FIG. 13A, or may be a CPU (Central Processing Unit) 1305 that executes a program stored in the memory 1306 as shown in FIG. 13B.
  • CPU Central Processing Unit
  • the processing circuit 1301 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable). Gate Array) or a combination of these is applicable.
  • the processing circuit 1301 is the CPU 1305, the functions of the capacitance acquisition unit 11, the gripping hand determination unit 12, and the display control unit 13 are realized by software, firmware, or a combination of software and firmware. That is, the capacitance acquisition unit 11, the gripping hand determination unit 12, and the display control unit 13 are a CPU 1305 that executes a program stored in an HDD (Hard Disk Drive) 1302, a memory 1306, or the like, and a system LSI (Large-Scale). It is realized by a processing circuit 1301 such as Integration). Further, it can be said that the program stored in the HDD 1302, the memory 1306, or the like causes the computer to execute the procedures and methods of the capacitance acquisition unit 11, the gripping hand determination unit 12, and the display control unit 13.
  • HDD Hard Disk Drive
  • a memory 1306, or the like causes the computer to execute the procedures and methods of the capacitance acquisition unit 11, the gripping hand determination unit 12, and the display control unit 13.
  • the memory 1306 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically), etc.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable Read Only Memory)
  • EEPROM Electrically
  • a sexual or volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versaille Disc), or the like is applicable.
  • the functions of the capacitance acquisition unit 11, the gripping hand determination unit 12, and the display control unit 13 may be partially realized by dedicated hardware and partly realized by software or firmware. ..
  • the capacitance acquisition unit 11 is realized by a processing circuit 1301 as dedicated hardware
  • the gripping hand determination unit 12 and the display control unit 13 are a program in which the processing circuit 1301 is stored in the memory 1306. It is possible to realize the function by reading and executing.
  • the storage unit uses the memory 1306. It should be noted that this is only an example, and the storage unit may be configured by HDD 1302, SSD (Solid State Drive), DVD, or the like.
  • the display control device 1 includes an input interface device 1303 and an output interface device 1304 that exchange information with a device such as a video display device 100.
  • the display control device 1 includes the capacitance acquisition unit 11 for acquiring information regarding the distribution of the capacitance in the first touch panel 101 and the second touch panel 102, and the static capacity acquisition unit 11. Based on the information on the distribution of the capacitance acquired by the electric capacity acquisition unit 11, the gripping hand determining unit 12 for determining whether the gripping hand holding the image display device 100 by the user is the right hand or the left hand.
  • the gripping hand side determined by the gripping hand determination unit 12 is used for one-handed operation. It is configured to include a display control unit 13 for displaying an operation unit. Therefore, the display control device 1 can perform display control in consideration of the hand holding the image display device 100 by the user.
  • the display control device allows the user to perform display control in consideration of the hand holding the video display device. Therefore, for example, the first touch panel and the second touch panel are placed on both the front and back sides. It can be applied to a display control device that controls display in the provided video display device.
  • 1 display control device 11 electrostatic capacity acquisition unit, 12 gripping hand determination unit, 13 display control unit, 100 video display device, 101 first touch panel, 102 second touch panel, 103 video display unit, 1301 processing circuit, 1302 HDD, 1303 input interface device, 1304 output interface device, 1305 CPU, 1306 memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

第1のタッチパネル(101)および第2のタッチパネル(102)における静電容量の分布に関する情報を取得する静電容量取得部(11)と、静電容量取得部(11)が取得した静電容量の分布に関する情報に基づき、ユーザが映像表示装置(100)を把持している把持手は右手であるか、左手であるかを判定する把持手判定部(12)と、ユーザが映像表示装置(100)を把持している状態においてユーザの顔の正面となる映像表示装置(100)の表面側のタッチパネル上の、把持手判定部(12)が判定した把持手側に、片手操作用の操作部を表示させる表示制御部(13)とを備えた。

Description

表示制御装置および表示制御方法
 本開示は、第1のタッチパネルと第2のタッチパネルとを表裏両面に備えた映像表示装置における表示制御を行う表示制御装置および表示制御方法に関するものである。
 従来、タッチパネルを表裏両面に備えるようにした映像表示装置が知られている。
 例えば、特許文献1には、タッチパネルとして機能する第1表示面および第2表示面が表裏の方向をそれぞれ向く表裏画面状態となる端末装置が開示されている。当該端末装置は、第1表示面または第2表示面のうち、ユーザの指または手のひらとの接触面積が大きい方の面をユーザの手のひらが接触している面とし、もう一方の面を操作面として決定する。これにより、端末装置は、ユーザが当該端末装置を手にする状態に応じてユーザに必要な表示をユーザの顔の正面に表示させるようにしている。
特開2018-84908号公報
 ユーザが映像表示装置を操作する場合、ユーザが当該映像表示装置を右手で把持しているか、左手で把持しているかによって、ユーザにとっての操作性が異なる。そのため、映像表示装置においては、ユーザが当該映像表示装置を把持している手を考慮した操作画面の表示が行われることが好ましい。
 特許文献1に開示されているような技術では、第1表示面および第2表示面がユーザから見て表面か裏面かの判定はできたとしても、ユーザが端末装置を右手で把持しているか左手で把持しているかは考慮されていないため、上記課題を解決できない。
 本開示は上記のような課題を解決するためになされたもので、ユーザが映像表示装置を把持している手を考慮した表示制御を行うことができる表示制御装置を提供することを目的とする。
 本開示に係る表示制御装置は、第1のタッチパネルと第2のタッチパネルとを表裏両面に備えた映像表示装置における表示制御を行う表示制御装置であって、第1のタッチパネルおよび第2のタッチパネルにおける静電容量の分布に関する情報を取得する静電容量取得部と、静電容量取得部が取得した静電容量の分布に関する情報に基づき、ユーザが映像表示装置を把持している把持手は右手であるか、左手であるかを判定する把持手判定部と、ユーザが映像表示装置を把持している状態においてユーザの顔の正面となる映像表示装置の表面側のタッチパネル上の、把持手判定部が判定した把持手側に、片手操作用の操作部を表示させる表示制御部とを備えたものである。
 本開示によれば、ユーザが映像表示装置を把持している手を考慮した表示制御を行うことができる。
実施の形態1に係る表示制御装置を搭載した映像表示装置の構成例を示す図である。 実施の形態1に係る表示制御装置を搭載した映像表示装置の外観のイメージの一例を示す図である。 実施の形態1に係るタッチディスプレイ制御装置の動作を説明するためのフローチャートである。 実施の形態1において、ユーザが映像表示装置を右手で把持している状態のタッチパネルにおける静電容量の分布のイメージの一例を示す図であって、図4Aは、表面側のタッチパネルにおける静電容量の分布のイメージの一例を示す図であり、図4Bは、裏面側のタッチパネルにおける静電容量の分布のイメージの一例を示す図である。 実施の形態1において、ユーザが映像表示装置を左手で把持している状態のタッチパネルにおける静電容量の分布のイメージの一例を示す図であって、図5Aは、表面側のタッチパネルにおける静電容量の分布のイメージの一例を示す図であり、図5Bは、裏面側のタッチパネルにおける静電容量の分布のイメージの一例を示す図である。 実施の形態1において、表示制御部が、把持手判定部が判定した把持手側に片手操作用の操作部を表示させたタッチパネルの画面例のイメージを示す図であって、図6Aは、表示制御部が操作部を初期位置に表示させた画面例のイメージを示す図であり、図6Bは、把持手判定部が把持手は右手であると判定した場合に表示制御部が右手操作用の操作部を表示させた画面例のイメージを示す図であり、図6Cは、把持手判定部が把持手は左手であると判定した場合に表示制御部が左手操作用の操作部を表示させた画面例のイメージを示す図である。 実施の形態1に係る表示制御装置の動作を説明するためのフローチャートである。 実施の形態1において、表示制御装置が、ユーザの利き手を考慮して操作部の表示制御を行うようにした場合の、表示制御装置の動作を説明するためのフローチャートである。 表示制御部が設定したタッチ可能領域のイメージの一例を説明するための図であって、図9Aは、把持手判定部が把持手は右手であると判定した場合に表示制御部が右手操作用の操作部を表示させた場合において、当該表示制御部が設定するタッチ可能領域のイメージを示す図である。図9Bは、把持手判定部が把持手は左手であると判定した場合に表示制御部が左手操作用の操作部を表示させた場合において、当該表示制御部が設定するタッチ可能領域のイメージを示す図である。 実施の形態1において、片手操作用の操作部を設定し表示させ、かつ、タッチ可能領域を設定するようにする構成とした場合の、表示制御装置の動作について説明するためのフローチャートである。 図11は、実施の形態1において、表示制御部が、ユーザが映像表示装置を把持している把持手の位置に応じてタッチパネル上の表示位置を変更して表示させるようにした片手操作用の操作部のイメージを説明するための図であって、図11Aは、ユーザが映像表示装置を把持した状態を映像表示装置の表面側からみたイメージの斜視図を示しており、図11Bは、映像表示装置の表面のタッチパネル上にて操作部が表示された状態を映像表示装置の表面側からみたイメージの斜視図を示している。 図12は、実施の形態1において、表示制御部が、ユーザが映像表示装置を把持している把持手の位置に応じてタッチパネル上の表示位置を変更して表示させるようにした片手操作用の操作部のイメージを説明するための図であって、図12Aは、ユーザが映像表示装置を把持した状態を映像表示装置の表面側からみたイメージの斜視図を示しており、図12Bは、映像表示装置の表面のタッチパネル上にて操作部が表示された状態を映像表示装置の表面側からみたイメージの斜視図を示している。 図13A,図13Bは、実施の形態1に係る表示制御装置のハードウェア構成の一例を示す図である。
 以下、本開示をより詳細に説明するために、本開示を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る表示制御装置1を搭載した映像表示装置100の構成例を示す図である。
 映像表示装置100は、タッチ入力機能を備えたスマートフォン、タブレット端末、または、携帯ゲーム機器等に適用される。
 映像表示装置100は、タッチ入力機能を有するタッチパネル式ディスプレイ(以下「タッチパネル」という。)を表裏両面に備える。実施の形態1において、映像表示装置100が表裏両面に備えるタッチパネルを、第1のタッチパネル101または第2のタッチパネル102とする。
 図2は、実施の形態1に係る表示制御装置1を搭載した映像表示装置100の外観のイメージの一例を示す図である。図2Aは映像表示装置100を表面側からみたイメージの斜視図を示しており、図2Bは映像表示装置100を裏面側からみたイメージの斜視図を示している。図2では、一例として、映像表示装置100はスマートフォンを想定している。
 実施の形態1では、ユーザが映像表示装置100を把持している状態においてユーザの顔の正面となる面を映像表示装置100の「表面」、ユーザの顔とは反対側となる面を映像表示装置100の「裏面」とする。また、映像表示装置100の「表面」に備えられているタッチパネルを「表面側のタッチパネル」、映像表示装置100の「裏面」に備えられているタッチパネルを「裏面側のタッチパネル」というものとする。
 図2では、一例として、第1のタッチパネル101を「表面側のタッチパネル」、第2のタッチパネル102を「裏面側のタッチパネル」としている。
 なお、以下の実施の形態1において、第1のタッチパネル101および第2のタッチパネル102を、まとめて単に「タッチパネル」ともいう。
 実施の形態1では、ユーザは、映像表示装置100の操作を行う際、映像表示装置100を片手で把持し、把持した手で片手操作を行うことを想定している。ユーザは、表面側のタッチパネルに対して、映像表示装置100が有する種々の操作を実行させるためのタッチ操作を行う。
 映像表示装置100は、表示制御装置1の制御に基づいて、ユーザがタッチ操作を行う際の操作部の表示を行う。具体的には、映像表示装置100の映像表示部103が、当該操作部の表示を行う。実施の形態1において、操作部は、例えば、アイコン等が表示された操作画面である。
 また、映像表示装置100は、ユーザによるタッチ操作を受け付けると、当該タッチ操作に応じた映像の表示を行う。具体的には、映像表示部103が、ユーザによるタッチ操作に応じた映像の表示を行う。
 なお、裏面側のタッチパネルは、表示機能を有していることを必須としない。
 実施の形態1において、タッチパネルは、例えば、静電容量方式のタッチパネルである。具体的には、例えば、タッチパネルの内部にタッチセンサが組み込まれており、タッチセンサは、当該タッチセンサに物体が触れた、または、当該タッチセンサに物体が近づいた際の静電容量の変化を検知する。タッチパネルは、例えば、タッチセンサが静電容量の変化を検知すると、ユーザによるタッチパネルへのタッチがあったとして、当該静電容量の分布に関する情報(以下「静電容量分布情報」という。)を、表示制御装置1に出力する。
 なお、第1のタッチパネル101および第2のタッチパネル102は、それぞれ、第1のタッチパネル101または第2のタッチパネル102であることを特定可能な情報を対応付けて、静電容量分布情報を表示制御装置1に出力する。静電容量分布情報は、静電容量の値と、当該値を検知したタッチパネル上の位置を示す情報とが対応付けられた情報を含む。タッチパネル上の位置は、例えば、座標であらわされる。
 ここで、図3は、タッチパネルにてユーザによる当該タッチパネルへのタッチが検出された場合の、当該タッチパネルにて検知された静電容量の分布のイメージの一例を示す図である。
 図3では、一例として、ユーザがタッチパネルに2点タッチ、言い換えれば、2本の指によるタッチを行ったものとしている。
 図3において、xy平面は、タッチパネルの内部に埋め込まれているタッチセンサを示している。また、図3において、縦軸は、タッチセンサにて検知された静電容量を示している。
 ユーザの指がタッチパネルにタッチされると、指がタッチされた箇所において、タッチセンサが静電容量の変化を検知する。
 なお、図3では、ユーザが指でタッチパネルにタッチしたものとしているが、ユーザが掌でタッチパネルにタッチした場合も同様に、タッチセンサは静電容量の変化を検知する。
 表示制御装置1は、図3において縦軸で示しているような、静電容量の値を、当該値が検出されたタッチパネル上の位置と対応付けた情報を、静電容量分布情報として取得する。
 表示制御装置1は、タッチパネルから静電容量分布情報を取得すると、当該静電容量分布情報に基づき、ユーザが映像表示装置100を把持している手(以下「把持手」という。)を判定する。具体的には、表示制御装置1は、静電容量分布情報に基づき、ユーザが映像表示装置100を右手で把持しているか、左手で把持しているかを判定する。表示制御装置1による把持手の判定方法の詳細については、後述する。
 表示制御装置1は、把持手を判定すると、映像表示装置100に対して、判定した把持手に応じた操作部の表示を行わせる。
 図1を用いた説明に戻る。
 図1に示すように、表示制御装置1は、静電容量取得部11、把持手判定部12、および、表示制御部13を備える。
 静電容量取得部11は、タッチパネルから静電容量分布情報を取得する。
 静電容量取得部11は、取得した静電容量分布情報を、把持手判定部12に出力する。
 把持手判定部12は、静電容量取得部11が取得した静電容量分布情報に基づき、ユーザが映像表示装置100を把持している把持手は右手であるか、左手であるかを判定する。
 把持手判定部12による把持手の判定方法について、具体例を挙げて説明する。
 把持手判定部12は、少なくとも、タッチが検出されたエリアの数が多い方のタッチパネルにおける静電容量の分布に基づいて、把持手を判定する。なお、一般に、ユーザが映像表示装置100を把持するとき、裏面側に添える指の本数の方が、表面側に添える指の本数より多いと想定される。実施の形態1でも、ユーザが映像表示装置100を把持するとき、裏面側に添える指の本数の方が、表面側に添える指の本数より多いことを前提として、以下説明する。したがって、把持手判定部12は、少なくとも映像表示装置100の裏面側のタッチパネルにおける静電容量の分布に基づいて、把持手を判定することになる。
 実施の形態1において、把持手判定部12は、例えば、裏面側のタッチパネルにおいてタッチが検出された複数のエリアのうち、ユーザが映像表示装置100を把持している状態で、ユーザからみて当該映像表示装置100の縦方向の最も上部に位置するエリア(以下「把持判定対象エリア」という。)に対して、把持手の判定を行うものとする。
 把持手判定部12は、例えば、裏面側のタッチパネル上において、把持判定対象エリアの重心と当該把持判定対象エリアの長手方向の両端とを通る線(以下「エリア重心線」という。)の方向によって、把持手が右手であるか左手であるかを判定する。
 把持手判定部12による把持手の判定方法のイメージを、図面を用いて説明する。
 図4は、実施の形態1において、ユーザが映像表示装置100を右手で把持している状態のタッチパネルにおける静電容量の分布のイメージの一例を示す図であって、図4Aは、表面側のタッチパネルにおける静電容量の分布のイメージの一例を示す図であり、図4Bは、裏面側のタッチパネルにおける静電容量の分布のイメージの一例を示す図である。
 図5は、実施の形態1において、ユーザが映像表示装置100を左手で把持している状態のタッチパネルにおける静電容量の分布のイメージの一例を示す図であって、図5Aは、表面側のタッチパネルにおける静電容量の分布のイメージの一例を示す図であり、図5Bは、裏面側のタッチパネルにおける静電容量の分布のイメージの一例を示す図である。
 図4および図5において、便宜上、裏面側の静電容量の分布のイメージは、映像表示装置100の表面側から見たイメージとして図示している。
 また、図4および図5は、いずれも、ユーザが4本の指で映像表示装置100の裏面を支え、1本の指で映像表示装置100の表面を支えるようにして、映像表示装置100を把持しているものとしている。
 図4において、裏面側のタッチパネルにおけるユーザの4本の指のタッチエリアを401a~401dで示している(図4B参照)。当該タッチエリア401a~401dは、裏面側のタッチパネルにおける静電容量の分布から特定可能である。タッチエリア401a~401dのうち、把持判定対象エリアは、401aで示すエリアとなる。また、図4において、表面側のタッチパネルにおけるユーザの1本の指のタッチエリアを401eで示している(図4A参照)。
 また、図5において、裏面側のタッチパネルにおけるユーザの4本の指のタッチエリアを501a~501dで示している(図5B参照)。当該タッチエリア501a~501dは、裏面側のタッチパネルにおける静電容量の分布から特定可能である。タッチエリア501a~501dのうち、把持判定対象エリアは、501aで示すエリアとなる。また、図5において、表面側のタッチパネルにおけるユーザの1本の指のタッチエリアを501eで示している(図5A参照)。
 図4に示すように、ユーザが映像表示装置100を右手で把持している状態において、エリア重心線402の方向は、映像表示装置100の表面側からみると、右下から左上方向に延びる。
 一方、図5に示すように、ユーザが映像表示装置100を左手で把持している状態において、エリア重心線502の方向は、映像表示装置100の表面側からみると、左下から右上方向に延びる。
 一般に、ユーザが映像表示装置100を片手で操作しようと当該映像表示装置100を把持するとき、裏面側を支える指の方が、前面側を支える指よりも多いと想定される。また、裏面側を支える指の本数が2本であっても、3本であっても、把持判定対象エリアにおいて、エリア重心線は、右手が把持手であれば表面側からみて左上方向に、左手が把持手であれば表面側からみて右上方向に、延びている場合が多いと想定される。
 よって、把持手判定部12は、例えば、エリア重心線の方向によって、把持手が右手であるか左手であるかを判定できる。
 把持手判定部12は、表面側からみたエリア重心線が右下から左上に延びていれば、把持手は右手と判定でき(図4B参照)、表面側からみたエリア重心線が左下から右上に延びていれば、把持手は左手と判定できる(図5B参照)。
 なお、上述の例では、把持手判定部12は、表面側からみたエリア重心線の方向によって把持手を判定するものとしたが、これは一例に過ぎない。例えば、把持手判定部12は、裏面側からみたエリア重心線の方向によって把持手を判定するようにしてもよい。この場合、把持手判定部12は、裏面側からみたエリア重心線が左下から右上方向に延びていれば把持手は右手と判定でき、裏面側からみたエリア重心線が右下から左上方向に延びていれば把持手は左手と判定できる。
 以上の例では、把持手判定部12は、エリア重心線の方向によって、把持手が右手であるか左手であるかを判定するものとしたが、これは一例に過ぎない。把持手判定部12は、例えば、表面側からみた、「エリア重心線」と「基準線」とが成す角度によって判定してもよい。実施の形態1において、「基準線」とは、「エリア重心線」と「装置中心線」との交点から、映像表示装置100の表面側からみて右方向に引いた当該「装置中心線」と直行する線をいう。また、実施の形態1において、「装置中心線」とは、裏面側のタッチパネル上において、ユーザが映像表示装置100を把持している状態で裏面側のタッチパネルの中心を通る当該映像表示装置100の縦方向の直線をいう。なお、上記角度について、「基準線」を0度とし、「基準線」よりも上側をプラス、「基準線」よりも下側をマイナスとする。
 例えば、図4Bに示すように、ユーザが映像表示装置100を右手で把持している状態において、表面側からみた、エリア重心線402と基準線(図4Bにおいて404で示す)とが成す角度は、マイナスとなる。なお、図4Bにおいて装置中心線は403で示している。
 一方、図5Bに示すように、ユーザが映像表示装置100を左手で把持している状態において、表面側からみた、エリア重心線502と基準線(図5Bにおいて504で示す)とが成す角度は、プラスとなる。なお、図5Bにおいて装置中心線は503で示している。
 よって、把持手判定部12は、例えば、エリア重心線と基準線とが成す角度によって、把持手が右手であるか左手であるかを判定できる。
 把持手判定部12は、表面側からみて、エリア重心線と基準線とが成す角度がマイナスになっていれば、把持手は右手と判定でき(図4B参照)、表面側からみて、エリア重心線と基準線とが成す角度がプラスになっていれば、把持手は左手と判定できる(図5B参照)。
 なお、上述の例では、把持手判定部12は、表面側からみたエリア重心線と基準線とが成す角度によって把持手を判定するものとしたが、これは一例に過ぎない。例えば、把持手判定部12は、裏面側からみたエリア重心線と基準線とが成す角度によって把持手を判定するようにしてもよい。この場合も、基準線は、例えば、エリア重心線と装置中心線との交点から、映像表示装置100の表面側からみて右方向に引いた当該装置中心線と直行する線とする。
 把持手判定部12は、裏面側からみても、エリア重心線と基準線とが成す角度がマイナスになっていれば把持手は右手と判定でき、エリア重心線と基準線とが成す角度がプラスになっていれば把持手は左手と判定できる。
 以上で説明した、把持手の判定方法では、把持手判定部12は、タッチが検出されたエリアの数が多い方のタッチパネル、言い換えれば、裏面側のタッチパネルにて検出された静電容量の分布に基づいて、把持手を判定するものとしていた。
 しかし、これは一例に過ぎない。例えば、把持手判定部12は、タッチが検出されたエリアの数が多い方のタッチパネルにおける静電容量の分布に加え、タッチが検出されたエリアの数が多い方とは反対側のタッチパネルにおける静電容量の分布も考慮して、把持手は右手であるか、左手であるかを判定するようにしてもよい。具体的には、例えば、把持手判定部12は、裏面側のタッチパネルにて検出された静電容量の分布に加え、表面側のタッチパネルにて検出された静電容量の分布も考慮して、把持手を判定してもよい。例えば、把持手判定部12は、表面側のタッチパネルにおけるタッチエリアの位置も考慮して把持手を判定してもよい。
 図4および図5に示した例でいうと、把持手判定部12は、例えば、図4Aの401eで示すエリア、または、図5Aの501eで示すタッチエリアの位置によって把持手を判定してもよい。なお、把持手判定部12は、タッチエリアの位置を、例えば、当該タッチエリアの重心の位置とする。図4Aにおいて、タッチエリア401eの重心は404で示している。また、図5Aにおいて、タッチエリア501eの重心は504で示している。
 図4に示すように、ユーザが映像表示装置100を右手で把持している状態において、表面側のタッチエリア401eの重心404は、表面側からみて、装置中心線よりも右側に位置する。
 一方、図5に示すように、ユーザが映像表示装置100を左手で把持している状態において、表面側のタッチエリア501eの重心504は、表面側からみて、装置中心線よりも左側に位置する。
 よって、把持手判定部12は、表面側のタッチパネルにおけるタッチエリアの重心が、表面側からみて装置中心線より右側に位置すれば、把持手は右手と判定でき、装置中心線より左側に位置すれば、把持手は左手と判定できる。
 把持手判定部12は、裏面側のタッチパネルにて検出された静電容量の分布に加え、表面側のタッチパネルにて検出された静電容量の分布も考慮して把持手を判定することで、裏面側のタッチパネルにて検出された静電容量の分布のみから把持手を判定する場合と比べ、より正確に、把持手の判定を行うことができる。
 なお、表面側のタッチパネルにおけるタッチエリアに基づく把持手の判定結果と、裏面側のタッチパネルにおけるタッチエリア、言い換えれば、把持判定対象エリアに基づく把持手の判定結果とが異なる場合もあり得る。この場合、把持手判定部12は、裏面側のタッチパネルにおけるタッチエリアに基づく把持手の判定結果を優先させる。
 例えば、把持手判定部12は、表面側のタッチパネルにおけるタッチエリアの中心の位置に基づけば、把持手は右手と判定できるとする。しかし、把持手判定部12は、裏面側のタッチパネルにおける把持判定対象エリアに基づけば、把持手は左手と判定できるとする。この場合、把持手判定部12は、最終的に、把持手は左手と判定する。このように、把持手判定部12は、裏面側のタッチパネル、言い換えれば、タッチエリアの数が多い方のタッチパネルにおける静電容量の分布に基づく把持手の判定結果を優先させる。
 把持手判定部12は、ユーザが映像表示装置100を把持している把持手を判定すると、当該判定結果に関する情報(以下「把持手判定結果情報」という。)を、表示制御部13に出力する。把持手判定結果情報には、把持手は右手であると判定したか左手であると判定したかの情報と、静電容量分布情報とが含まれる。
 表示制御部13は、把持手判定部12から出力された把持手判定結果情報に基づき、映像表示装置100の表面側のタッチパネル上に表示させる片手操作用の操作部を設定し、把持手判定部12が判定した把持手側に、片手操作用の操作部を表示させる。
 具体的には、表示制御部13は、把持手判定部12から出力された把持手判定結果情報に基づき、映像表示装置100の表面側のタッチパネル上に表示させる操作部として、右手操作用の操作部、または、左手操作用の操作部を設定する。表示制御部13は、右手操作用の操作部、または、左手操作用の操作部を設定すると、映像表示装置100の映像表示部103に対して、当該操作部を表示させる。
 ここで、図6は、実施の形態1において、表示制御部13が、把持手判定部12が判定した把持手側に片手操作用の操作部を表示させたタッチパネルの画面例のイメージを示す図である。
 図6Aは、表示制御部13が操作部601aを初期位置に表示させた画面例のイメージを示している。図6Bは、把持手判定部12が把持手は右手であると判定した場合に表示制御部13が右手操作用の操作部601bを表示させた画面例のイメージを示す図である。図6Cは、把持手判定部12が把持手は左手であると判定した場合に表示制御部13が左手操作用の操作部601cを表示させた画面例のイメージを示す図である。
 表示制御部13は、ユーザが映像表示装置100を把持していない状態においては、図6Aに示すように、操作部601aを初期位置に表示させる。ユーザが映像表示装置100を把持していない状態とは、例えば、タッチパネルから静電容量分布情報が出力されない状態をいう。
 ユーザが映像表示装置100を把持していない状態において表示される操作部601aは、ユーザが両方の手で操作する可能性を想定した、両手操作用の操作部601aである。当該両手操作用の操作部601aが表示される初期位置は、予め適宜設定可能である。実施の形態1では、一例として、ユーザが右手で操作しても左手で操作してもよいよう、当該両手操作用の操作部601aは、映像表示装置100の表面側のタッチパネル上において中央に表示されるものとする。なお、実施の形態1において、「中央」とは、厳密に「中央」であることに限定されない。実施の形態1において、「中央」は、「略中央」も含む。
 ユーザが映像表示装置100を把持している状態となり、タッチパネルから静電容量分布情報が出力され、把持手判定部12によってユーザが映像表示装置100を把持している把持手が判定されると、表示制御部13は、把持手判定部12による把持手の判定結果に応じて、操作部を、右手操作用または左手操作用に設定し、右手操作用の操作部、または、左手操作用の操作部を表示させる。
 具体的には、把持手判定部12が把持手は右手であると判定した場合、表示制御部13は、操作部を右手操作用に設定し、映像表示装置100の映像表示部103に対して、右手側に寄せた位置に、予め決められた大きさの右手操作用の操作部601bを、表示させる(図6B参照)。一方、把持手判定部12が把持手は左手であると判定した場合、表示制御部13は、操作部を左手操作用に設定し、映像表示装置100の映像表示部103に対して、左手側に寄せた位置に、予め決められた大きさの左手操作用の操作部601cを、表示させる(図6C参照)。
 このように、ユーザが映像表示装置100を把持すると、表示制御部13は、把持手判定部12が判定した把持手に応じて、操作部の表示態様を、初期状態(図6A参照)から変更する。
 実施の形態1において、片手操作用の操作部の大きさは、両手操作用の操作部601aを、予め設定された縮小率で縮小させた大きさである。また、実施の形態1において、右手操作用の操作部601bを表示させるタッチパネル上の位置、および、左手操作用の操作部601cを表示させるタッチパネル上の位置は、予め決められている。
 表示制御部13が片手操作用の操作部を表示させると、ユーザは、当該操作部をタッチ操作する。
 実施の形態1に係る表示制御装置1の動作について説明する。
 図7は、実施の形態1に係る表示制御装置1の動作を説明するためのフローチャートである。
 ユーザが映像表示装置100を把持していない状態となり、映像表示装置100のタッチパネル(第1のタッチパネル101および第2のタッチパネル102)によってユーザのタッチ操作が検知され、タッチパネルから静電容量分布情報が出力されると、表示制御装置1は、図7のフローチャートにて説明するような動作を行う。
 静電容量取得部11は、タッチパネルから静電容量分布情報を取得する(ステップST701)。
 静電容量取得部11は、取得した静電容量分布情報を、把持手判定部12に出力する。
 把持手判定部12は、ステップST701にて静電容量取得部11が取得した静電容量分布情報に基づき、ユーザが映像表示装置100を把持している把持手は右手であるか、左手であるかを判定する(ステップST702)。
 ステップST702にて、把持手判定部12は、ユーザが映像表示装置100を把持している把持手が右手であると判定した場合(ステップST702の“YES”の場合)、把持手は右手であると判定した旨の把持手判定結果情報を、表示制御部13に出力する。
 表示制御部13は、ステップST702にて把持手判定部12から出力された把持手判定結果情報に基づき、操作部を右手操作用に設定し、映像表示装置100の表面側のタッチパネル上の、右手側に、右手操作用の操作部を表示させる(ステップST703)。
 一方、ステップST702にて、把持手判定部12は、ユーザが映像表示装置100を把持している把持手が左手であると判定した場合(ステップST702の“NO”の場合)、把持手は左手であると判定した旨の把持手判定結果情報を、表示制御部13に出力する。
 表示制御部13は、ステップST702にて把持手判定部12から出力された把持手判定結果情報に基づき、操作部を左手操作用に設定し、映像表示装置100の表面側のタッチパネル上の、左手側に、左手操作用の操作部を表示させる(ステップST704)。
 このように、表示制御装置1は、第1のタッチパネル101および第2のタッチパネル102における静電容量の分布に関する静電容量分布情報に基づき、ユーザが映像表示装置100を把持している把持手は右手であるか、左手であるかを判定する。表示制御装置1は、把持手を判定すると、ユーザが映像表示装置100を把持している状態においてユーザの顔の正面となる映像表示装置100の表面側のタッチパネル上の把持手側に、片手操作用の操作部を表示させる。
 これにより、表示制御装置1は、ユーザが映像表示装置100を把持している手を考慮した表示制御を行うことができる。
 以上の実施の形態1において、表示制御装置1は、ユーザの利き手を考慮して操作部の表示制御を行うこともできる。
 一般に、人は、利き手で映像表示装置100を把持している場合、当該利き手でタッチ操作、言い換えれば、片手操作を、難なく行えると想定される。一方、人は、利き手ではない手で映像表示装置100を把持している場合、当該利き手ではない手で片手操作を行うには難があり、把持手ではない利き手でのタッチ操作を行う両手操作のほうが、ユーザにとっては操作性が向上すると想定される。
 そこで、表示制御装置1は、ユーザの利き手を考慮し、ユーザがタッチ操作しやすくなるよう、片手操作用の操作部を表示させるか両手操作用の操作部を表示させるかを制御することができる。
 具体的には、表示制御装置1において、把持手判定部12は、静電容量取得部11が取得した静電容量分布情報に基づき、ユーザが映像表示装置100を把持している把持手を判定すると、判定した把持手がユーザの利き手であるか否かを判定する。
 把持手判定部12は、例えば、過去のユーザによるタッチ操作の傾向から、ユーザの利き手を判定する。この場合、把持手判定部12は、例えば、ユーザの把持手を判定すると、ユーザを特定可能な情報と把持手判定結果情報とを対応付けて、記憶部(図示省略)に記憶しておくものとする。なお、ユーザを特定可能な情報とは例えばIDであり、当該ユーザを特定可能な情報は予め登録されているものとする。記憶部は、表示制御装置1が参照可能な場所に備えられる。把持手判定部12は、記憶部を参照して、ユーザのタッチ操作の傾向を判定すればよい。
 また、例えば、予めユーザの利き手が設定された利き手情報が記憶部に登録されているものとし、把持手判定部12は、登録されている利き手情報に基づき、ユーザの利き手を判定してもよい。例えば、ユーザが、予め利き手情報を登録しておく。
 把持手判定部12は、把持手判定結果情報を出力する際、当該把持手判定結果情報に、把持手は右手であると判定したか左手であると判定したかの情報と静電容量分布情報に加え、判定した把持手はユーザの利き手であるか否かの情報を含めるようにする。
 表示制御部13は、把持手判定部12から出力された把持手判定結果情報に基づき、把持手判定部12が判定した把持手がユーザの利き手である場合、操作部の表示モードを、片手操作用の操作部を表示させる片手操作モードとする。そして、表示制御部13は、映像表示装置100の表面側のタッチパネル上に片手操作用の操作部を設定し、把持手判定部12が判定した把持手側に、片手操作用の操作部を表示させる。片手操作用の操作部を表示させる具体的な動作は説明済みであるため、重複した説明を省略する。
 一方、表示制御部13は、把持手判定部12が判定した把持手がユーザの利き手ではない場合、操作部の表示モードを、両手操作用の操作部を表示させる両手操作モードとする。表示制御部13は、両手操作モードとした場合、映像表示装置100の表面側のタッチパネル上に表示させる操作部の表示態様を、初期位置に表示された初期状態(図6A参照)から変更しない。すなわち、表示制御部13は、ユーザが右手で操作しても左手で操作してもよいよう、操作部を両手操作用に設定し、両手操作用の操作部を、映像表示装置100の表面側のタッチパネル上において中央に表示させる。
 図8は、実施の形態1において、表示制御装置1が、ユーザの利き手を考慮して操作部の表示制御を行うようにした場合の、表示制御装置1の動作を説明するためのフローチャートである。
 図8において、ステップST801、ステップST804~ステップST805の具体的な動作は、それぞれ、図7を用いて説明済みの、ステップST701、ステップST704~ステップST705の具体的な動作と同様であるため、重複した説明を省略する。
 把持手判定部12は、ステップST801にて静電容量取得部11が取得した静電容量分布情報に基づき、ユーザが映像表示装置100を把持している把持手は右手であるか、左手であるかを判定する。また、このとき、把持手判定部12は、判定した把持手がユーザの利き手であるか否かを判定する(ステップST802)。
 把持手判定部12は、ユーザが映像表示装置100を把持している把持手がユーザの利き手であると判定した場合(ステップST802の“YES”の場合)であって、ユーザが映像表示装置100を把持している把持手が右手であると判定した場合(ステップST803の”YES”の場合)、把持手が右手である旨の情報、および、把持手はユーザの利き手であると判定した旨の情報を含む把持手判定結果情報を、表示制御部13に出力する。そして、表示制御装置1の動作は、ステップST804に進む。
 把持手判定部12は、ユーザが映像表示装置100を把持している把持手がユーザの利き手であると判定した場合(ステップST802の“YES”の場合)であって、ユーザが映像表示装置100を把持している把持手が左手であると判定した場合(ステップST803の”NO”の場合)、把持手が左手である旨の情報、および、把持手はユーザの利き手であると判定した旨の情報を含む把持手判定結果情報を、表示制御部13に出力する。そして、表示制御装置1の動作は、ステップST805に進む。
 ステップST802にて、把持手判定部12は、ユーザが映像表示装置100を把持している把持手がユーザの利き手ではないと判定した場合(ステップST802の“NO”の場合)、把持手が右手であるか左手であるかの情報、および、把持手はユーザの利き手ではないと判定した旨の情報を含む把持手判定結果情報を、表示制御部13に出力する。そして、表示制御装置1の動作は、ステップST806に進む。
 表示制御部13は、操作部の表示モードを、両手操作用の操作部を表示させる両手操作モードとし、映像表示装置100の表面側のタッチパネル上に表示させる操作部の表示態様を、初期位置に表示された初期状態(図6A参照)から変更しない。すなわち、表示制御部13は、ユーザが右手で操作しても左手で操作してもよいよう、操作部を両手操作用に設定し、両手操作用の操作部を、映像表示装置100の表面側のタッチパネル上において中央に表示させた状態とする(ステップST806)。
 このように、実施の形態1において、表示制御装置1は、ユーザの利き手を考慮して操作部の表示制御を行うことができる。具体的には、表示制御装置1は、ユーザが映像表示装置100を把持している把持手がユーザの利き手であると判定した場合は、把持手側に寄せて片手操作用の操作部を表示させ、当該把持手がユーザの利き手ではないと判定した場合は、両手操作用の操作部を表示させる。
 把持手が利き手でない場合、ユーザは、利き手でないほうの手によるタッチ操作、すなわち、片手操作が行いづらい。
 表示制御装置1は、ユーザが映像表示装置100を把持している把持手がユーザの利き手ではない場合は、両手操作用の操作部を表示させる。これにより、表示制御装置1は、ユーザが利き手でないほうの手で映像表示装置100を把持した場合の、ユーザによる当該映像表示装置100の操作性を向上させることができる。
 また、以上の実施の形態1において、表示制御装置1は、片手操作用の操作部を設定し表示させ、かつ、ユーザがタッチ操作することが可能な領域(以下「タッチ可能領域」という。)を設定するようにすることもできる。
 上述のとおり、片手操作用の操作部は、両手操作用の操作部と比べ、ユーザの把持手側に寄せた位置に縮小されて表示される。ユーザが片手でタッチ操作を行う場合、タッチ可能領域は、映像表示装置100の表面側のタッチパネル上において、片手操作用の操作部が表示される領域に限られる。そこで、表示制御装置1は、片手操作用の操作部にあわせて、タッチ可能領域を設定する。
 具体的には、表示制御装置1において、表示制御部13は、把持手判定部12から出力された把持手判定結果情報に基づき、表面側のタッチパネル上に表示させる片手操作用の操作部を設定し、把持手判定部12が判定した把持手側に、片手操作用の操作部を表示させる。その際、表示制御部13は、タッチ可能領域を設定する。
 具体的には、表示制御部13は、映像表示装置100の表面側のタッチパネル上にて片手操作用の操作部が表示されている領域を、タッチ可能領域に設定する。表示制御部13は、右手操作用の操作部を表示させた場合、当該右手操作用の操作部が表示されている領域を、タッチ可能領域に設定する。表示制御部13は、左手操作用の操作部を表示させた場合、当該左手操作用の操作部が表示されている領域を、タッチ可能領域に設定する。
 ここで、図9は、表示制御部13が設定したタッチ可能領域のイメージの一例を説明するための図である。
 図9Aは、把持手判定部12が把持手は右手であると判定した場合に表示制御部13が右手操作用の操作部601bを表示させた場合において、当該表示制御部13が設定するタッチ可能領域901のイメージを示す図である。図9Bは、把持手判定部12が把持手は左手であると判定した場合に表示制御部13が左手操作用の操作部601cを表示させた場合において、当該表示制御部13が設定するタッチ可能領域902のイメージを示す図である。
 表示制御部13は、映像表示装置100の映像表示部103に片手操作用の操作部を表示させる。また、表示制御部13は、設定したタッチ可能領域に関する情報を映像表示装置100の制御部(図示省略)に出力する。
 映像表示装置100の制御部は、映像表示装置100の表面側のタッチパネルにおけるタッチ可能領域を、表示制御部13が設定した領域に限定する。
 図10は、実施の形態1において、片手操作用の操作部を設定し表示させ、かつ、タッチ可能領域を設定するようにする構成とした場合の、表示制御装置1の動作について説明するためのフローチャートである。
 図10において、ステップST1001~ステップST1004の具体的な動作は、それぞれ、図7を用いて説明済みの、ステップST701~ステップST704の具体的な動作と同様であるため、重複した説明を省略する。
 ステップST1003にて、操作部を右手操作用に設定し、映像表示装置100の表面側のタッチパネル上の、右手側に、右手操作用の操作部を表示させると、表示制御部13は、当該右手操作用の操作部を表示させる領域を、タッチ可能領域に設定する(ステップST1005)。表示制御部13は、設定したタッチ可能領域に関する情報を、映像表示装置100の制御部に出力する。
 ステップST1004にて操作部を左手操作用に設定し、映像表示装置100の表面側のタッチパネル上の、左手側に、左手操作用の操作部を表示させると、表示制御部13は、当該左手操作用の操作部を表示させる領域を、タッチ可能領域に設定する(ステップST1006)。表示制御部13は、設定したタッチ可能領域に関する情報を、映像表示装置100の制御部に出力する。
 このように、表示制御装置1は、映像表示装置100に対して操作用の操作部を表示させる制御と、片手操作用の操作部の表示領域にあわせてタッチ可能領域を制限させる制御とを行うようにすることができる。
 これにより、表示制御装置1は、ユーザが映像表示装置100を把持している手を考慮した表示制御を行うことができるとともに、ユーザにとって、より操作性を向上させることができる。
 なお、表示制御装置1は、ユーザの利き手を考慮して操作部の表示制御を行うこともできるようにした構成において、操作部の表示モードを片手操作モードとした場合に、片手操作用の操作部を設定し表示させ、かつ、タッチ可能領域を設定するようにすることもできる。
 その場合、表示制御装置1の動作は、図8のフローチャートを用いて説明したような動作において、ステップST804の動作の後に図10のステップST1005の動作を行い、ステップST805の動作の後に図10のステップST1006の動作を行うことになる。
 また、以上の実施の形態1では、右手操作用の操作部(図6の601b参照)を表示させるタッチパネル上の位置、および、左手操作用の操作部(図6の601c参照)を表示させるタッチパネル上の位置は、予め決められているものとした。しかし、これは一例に過ぎない。
 表示制御装置1の表示制御部13は、ユーザが映像表示装置100を把持している把持手の位置に応じて、片手操作用の操作部を表示させるタッチパネル上の表示位置を変更することもできる。以下、具体例を挙げて説明する。
 例えば、表示制御部13は、表面側のタッチパネル上の表示領域を複数に分け、表面側のタッチエリアの位置が、どの表示領域上にあるかによって、片手操作用の操作部の、映像表示装置100の縦方向の表示位置を変更することができる。なお、表面側のタッチエリアの位置は、例えば、当該タッチエリアの中心とする。例えば、表面側のタッチエリアが複数存在する場合は、任意のタッチエリアの位置に基づいて片手操作用の操作部の縦方向の表示位置を変更すればよい。
 ここで、図11、図12は、実施の形態1において、表示制御部13が、ユーザが映像表示装置100を把持している把持手の位置に応じてタッチパネル上の表示位置を変更して表示させるようにした片手操作用の操作部1103,1203のイメージを説明するための図である。図11A、図12Aは、ユーザが映像表示装置100を把持した状態を映像表示装置100の表面側からみたイメージの斜視図を示しており、図11B、図12Bは、映像表示装置100の表面のタッチパネル上にて操作部が表示された状態を映像表示装置100の表面側からみたイメージの斜視図を示している。
 図11および図12では、一例として、表示制御部13は、タッチパネル上の表示領域を3つに分けて、片手操作用の操作部の縦方向の表示位置を変更するものとしている。
 図11、図12では、表示制御部13は、タッチパネル上の表示領域を縦方向に3等分し、一番下の領域を第1の領域1102a、真ん中の領域を第2の領域1102b、一番上の領域を第3の領域1102cとするものとしている。図11、図12において、第1の領域を1102a、第2の領域を1102b、第3の領域を1102cで示している。
 図11Aでは、映像表示装置100の表面側のタッチエリアの重心(図11Aにおいて1101にて示す)は、第2の領域1102b上にある。従って、表示制御部13は、例えば、図11Bに示すように、操作部(図11Bにおいて1103にて示す)を、第2の領域1102bに対応する位置に表示させる。
 図12Aでは、映像表示装置100の表面側のタッチエリアの重心(図12Aにおいて1201にて示す)は、第1の領域1102a上にある。従って、表示制御部13は、例えば、図12Bに示すように、操作部(図12Bにおいて1203にて示す)を、第1の領域1102aに対応する位置に表示させる。
 なお、第1の領域1102a、第2の領域1102b、または、第3の領域1102cに対応する操作部の表示位置は、予め決められている。例えば、第1の領域1102a、第2の領域1102b、または、第3の領域1102cに表示させる操作部の大きさも、予め決められている。
 なお、表示制御部13は、表面側のタッチエリアの位置がどの表示領域上にあるかによって、片手操作用の操作部の、縦方向の表示位置を変更する際、変更した片手操作用の操作部の表示位置にあわせてタッチ可能領域を設定するようにしてもよい。
 例えば、図11Bでは、表示制御部13は、タッチ可能領域1104を設定したものとし、図12Bでは、表示制御部13は、タッチ可能領域1204を設定したものとしている。
 上述したような、表示制御部13による片手操作用の操作部の表示位置の変更方法は、一例に過ぎない。
 例えば、表示制御部13は、裏面側の複数のタッチエリアの重心の位置と向かい合う表面側のタッチパネル上の位置に操作部の中心がくるように、片手操作用の操作部の表示位置を変更してもよい。
 このように、表示制御装置1は、ユーザが映像表示装置100を把持している把持手の位置に応じて、片手操作用の操作部の表示位置、または、当該表示位置に応じたタッチ可能領域の位置を、変更することができる。
 これにより、表示制御装置1は、ユーザが映像表示装置100を把持している手を考慮した表示制御を行うことができるとともに、ユーザにとって、より操作性を向上させることができる。
 また、以上の実施の形態1において、表示制御部13は、ユーザが映像表示装置100を把持している把持手の位置に応じて、片手操作用の操作部の大きさを変更するようにしてもよい。具体的には、例えば、表示制御部13は、表示制御部13は、ユーザが映像表示装置100を把持している把持手の位置に応じて、片手操作用の操作部の、両手操作用の操作部に対する縮小率を変えるようにしてもよい。
 具体例を挙げると、例えば、表示制御部13は、表面側のタッチエリアの位置が、装置中心線に対して右方向または左方向にどれぐらい離れているかによって、片手操作用の操作部の、両手操作用の操作部に対する縮小率を変えるようにしてもよい。
 例えば、表示制御部13は、表面側のタッチエリアの位置が、装置中心線に対して右方向にいけばいくほど、または、装置中心線に対して左方向にいけばいくほど、上記縮小率を上げる。
 このように、表示制御装置1は、ユーザが映像表示装置100を把持している把持手の位置に応じて、片手操作用の操作部の大きさを変更することができる。
 これにより、表示制御装置1は、ユーザが映像表示装置100を把持している手を考慮した表示制御を行うことができるとともに、ユーザにとって、より操作性を向上させることができる。
 図13A,図13Bは、実施の形態1に係る表示制御装置1のハードウェア構成の一例を示す図である。
 実施の形態1において、静電容量取得部11と、把持手判定部12と、表示制御部13の機能は、処理回路1301により実現される。すなわち、表示制御装置1は、映像表示装置100における表示制御を行うための処理回路1301を有する。
 処理回路1301は、図13Aに示すように専用のハードウェアであっても、図13Bに示すようにメモリ1306に格納されるプログラムを実行するCPU(Central Processing Unit)1305であってもよい。
 処理回路1301が専用のハードウェアである場合、処理回路1301は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
 処理回路1301がCPU1305の場合、静電容量取得部11と、把持手判定部12と、表示制御部13の機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、静電容量取得部11と、把持手判定部12と、表示制御部13は、HDD(Hard Disk Drive)1302、メモリ1306等に記憶されたプログラムを実行するCPU1305、システムLSI(Large-Scale Integration)等の処理回路1301により実現される。また、HDD1302、メモリ1306等に記憶されたプログラムは、静電容量取得部11と、把持手判定部12と、表示制御部13の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1306とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
 なお、静電容量取得部11と、把持手判定部12と、表示制御部13の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、静電容量取得部11については専用のハードウェアとしての処理回路1301でその機能を実現し、把持手判定部12と、表示制御部13については処理回路1301がメモリ1306に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 また、図示しない記憶部は、記憶部は、メモリ1306を使用する。なお、これは一例であって、記憶部は、HDD1302、SSD(Solid State Drive)、または、DVD等によって構成されるものであってもよい。
 また、表示制御装置1は、映像表示装置100等の機器と情報の授受を行う入力インタフェース装置1303、出力インタフェース装置1304を有する。
 以上のように、実施の形態1によれば、表示制御装置1は、第1のタッチパネル101および第2のタッチパネル102における静電容量の分布に関する情報を取得する静電容量取得部11と、静電容量取得部11が取得した静電容量の分布に関する情報に基づき、ユーザが映像表示装置100を把持している把持手は右手であるか、左手であるかを判定する把持手判定部12と、ユーザが映像表示装置100を把持している状態においてユーザの顔の正面となる映像表示装置100の表面側のタッチパネル上の、把持手判定部12が判定した把持手側に、片手操作用の操作部を表示させる表示制御部13とを備えるように構成した。
 そのため、表示制御装置1は、ユーザが映像表示装置100を把持している手を考慮した表示制御を行うことができる。
 なお、本開示は、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
 本開示に係る表示制御装置は、ユーザが映像表示装置を把持している手を考慮した表示制御を行うことができるようにしたため、例えば、第1のタッチパネルと第2のタッチパネルとを表裏両面に備えた映像表示装置における表示制御を行う表示制御装置に適用することができる。
 1 表示制御装置、11 静電容量取得部、12 把持手判定部、13 表示制御部、100 映像表示装置、101 第1のタッチパネル、102 第2のタッチパネル、103 映像表示部、1301 処理回路、1302 HDD、1303 入力インタフェース装置、1304 出力インタフェース装置、1305 CPU、1306 メモリ。

Claims (6)

  1.  第1のタッチパネルと第2のタッチパネルとを表裏両面に備えた映像表示装置における表示制御を行う表示制御装置であって、
     前記第1のタッチパネルおよび前記第2のタッチパネルにおける静電容量の分布に関する情報を取得する静電容量取得部と、
     前記静電容量取得部が取得した前記静電容量の分布に関する情報に基づき、ユーザが前記映像表示装置を把持している把持手は右手であるか、左手であるかを判定する把持手判定部と、
     前記ユーザが前記映像表示装置を把持している状態において前記ユーザの顔の正面となる前記映像表示装置の表面側のタッチパネル上の、前記把持手判定部が判定した前記把持手側に、片手操作用の操作部を表示させる表示制御部
     とを備えた表示制御装置。
  2.  前記把持手判定部は、
     前記第1のタッチパネルまたは前記第2のタッチパネルのうち、タッチが検出されたエリアの数が多い方のタッチパネルにおける前記静電容量の分布に基づき、前記把持手は右手であるか、左手であるかを判定する
     ことを特徴とする請求項1記載の表示制御装置。
  3.  前記把持手判定部は、
     前記タッチが検出されたエリアの数が多い方のタッチパネルにおける前記静電容量の分布に加え、前記タッチが検出されたエリアの数が多い方とは反対側のタッチパネルにおける前記静電容量の分布を考慮して、前記把持手は右手であるか、左手であるかを判定する
     ことを特徴とする請求項2記載の表示制御装置。
  4.  前記表示制御部は、前記把持手判定部が判定した前記把持手が前記ユーザの利き手である場合、前記把持手側に前記片手操作用の操作部を表示させ、前記把持手判定部が判定した前記把持手が前記ユーザの利き手ではない場合、両手操作用の操作部を表示させる
     ことを特徴とする請求項1記載の表示制御装置。
  5.  前記把持手判定部は、
     前記静電容量取得部が取得した前記静電容量の分布に基づき、前記ユーザによるタッチを検出し、当該ユーザが前記映像表示装置を把持している把持手は右手であるか、左手であるかを判定すると、前記映像表示装置の表面側のタッチパネル上において前記ユーザがタッチ操作可能なタッチ可能領域を設定する
     ことを特徴とする請求項1記載の表示制御装置。
  6.  第1のタッチパネルと第2のタッチパネルとを表裏両面に備えた映像表示装置における表示制御を行う表示制御方法であって、
     静電容量取得部が、前記第1のタッチパネルおよび前記第2のタッチパネルにおける静電容量の分布に関する情報を取得するステップと、
     把持手判定部が、前記静電容量取得部が取得した前記静電容量の分布に関する情報に基づき、ユーザが前記映像表示装置を把持している把持手は右手であるか、左手であるかを判定するステップと、
     表示制御部が、前記ユーザが前記映像表示装置を把持している状態において前記ユーザの顔の正面となる前記映像表示装置の表面側のタッチパネル上の、前記把持手判定部が判定した前記把持手側に、片手操作用の操作部を表示させるステップ
     とを備えた表示制御方法。
PCT/JP2020/023354 2020-06-15 2020-06-15 表示制御装置および表示制御方法 WO2021255775A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/023354 WO2021255775A1 (ja) 2020-06-15 2020-06-15 表示制御装置および表示制御方法
JP2022531104A JP7353491B2 (ja) 2020-06-15 2020-06-15 表示制御装置および表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/023354 WO2021255775A1 (ja) 2020-06-15 2020-06-15 表示制御装置および表示制御方法

Publications (1)

Publication Number Publication Date
WO2021255775A1 true WO2021255775A1 (ja) 2021-12-23

Family

ID=79268605

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/023354 WO2021255775A1 (ja) 2020-06-15 2020-06-15 表示制御装置および表示制御方法

Country Status (2)

Country Link
JP (1) JP7353491B2 (ja)
WO (1) WO2021255775A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7499833B2 (ja) 2022-09-16 2024-06-14 北京小米移動軟件有限公司 表示制御方法、装置及び記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076521A (ja) * 2009-10-01 2011-04-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting
WO2012049942A1 (ja) * 2010-10-13 2012-04-19 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6219426B2 (ja) 2016-03-06 2017-10-25 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器が使用モードを変更する方法、携帯式電子機器およびコンピュータ・プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076521A (ja) * 2009-10-01 2011-04-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting
WO2012049942A1 (ja) * 2010-10-13 2012-04-19 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7499833B2 (ja) 2022-09-16 2024-06-14 北京小米移動軟件有限公司 表示制御方法、装置及び記憶媒体

Also Published As

Publication number Publication date
JP7353491B2 (ja) 2023-09-29
JPWO2021255775A1 (ja) 2021-12-23

Similar Documents

Publication Publication Date Title
JP6046729B2 (ja) 全方向ジェスチャー入力
JP5205157B2 (ja) 携帯型画像表示装置、その制御方法、プログラム及び情報記憶媒体
JP5749805B2 (ja) デバイスタッチインタフェースの機能を用いる仮想オブジェクトの制御
US8902181B2 (en) Multi-touch-movement gestures for tablet computing devices
JP5529700B2 (ja) 情報処理装置、その制御方法、及びプログラム
US10198854B2 (en) Manipulation of 3-dimensional graphical objects for view in a multi-touch display
KR101919169B1 (ko) 컴퓨팅 디바이스와 사용작용할 때 생성된 입력 이벤트의 해석을 향상시키기 위해 컴퓨팅 디바이스의 이동을 사용하는 방법
US20130154952A1 (en) Gesture combining multi-touch and movement
JPWO2013094371A1 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
JP2011248784A (ja) 電子機器、及び表示制御方法
EP2842013A1 (en) Systems and methods for managing the display of content on an electronic device by detecting covered areas of the display
EP2715505A1 (en) Edge gesture
TW200941312A (en) Hand-held device with touchscreen and digital tactile pixels
CN103995668A (zh) 一种信息处理方法和电子设备
JP6183820B2 (ja) 端末、及び端末制御方法
WO2021255775A1 (ja) 表示制御装置および表示制御方法
WO2020258950A1 (zh) 一种移动终端的控制方法及移动终端
JP6188377B2 (ja) 表示制御装置、その制御方法、および制御プログラム
US10466812B2 (en) Enhancing input on small displays with a finger mounted stylus
CN103870042A (zh) 显示图像的方法和电子设备
JP2011070489A (ja) ユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラム
JP2019096182A (ja) 電子装置、表示方法、およびプログラム
JP5855481B2 (ja) 情報処理装置、その制御方法およびその制御プログラム
TW201528114A (zh) 電子裝置及其觸控系統、觸控方法
JP5982677B2 (ja) 端末装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20940867

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022531104

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20940867

Country of ref document: EP

Kind code of ref document: A1