WO2014132472A1 - 制御装置 - Google Patents

制御装置 Download PDF

Info

Publication number
WO2014132472A1
WO2014132472A1 PCT/JP2013/074866 JP2013074866W WO2014132472A1 WO 2014132472 A1 WO2014132472 A1 WO 2014132472A1 JP 2013074866 W JP2013074866 W JP 2013074866W WO 2014132472 A1 WO2014132472 A1 WO 2014132472A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
user
coordinate
image
screen
Prior art date
Application number
PCT/JP2013/074866
Other languages
English (en)
French (fr)
Inventor
酒井 保
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2014132472A1 publication Critical patent/WO2014132472A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to a control device that controls a display device.
  • a single display device is used to divide the screen so that a person at a different position from the operator can check the display contents at the same time If the display device can display the same content at different positions, the convenience is further increased.
  • Patent Document 1 A display device capable of such division display is disclosed in Patent Document 1.
  • the display device of Patent Document 1 is a display device that divides a screen and displays the same image in each of the divided regions, and suppresses unintended position information input during divided display.
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2005-208992 (published on August 4, 2005)”
  • Patent Document 1 does not disclose a method for changing the direction and division method of an image displayed on a display screen in divided display. For this reason, it is difficult to display an image at a position where the user can easily view in a table or the like where the number of users and the position where the display is viewed are not fixed.
  • Patent Literature 1 does not disclose a technique for correcting the input position of the input operation performed on the display screen.
  • the present invention has been made to solve the above-mentioned problems, and a first object of the present invention is to provide a display device with excellent display screen visibility.
  • the second object of the present invention is to appropriately correct the position of the input operation performed on the display screen.
  • a display control device provides a display control device according to the position of a user detected by a position detection device that detects the position of the user with respect to a display device having a screen. It is characterized by comprising display area determining means for determining a display area of at least one image displayed on the section.
  • the present invention it is possible to display an image at a position on the display screen that is easy to see for a user in the vicinity of the display device, thereby improving the visibility of the image.
  • FIG. 1 It is a functional block diagram which shows the structure of the display system which concerns on one Embodiment of this invention. It is a perspective view which shows the external appearance of the display system which concerns on one Embodiment of this invention.
  • (A) is a figure which shows an example of the screen of the conventional display apparatus, (b)-(d) of the image display according to the position of the user in the display apparatus with which the display system which concerns on one Embodiment of this invention is provided. It is a figure which shows an example. It is a flowchart which shows an example of the flow of the display process in the display system which concerns on one Embodiment of this invention. It is a functional block diagram which shows the structure of the display system which concerns on other embodiment of this invention.
  • FIG. 1 is a functional block diagram showing the configuration of the display system 1 according to the present embodiment.
  • FIG. 2 is a perspective view showing the appearance of the display system 1.
  • the display system 1 includes a display device 2, a display device control PC (personal computer) 3, sensors (position detection devices) 4A to 4D, a table 5, And a video apparatus 6A to 6C.
  • PC personal computer
  • the display device control PC 3 may be incorporated in the table 5, and the display device 2 and the display device control PC 3 may be integrally formed.
  • the main control unit 32 may be incorporated in the display device 2.
  • any or all of the video devices 6A to 6C may be incorporated in the display device control PC 3 or may be integrally formed.
  • the display system 1 includes a table 5 incorporating a display device 2 and sensors 4A to 4D.
  • the user exists near any of the sides 5A to 5D of the table 5 (and at which position of each side) by the sensors 4A to 4D incorporated in the sides 5A to 5D of the table 5, respectively. Detect whether you are doing.
  • the display device control PC 3 determines a display area and a display direction of an image displayed on the screen of the display device 2 based on a user detection signal indicating the presence of the user detected by the sensors 4A to 4D. Then, the display device control PC 3 performs display control so that images acquired from any or all of the video devices 6A to 6C are displayed in the display area. Thus, an image that is easy for the user to visually recognize is displayed on the display device 2 according to the position of the user.
  • the table 5 has a square top plate, and a configuration in which four sensors are incorporated in each side of the square is presented.
  • the shape of the top plate of the table 5 is a square shape.
  • the shape is not limited to the above and may be other shapes (for example, a circle or a triangle).
  • Display device 2 is a display device with a touch panel, and is incorporated in the table 5, and the display screen of the display device 2 can be viewed from around the table 5.
  • the display device 2 includes a touch panel (input unit, transparent member) 21 disposed in front of the display screen, a touch position information generation unit 22 that calculates an input position, and a display unit that displays an image. 24, a display control unit 23 that controls the display unit 24, and a communication unit 26 that communicates with the display device control PC 3.
  • the touch panel 21 is a user interface that accepts an input operation by the user, and is arranged at a position overlapping the display screen of the display unit 24. Therefore, the touch panel 21 can detect an input operation on the display screen included in the display unit 24.
  • the touch panel 21 is, for example, a capacitance type input panel.
  • a capacitive touch panel an input position is detected by a change in capacitance caused by contact (or proximity) of a finger on an input panel coated with a transparent conductive film.
  • a touch panel of another method such as a resistive film method, an ultrasonic surface acoustic wave method, an infrared scanning method, or the like may be used.
  • the touch position information generation unit 22 receives a signal output from the touch panel 21, and generates touch position information indicating the input position to the touch panel 21 by the user as coordinates based on the signal.
  • the touch position information generation unit 22 transmits the touch position information to the display device control PC 3.
  • the touch position information generation unit 22 calculates the input position by analyzing an image captured by the optical sensor liquid crystal.
  • the display control unit 23 receives the display image generated by the display device control PC 3 and displays the display image on the display unit 24.
  • the display control unit 23 includes a liquid crystal timing controller 231 that drives a liquid crystal panel 241 that performs image display, and an LED driver 232 that drives an LED backlight unit 242 that emits light on a display screen.
  • the display unit 24 is an LCD (Liquid Crystal Display) including a liquid crystal panel 241 and an LED backlight unit 242, but for example, a PDP (Plasma Display Panel) or an organic EL ( It may be a thin flat panel display, such as Organic Electro-Luminescence.
  • LCD Liquid Crystal Display
  • PDP Plasma Display Panel
  • organic EL It may be a thin flat panel display, such as Organic Electro-Luminescence.
  • the communication unit 26 may perform wired communication or wireless communication.
  • the sensors 4A to 4D detect the presence / absence of a user located around the table 5, and generate a user detection signal when the user is detected.
  • the sensors 4A to 4D may be, for example, infrared sensors, ultrasonic sensors, or distance image sensors.
  • the sensors 4A to 4D are incorporated in the respective sides 5A to 5D of the table 5, but the number of sensors is not limited to four. For example, it is not always necessary to incorporate sensors on all sides of the table 5, and any configuration may be adopted as long as corresponding sensors are incorporated on at least two or more sides of the table.
  • the sensors 4A and 4C may be incorporated in the opposing sides 5A and 5C, respectively.
  • a plurality of sensors may be provided for one side of the table 5 to detect at which position of the side the user is present.
  • the video devices 6A to 6C output the video (image) to the display device control PC 3.
  • the video devices 6A to 6C may be, for example, a Blu-Ray Disc (registered trademark) playback device, a TV tuner, a PC, a smartphone, or the like. Further, the number of video devices is not limited to three and may be any number. Also, some or all of the video devices 6A to 6C may be incorporated in the display device control PC 3. Images output from the video devices 6A to 6C may be still images or moving images.
  • the display device control PC 3 includes a storage unit 31 that stores data, a main control unit 32 that controls the display device 2, and a communication unit 36 that communicates with the display device 2 and the video devices 6A to 6C.
  • the storage unit 31 is a storage device that stores various setting data, display area setting information, and the like.
  • the display area setting information includes the correspondence between the position of the user and the display area for displaying the video (image) on the screen of the display device 2, and the device (video that is the output source of the video displayed on the display area and the display area) Information indicating a correspondence relationship with any of the devices 6A to 6C).
  • the display area setting information only needs to include information indicating the correspondence between the position of the user and the display area. What kind of image is displayed in each display area may be set by the user. Good.
  • FIG. 3 is a diagram for explaining a display format in the display system 1.
  • FIG. 3A is a diagram showing a display area in a conventional display device for comparing the prior art with the embodiment of the present invention.
  • the correspondence between the position of the user indicated by the display area setting information and the display area is, for example, when the user is at the center of the side 5A and the center of the side 5C as shown in FIG.
  • the correspondence relationship is that video is displayed in the display areas 2A and 2B.
  • the display regions 2A and 2B are regions (or parts thereof) formed by dividing the screen of the display device 2 into two parts by a line segment parallel to the side 5A, which is located between the sides 5A and 5C. ).
  • the video device 6A and the video device 6B are the devices that are the output source of the video displayed in the display region 2A and the display region 2B. Correspondence relationship that associates.
  • the main control unit 32 includes a user position determination unit 34 that determines the position of the user based on the user detection signal, and a display control unit that generates an image to be displayed on the display unit 24 based on an input signal from the user position determination unit 34. 33.
  • the user position determination unit 34 receives the user detection signals from the sensors 4A to 4D, determines on which side of the table 5 the user exists based on the user detection signals, and determines the user position determination indicating the determination result Generate information.
  • the user position determination unit 34 transmits the user position determination information to the split display control unit 331 of the display control unit 33.
  • the display control unit 33 includes a split display control unit (display area determination unit) 331, a video processing unit 332 that outputs the display image in a format that can be displayed by the display device 2, and a back that controls light emission of the display unit 24. And a light control unit 333.
  • the divided display control unit 331 displays the video acquired from the video devices 6A to 6C in the display region corresponding to the user position indicated by the user position determination information by referring to the display region setting information stored in the storage unit 31. As shown, a display image is generated.
  • the divided display control unit 331 determines a display area of at least one image to be displayed on a part of the display screen of the display device 2 according to the position of the user detected by the sensors 4A to 4D. To do.
  • the divided display control unit 331 stores display area determination information, which is information indicating the determined display area, in the storage unit 31.
  • the communication unit 36 may perform wired communication or wireless communication.
  • the communication unit 36 may include a plurality of interfaces, and may use a different communication method for each interface.
  • the table 5 is a table in which the display device 2 is incorporated.
  • the table 5 shown in FIG. 2 includes four legs, but the number of legs is not limited to four and may be any number.
  • the “table” of the present invention means a table on which an object can be placed, and a table and a work table are also included in the concept of “table”.
  • FIG. 4 is a flowchart showing an example of the flow of image display processing in the display system 1.
  • the sensors 4A to 4D detect the presence of the user (position detection process), and transmit a user detection signal to the user position determination unit 34.
  • the user position determination unit 34 Upon receiving the user detection signal from the sensors 4A to 4D, the user position determination unit 34 determines the user position based on the user detection signal, and transmits user position determination information indicating the determination result to the display control unit 33. To do.
  • the split display control unit 331 of the display control unit 33 receives and acquires the user position determination information from the user position determination unit 34 (step 1, hereinafter, steps are simply referred to as S). Further, the divided display control unit 331 acquires display area setting information from the storage unit 31 (S2). The divided display control unit 331 determines a display area corresponding to the user position indicated by the acquired user position determination information (display area determining step) (S3).
  • the divided display control unit 331 outputs a video transmission command to the video device corresponding to the determined display region (that is, the video device corresponding to the user position) based on the display region setting information, and the video device An image to be output is acquired (S4).
  • the divided display control unit 331 synthesizes the acquired video as a display image (S5).
  • the combined display image is converted into a format that can be displayed by the display device 2 by the video processing unit 332 and transmitted to the display device 2 through the communication unit 36.
  • the display device 2 displays the display image received by the communication unit 26 on the display unit 24 (S6).
  • the divided display control unit 331 causes the display area 2A and The display area 2B is determined. Images output from the video devices 6A to 6C associated with the respective display areas are displayed in the respective display areas. For example, when the video device 6A is associated with the display area 2A, the video output from the video device 6A is displayed in the display area 2A.
  • the split display control unit 331 can also be expressed as determining the display direction of the image displayed on the screen of the display device 2 in accordance with the detected position of the user.
  • the image is displayed so that the image can be seen from the front of each of the user 100A and the user 100B, and thus the visibility of the image is improved.
  • the divided display control unit 331 divides the screen of the display device 2 into four and divides the four images into divided regions when two users are lined up on the opposite sides 5A and 5C of the display device 2, respectively. Display on each of.
  • the sensors 4A to 4D detect that there are no users on opposite sides, as shown in FIG.
  • the display area 200A and the display area 200B the video output from the video devices 6A to 6C is displayed.
  • the positions of the users 100A and 100B are detected by one sensor 4A.
  • the display device control PC 3 may stop the display device 2. As a result, it is possible to prevent the display device 2 from unnecessarily consuming power when the user is absent.
  • the backlight control unit 333 Based on the display image output from the divided display control unit 331, the light emission of the LED backlight unit 242 corresponding to the area where display is not performed may be stopped. Thereby, unnecessary power consumption of the LED backlight unit 242 and the LED driver 232 in a region where display is not performed can be prevented.
  • FIG. 5 is a functional block diagram showing the configuration of the display system 10 according to the present embodiment.
  • the display system 10 Similar to the display system 1, the display system 10 includes a table 5 incorporating the display device 2 and sensors 4A to 4D.
  • the display system 1 detects which of the sides 5A to 5D of the table 5 the user is present by using the sensors 4A to 4D incorporated in the sides 5A to 5D of the table 5, respectively.
  • the display device control PC 30 determines an image display area according to the flow of FIG. 3 described above based on the user detection signal indicating the presence of the user detected by the sensors 4A to 4D.
  • the user may touch the touch panel 21 after the display device control PC 30 determines the image display area.
  • touch position information indicating coordinates (hereinafter referred to as first coordinates) indicating the touch position on the display unit 24 is output from the display device 2.
  • the display device control PC 30 that has received the touch position information determines a display area including the first coordinates, and converts the first coordinates into coordinates on the display area (hereinafter referred to as second coordinates). Thereby, for each image displayed on a part of the screen, processing using the coordinate information of the image can be performed, and processing related to the coordinates can be performed efficiently.
  • the process using the coordinate information is, for example, a process for reducing and enlarging the image displayed in the display area. Such processing may be performed according to a pinch-in operation or a pinch-out operation performed by the user on the touch panel 21. Further, the rotation and movement of the display image are included in the processing using the coordinate information.
  • the display device control PC 30 includes a coordinate conversion unit (coordinate conversion means) 35 in addition to the configuration of the display device control PC 3.
  • the coordinate conversion unit 35 receives the first coordinate information output from the display device 2 through the communication unit 36 and obtains display area determination information indicating the display area determined at that time from the storage unit 31. Based on the acquired information, the coordinate conversion unit 35 converts the first coordinate to the second coordinate and outputs the second coordinate to the video processing unit 332.
  • the coordinate conversion unit 35 displays a partial image that is a smaller image than the screen of the display device 2 or a rotated image that is an image displayed in a direction different from the reference direction on the screen.
  • the first coordinate received by the touch panel 21 is converted into the second coordinate indicating the position in the partial image or the rotated image.
  • the main control unit 32 determines an input operation performed by the user from the change in the coordinates of the touch position with time, and outputs the determination result to the video processing unit 332.
  • the video processing unit 332 processes the image of the display area including the second coordinates based on the second coordinates output from the coordinate conversion unit 35 and the determination result, and outputs the processed image to the display device 2 through the communication unit 36.
  • FIG. 6 is a diagram illustrating a state in which the users 100A to 100D are detected around the display device 2 by the sensors 4A to 4D and the display areas 2a to 2d are set.
  • FIG. 7 is a flowchart illustrating an example of the flow of coordinate conversion processing in the display system 10.
  • the display areas 2a to 2d are set so that the users 100A to 100D can see the display image from the front as indicated by the numbers written in the display areas. Specifically, the display area 2a is displayed in a direction opposite to the reference display direction of the display device 2 (display direction of the display area 2c). The display areas 2b and 2d are set in a direction rotated 90 degrees to the left with respect to the reference display direction.
  • the coordinate conversion unit 35 generates the touch position information (first coordinate of the point ⁇ ) generated by the touch position information generation unit 22. 36 through S36.
  • the coordinate conversion unit 35 acquires information on the display area determined at that time (display area determination information) from the storage unit 31 (S12).
  • the coordinate conversion unit 35 determines that the first coordinate included in the acquired touch position information is included in the display region 2b
  • the coordinate conversion unit 35 calculates a coordinate (second coordinate) corresponding to the first coordinate on the display region 2b ( S13).
  • the first coordinate in the coordinate system (first coordinate system) applied to the entire screen of the display device 2 is converted into the coordinate system (second coordinate) applied to the display area 2b (divided display area).
  • the relative positional relationship between the first coordinate system and the second coordinate system at the time when the user performs a touch operation is shown in the display area determination information generated by the divided display control unit 331.
  • the coordinate conversion unit 35 refers to the display area determination information to determine which divided display area includes the first coordinates indicated by the touch position information, and then determines the first coordinates.
  • the coordinates are converted into coordinates in the second coordinate system applied to the divided display area.
  • the coordinate conversion unit 35 outputs the calculated second coordinates to the video processing unit 332 (S14).
  • the video processing unit 332 performs video processing on the image in the display area using the received second coordinates.
  • the display image can be efficiently processed in the display area 2b having a coordinate system different from that of the entire display device 2.
  • it is possible to cope with a touch operation for enlarging / reducing or rotating an image.
  • FIG. 8 is a functional block diagram showing the configuration of the display system 20 according to the present embodiment.
  • the display system 20 includes a coordinate correction unit (coordinate correction unit) 37 in the main control unit 32 in addition to the configuration of the display system 10.
  • the coordinate correction unit 37 corrects the touch position information (first coordinate) based on the user position information and the height information of the user's eyes.
  • the coordinate converter 35 converts the corrected first coordinates into second coordinates.
  • the storage unit 31 further stores height information related to the height of the user's eyes.
  • the height information may be a numerical value indicating the height of the user's eyes, or may be a numerical value that can be used to estimate the height of the user's eyes. An example of the latter is the height of the user.
  • a numerical value common to a plurality of users may be stored in the storage unit 31 in advance. Further, height information is stored in the storage unit 31 for each user, and the height information used for correcting the touch position may be switched according to the user who performs the touch operation.
  • the coordinate correction unit 37 acquires the height information from the storage unit 31 and the user position determination information from the user position determination unit 34, and corrects the touch position information based on the user position determination information and the height information.
  • the coordinate correction unit 37 may correct the height information based on the relative positional relationship between the user's standing position and the touch position. In this case, correction is performed so that the numerical value indicated by the height information becomes smaller as the touch position moves away from the user's standing position.
  • the coordinate conversion unit 35 converts the corrected first coordinate output from the coordinate correction unit 37 into the second coordinate by the same processing as the display system 10.
  • FIG. 9 is a flowchart showing an example of the flow of coordinate correction processing.
  • a display area corresponding to the standing position of the user is already set.
  • the user touches a screen (more precisely, the touch panel 21) displaying the image while viewing the image displayed in the display area located in front of the user.
  • the coordinate correction unit 37 transmits the touch position information through the communication unit 36. Is acquired (S21).
  • the coordinate correction unit 37 acquires user position determination information indicating the position of the user from the user position determination unit 34 (S22). Further, the coordinate correction unit 37 acquires height information indicating the height of the user's eye line from the storage unit 31 (S23).
  • the coordinate correction unit 37 uses the acquired user position determination information, touch position information (first coordinate), and height information, the coordinates on the display unit 24 recognized as touched by the user, and the first coordinates. Is calculated (S24). Details of the deviation calculation method will be described later.
  • the coordinate correction unit 37 corrects the first coordinate based on the calculated deviation (S25). Then, the coordinate correction unit 37 outputs the corrected first coordinate to the coordinate conversion unit 35 (S26).
  • FIG. 10A is a diagram for explaining a method for correcting the touch position information on the touch panel 21 in the display system 20, and FIG. 10B is a diagram illustrating a touch position generated when the user's position is not taken into consideration. It is a figure for showing an error.
  • the relative refractive index of air and the material of the touch panel 21 is sin ⁇ a / sin ⁇ a ′.
  • the refractive index of glass is 1.45
  • the refractive index of air is 1.0.
  • the user 100A touches the point ⁇ 3, the user touches a point ⁇ 1 on the display unit 24 (a point located vertically below the point ⁇ 3) opposite to the point ⁇ 3. become.
  • the touch panel 21 has a thickness and an air layer exists between the touch panel 21 and the display unit 24, the user 100A sees the point ⁇ 3 when the user 100A touches the point ⁇ 3 on the touch panel 21.
  • the line of sight reaches the point ⁇ 2. Therefore, the user 100A inputs the coordinates of the point ⁇ 1 as the first coordinates while visually recognizing the point ⁇ 2.
  • a deviation y is generated between the point ⁇ 2 and the point ⁇ 3 visually recognized by the user 100A. .
  • the deviation amount y is larger than the deviation amount x.
  • the shift amounts x and y are determined by the line-of-sight incident angle, the refractive index and thickness of the touch panel 21, and the thickness of the air layer between the touch panel 21 and the display unit 24. Since parameters other than the line-of-sight incidence angle do not change on the touch panel 21, the amount of deviation varies only depending on the line-of-sight incidence angle.
  • the coordinate correction unit 37 detects the shift of the input position caused by visually recognizing the display screen of the display unit 24 through the touch panel 21 based on the height information related to the height of the user's line of sight. to correct.
  • a mathematical expression for calculating the amount of deviation according to the height information is stored in the storage unit 31 in advance.
  • the above formula calculates the amount of deviation in proportion to the height information as shown in the following formula (1).
  • the y coordinate of the touch position is the y coordinate in the (x, y) coordinate system indicating the coordinates on the display screen of the display unit 24, and the side (edge) of the display screen on the side where the user is located.
  • the y coordinate when the x coordinate axis is provided so as to correspond to.
  • the y coordinate of the touch position is the distance from the side of the display screen (the edge of the coordinate plane) to the touch position on the side where the user is located.
  • the y-coordinate of the touch position increases as the user touches a position farther than his / her standing position.
  • the amount of deviation increases as the user touches a position farther than his / her standing position.
  • the deviation amount may be corrected by the same formula as the y coordinate.
  • the expression relating to the x coordinate of the shift amount is equivalent to an expression in which (y coordinate of touch position) is replaced with (x coordinate of touch position).
  • the origin of the x coordinate of the touch position is the standing position of the user.
  • the coordinate correction unit 37 calculates the amount of deviation using the above equation (1), and then adds the calculated amount of deviation to the first coordinates indicated by the touch position information (or subtracts from the first coordinates).
  • the coordinate correction unit 37 may make the determination. That is, the coordinate correction unit 37 changes the direction for correcting the shift of the input position according to the position of the user. More specifically, the coordinate correction unit 37 adds the shift amount calculated from the above equation (1) to the coordinate value of the touch position before correction so that the touch position is corrected in a direction away from the user's standing position. .
  • FIG. 10B a case is assumed in which the user moves from the position of the user 100A to the position of the user 100B.
  • the user 100B touches the point ⁇ 3, the user 100B visually recognizes the point ⁇ 2.
  • the coordinate correction unit 37 corrects the input position information assuming that the user 100B is at the position of the user 100A
  • the corrected first coordinate is visually recognized when the user 100A touches ⁇ 3.
  • the point ⁇ 2 that is the point to be displayed is shown. Therefore, a shift amount z that is a distance from the point ⁇ 2 to the point ⁇ 2 is generated. This deviation amount z is larger than the deviation amount x.
  • the direction in which the coordinate correction unit 37 corrects the shift of the input position in the input operation performed on the touch panel is changed according to the user's position. Even when the input operation is performed from any direction of the user 100B, the shift of the input position can be corrected appropriately.
  • the peculiar problem (problem A) which the display system 20 of this embodiment tends to solve is through the said transparent member, when the transparent member (for example, touch panel) is arrange
  • the divided display control unit 331 and the coordinate conversion unit 35 are not necessarily required. Therefore, if the main object of the present invention is to solve the problem A, these functional blocks are displayed on the display system. It is also possible to remove from 20.
  • the display device 2 included in the display system 20 of the present embodiment is arranged at a position where the transparent member covers the screen, and the shift of the input position caused by visually recognizing the screen through the transparent member is the user. It can be expressed that it is provided with coordinate correction means for correcting based on height information related to the height of the eye line. Moreover, it is preferable that a coordinate correction
  • control blocks (particularly the display control unit 33, the coordinate conversion unit 35, and the coordinate correction unit 37) of the display systems 1, 10, 20 are realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. Alternatively, it may be realized by software using a CPU (Central Processing Unit).
  • a logic circuit hardware
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • the display systems 1, 10, and 20 include a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read Only Memory) or a storage device (these are referred to as “recording media”), RAM (Random Access Memory) for expanding the program, and the like.
  • a computer or CPU reads the said program from the said recording medium and runs it.
  • the recording medium a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the control device (display control device 33) according to aspect 1 of the present invention provides the above screen according to the position of the user detected by the position detection device (sensors 4A to 4D) that detects the position of the user with respect to the display device having the screen.
  • Display control means (divided display control unit 331) for determining a display area of at least one image to be displayed on a part of (display unit 24) is provided.
  • a display control method includes a position detection step of detecting a user position relative to a display device having a screen, and a display on a part of the screen according to the user position detected in the position detection step. And a display area determining step for determining a display position of at least one image.
  • the position detection device detects the position of the user with respect to the display device.
  • the display control means determines a display area of at least one image to be displayed on a part of the screen of the display device according to the detected position of the user.
  • the position detection device may be provided in the display device, or may be provided outside the display device and connected to be communicable with the display device.
  • the display control means included in the control device according to aspect 2 of the present invention is the screen corresponding to the detected positions of the plurality of users when the position detection device detects the plurality of users in the aspect 1.
  • a determination may be made to display an image in each of the plurality of regions.
  • the display control unit displays an image in each of the plurality of areas on the screen corresponding to the detected positions of the plurality of users. Make a decision to display.
  • an image can be displayed at a position that is easy to see from each user.
  • the display control means included in the control device according to aspect 3 of the present invention determines the display direction of the image to be displayed on the screen according to the position of the user detected by the position detection device in the aspect 1 or 2. May be.
  • the image is displayed in the direction opposite to the standard direction.
  • the user can view an image in the same direction as when viewing the image from the standard position from a position different from the standard position.
  • the display device includes an input unit (touch panel 21) that receives input of first coordinate information indicating a position on the screen from a user, and the control device according to aspect 4 of the present invention includes any one of the aspects 1 to 3.
  • First coordinates received by the input unit when a partial image that is smaller than the screen or a rotated image that is displayed in a direction different from the reference direction is displayed on the screen May be further provided with coordinate conversion means (coordinate conversion unit 35) for converting the second image into a second coordinate indicating a position in the partial image or the rotated image.
  • the input unit receives an input of the first coordinates indicating the position on the screen of the display device from the user.
  • the coordinate conversion means converts the first coordinate received by the input unit to the second coordinate indicating the position in the partial image or the rotated image when the partial image or the rotated image is displayed on the screen.
  • the partial image is, for example, an image that is displayed with a size that is half the size when displayed on the full screen.
  • the rotated image is, for example, an image obtained by inverting an image in a standard display direction by 180 °.
  • the transparent member (touch panel 21) is disposed at a position covering the screen, and the control device according to aspect 5 of the present invention is configured to visually recognize the screen through the transparent member in any one of aspects 1 to 4.
  • the transparent member is disposed at a position covering the screen of the display device, and the transparent member may be a protective glass for protecting the screen or a touch panel.
  • the transparent member is a touch panel
  • input of coordinate information indicating a position on the screen is received from the user.
  • the coordinate correction means corrects the shift of the input position caused by visually recognizing the screen through the transparent member based on the height information related to the height of the user's line of sight.
  • the height information is, for example, a value indicating the height of the line of sight or a value indicating the height of the user.
  • the coordinate correction unit included in the control device according to aspect 6 of the present invention may change the direction in which the deviation of the input position is corrected according to the position of the user detected by the position detection device in the aspect 5. Good.
  • the direction for correcting the shift of the input position in the input operation performed on the touch panel is changed according to the position of the user who performs the input operation.
  • control device may be realized by a computer.
  • the control device is realized by the computer by causing the computer to operate as each unit included in the control device.
  • a control program and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • the present invention can be used for a display device, in particular, a control device for a display device built in a table or a desk.
  • Display device control PC control device 4A to 4D sensor (position detection device) 5 Table 21 Touch panel (input part, transparent member) 22 Touch position information generation unit 23 Display control unit 24 Display unit 33 Display control device 35 Coordinate conversion unit (coordinate conversion unit) 37 Coordinate correction unit (coordinate correction means) 331 split display control unit (display area determining means)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 表示装置制御用PC(3)は、画面を有する表示装置(2)に対するユーザの位置を検出するセンサー(4A~4D)が検出したユーザの位置に応じて、上記画面の一部に表示する少なくとも1つの画像の表示領域を決定する分割表示制御部(331)を備えている。

Description

制御装置
 本発明は、表示装置を制御する制御装置に関する。
 現在、大型フラットディスプレイなどの表示装置は、液晶方式、プラズマ方式などの各種方式が実用化され、家庭でのTVへの利用以外にも応用範囲が広がり、オフィスでのプレゼンテーションにも適用され始めている。
 オフィス内での複数人による打ち合わせ業務やコラボレーションシステムに表示装置を適用する際、単一の表示装置を用いて、操作者と異なる位置にある人物が同時に表示内容を確認できるように、画面を分割して、同一内容を異なる位置に表示できる表示装置であれば、更に利便性が増す。
 このような分割表示可能な表示装置は、特許文献1に開示されている。特許文献1の表示装置は、画面を分割して同一の画像を分割した領域のそれぞれに表示し、かつ、分割表示時に意図しない位置情報入力が抑制される表示装置である。
日本国公開特許公報「特開2005-208992号公報(2005年8月4日公開)」
 しかしながら、従来の技術には次のような問題がある。
 すなわち、特許文献1の表示装置では、分割表示において表示画面に表示される画像の方向および分割方法を、変更する方法については開示されていない。そのため、ユーザの人数および表示を視認する位置が固定されないテーブルなどにおいて、ユーザが視認し易い位置に画像を表示することは困難である。
 また、表示画面に対して行われた入力操作の入力位置を補正する技術については、特許文献1には開示されていない。
 本発明は、上記の問題を解決するためになされたものであり、その第一の目的は、表示画面の視認性に優れた表示装置を提供することである。また、本発明の第2の目的は、表示画面に対して行われた入力操作の位置を適切に補正することである。
 上記の課題を解決するために、本発明の一態様に係る表示制御装置は、画面を有する表示装置に対するユーザの位置を検出する位置検出装置が検出したユーザの位置に応じて、上記画面の一部に表示する少なくとも1つの画像の表示領域を決定する表示領域決定手段を備えることを特徴としている。
 本発明の一態様によれば、表示装置の付近にいるユーザにとって見やすい、表示画面上の位置に画像を表示することができ、画像の視認性を高めることができるという、効果を奏する。
本発明の一実施形態に係る表示システムの構成を示す機能ブロック図である。 本発明の一実施形態に係る表示システムの外観を示す斜視図である。 (a)は従来の表示装置の画面の一例を示す図であり、(b)~(d)は本発明の一実施形態に係る表示システムが備える表示装置におけるユーザの位置に応じた画像表示の一例を示す図である。 本発明の一実施形態に係る表示システムにおける表示処理の流れの一例を示すフローチャートである。 本発明の他の実施形態に係る表示システムの構成を示す機能ブロック図である。 本発明の他の実施形態に係る表示システムにおけるユーザのタッチ位置を示す座標の変換を説明するための図である。 本発明の他の実施形態に係る表示システムにおける座標変換処理の流れの一例を示すフローチャートである。 本発明のさらに別の実施形態に係る表示システムの構成を示す機能ブロック図である。 本発明のさらに別の実施形態に係る表示システムにおける座標補正処理の流れの一例を示すフローチャートである。 (a)は本発明のさらに別の実施形態に係る表示システムにおけるタッチパネルに対する入力位置情報の補正方法を説明するための図であり、(b)はユーザの位置を考慮しなかった場合に生じる入力位置情報の誤差を示すための図である。
 〔実施形態1〕
 本発明の実施の一形態について図1~図4に基づいて説明すれば、以下のとおりである。
 図1は、本実施形態に係る表示システム1の構成を示す機能ブロック図である。図2は、表示システム1の外観を示す斜視図である。図1および図2に示すように、表示システム1は、表示装置2と、表示装置制御用PC(制御装置)(Personal Computer)3と、センサー(位置検出装置)4A~4Dと、テーブル5と、映像装置6A~6Cとを備えているシステムである。
 なお、表示装置制御用PC3は、テーブル5に組み込まれてもよく、表示装置2と表示装置制御用PC3とが一体として形成されていてもよい。特に主制御部32が表示装置2に組み込まれていてもよい。また、映像装置6A~6Cのいずれか、または、全部が、表示装置制御用PC3に組み込まれていてもよいし、一体として形成されていてもよい。
 (1.表示システム1の機能の説明)
 表示システム1は、表示装置2およびセンサー4A~4Dを組み込んだテーブル5を備えている。表示システム1は、テーブル5の各辺5A~5Dにそれぞれ組み込まれたセンサー4A~4Dによって、テーブル5の辺5A~5Dのいずれの近傍に(さらには、各辺のどの位置に)ユーザが存在しているのかを検出する。
 表示装置制御用PC3は、センサー4A~4Dによって検出されたユーザの存在を示すユーザ検出信号に基づき、表示装置2の画面に表示する画像の表示領域および表示方向を決定する。そして、表示装置制御用PC3は、当該表示領域に、映像装置6A~6Cのいずれか、または、全部から取得した画像が表示されるように表示制御を行う。これにより、ユーザの位置に応じて、ユーザが視認し易い画像が表示装置2に表示される。
 なお、表示装置2の表示画面に、映像装置6A~6Cのいずれか1つから送信された画像のみが表示されてもよく、上記表示画面に表示される画像の数は複数に限定されない。
 本実施形態では、テーブル5が四角形の天板を有するものと想定しており、四角形の各辺に4つのセンサーがそれぞれ組み込まれる構成を提示しているが、テーブル5の天板の形状は四角形に限定されず、その他の形状(例えば、円形、三角形)であってもよい。
 (表示装置2)
 表示装置2は、タッチパネル付き表示装置であり、テーブル5に組み込まれており、表示装置2が有する表示画面は、テーブル5の周囲から視認可能である。
 図1に示すように、表示装置2は、表示画面の前面に配置されたタッチパネル(入力部、透明部材)21と、入力位置を算出するタッチ位置情報生成部22と、画像を表示する表示部24と、表示部24を制御する表示制御部23と、表示装置制御用PC3と通信を行う通信部26とを備えている。
 タッチパネル21は、ユーザによる入力操作を受け付けるユーザインターフェースであり、表示部24の表示画面と重畳する位置に配置されている。そのため、タッチパネル21は、表示部24が有する表示画面に対する入力操作を検出することができる。
 このタッチパネル21は、例えば静電容量方式の入力パネルである。静電容量方式のタッチパネルでは、透明導電膜がコーティングされた入力パネルにおける、指の接触(または近接)による静電容量の変化により入力位置を検出する。また、タッチパネル21として、抵抗膜方式、超音波表面弾性波方式、赤外線走査方式など、その他の方式のタッチパネルを用いてもよい。また、タッチパネル21を、複数の光センサーを有する光センサー液晶として実現してもよい。
 なお、表示装置2に対する入力をマウスや、キーボード等の入力装置を用いて行う場合には、タッチパネル21の代わりに保護用の透明部材(例えば、保護ガラス)を設けてもよい。
 タッチ位置情報生成部22は、タッチパネル21から出力された信号を受信し、当該信号に基づき、ユーザによるタッチパネル21への入力位置を座標として示すタッチ位置情報を生成する。タッチ位置情報生成部22は、上記タッチ位置情報を、表示装置制御用PC3へ送信する。タッチパネル21を光センサー液晶として実現する場合、タッチ位置情報生成部22は、光センサー液晶が撮像した画像を解析することにより上記入力位置を算出する。
 表示制御部23は、表示装置制御用PC3によって生成された表示用画像を受信し、表示部24に当該表示用画像を表示する。本実施形態では、表示制御部23は、画像表示を行う液晶パネル241を駆動する液晶タイミングコントローラ231、および表示画面の発光を行うLEDバックライトユニット242を駆動するLEDドライバ232を備える。
 表示部24は、本実施形態では、液晶パネル241およびLEDバックライトユニット242を備えるLCD(液晶ディスプレイ:Liquid Crystal Display)であるが、例えば、PDP(プラズマディスプレイ:Plasma Display Panel)、または有機EL(Organic Electro-Luminescence)などの、薄型フラットパネルディスプレイ(Flat Panel Display)であってよい。
 通信部26は、有線通信を行うものであっても、無線通信を行うものであってもよい。
 (センサー4A~4D)
 センサー4A~4Dは、テーブル5の周囲に位置するユーザの存在の有無を検出し、ユーザを検出したときにユーザ検出信号を生成する。センサー4A~4Dは、例えば、赤外線センサー、超音波センサー、または距離画像センサーなどであってもよい。図2において、センサー4A~4Dは、テーブル5の各辺5A~5Dにそれぞれ組み込まれているが、センサーの数は4に限定されない。例えば、テーブル5の全ての辺にセンサーが組み込まれる必要は必ずしもなく、テーブルの少なくとも2つ以上の辺に、対応するセンサーがそれぞれ組み込まれる構成であればよい。例えば、対向する辺5Aおよび5Cに、センサー4Aおよび4Cがそれぞれ組み込まれる構成であってよい。
 また、テーブル5の1つの辺に対して複数のセンサーを設け、当該辺のどの位置にユーザが存在しているのかを検出してもよい。
 (映像装置6A~6C)
 映像装置6A~6Cは、映像(画像)を表示装置制御用PC3へ出力する。映像装置6A~6Cは、例えば、Blu-Ray Disc(登録商標)再生装置、テレビチューナー、PC、スマートフォンなどであってもよい。また、映像装置の数は3に限定されず、いくつでもよい。また、映像装置6A~6Cの一部または全部が、表示装置制御用PC3に組み込まれていてもよい。映像装置6A~6Cが出力する画像は、静止画であってもよいし、動画であってもよい。
 (表示装置制御用PC3)
 表示装置制御用PC3は、データを格納する記憶部31と、表示装置2を制御する主制御部32と、表示装置2および映像装置6A~6Cと通信を行う通信部36とを備えている。
 (記憶部31)
 記憶部31は、各種の設定データ、表示領域設定情報等を格納する記憶装置である。表示領域設定情報は、ユーザの位置と表示装置2の画面において映像(画像)を表示する表示領域との対応関係、および、表示領域と当該表示領域に表示する映像の出力元となる機器(映像装置6A~6Cのいずれか)との対応関係を示す情報である。表示領域設定情報には、ユーザの位置と上記表示領域との対応関係を示す情報が含まれていればよく、各表示領域にどのような画像を表示するかについては、ユーザにより設定されてもよい。
 表示領域設定情報について、図3の(b)に基づき説明する。図3は、表示システム1における表示様式を説明するための図である。ただし、図3の(a)は、従来技術と本発明の実施形態とを比較するための、従来の表示装置における表示領域を示す図である。
 表示領域設定情報が示すユーザの位置と表示領域との対応関係とは、例えば、図3の(b)に示すように、辺5Aの中央および辺5Cの中央にユーザがそれぞれいる場合には、表示領域2Aおよび2Bに映像を表示するという対応関係である。この場合の表示領域2Aおよび2Bは、辺5Aと辺5Cとの中間に位置する、辺5Aと平行な線分で表示装置2の画面を2分割することによって形成される領域(またはその一部)である。
 また、表示領域と、表示される映像の出力元となる機器との対応関係として、例えば、表示領域2Aおよび表示領域2Bに表示する映像の出力元となる機器として、映像装置6Aおよび映像装置6Bを対応付ける対応関係が挙げられる。
 (主制御部32)
 主制御部32は、ユーザ検出信号に基づき、ユーザの位置を決定するユーザ位置決定部34と、ユーザ位置決定部34からの入力信号に基づき、表示部24が表示する画像を生成する表示制御部33とを備えている。
 ユーザ位置決定部34は、センサー4A~4Dから上記ユーザ検出信号を受信し、上記ユーザ検出信号に基づき、テーブル5のどの辺にユーザが存在するのかを判定し、その判定結果を示すユーザ位置判定情報を生成する。ユーザ位置決定部34は、上記ユーザ位置判定情報を表示制御部33の分割表示制御部331へ送信する。
 表示制御部33は、分割表示制御部(表示領域決定手段)331と、上記表示用画像を表示装置2が表示可能な形式で出力する映像処理部332と、表示部24の発光を制御するバックライト制御部333とを備える。
 分割表示制御部331は、記憶部31に格納された表示領域設定情報を参照することにより、ユーザ位置判定情報が示すユーザ位置に対応した表示領域に、映像装置6A~6Cから取得した映像が表示されるように、表示用画像を生成する。
 別の観点から説明すれば、分割表示制御部331は、センサー4A~4Dが検出したユーザの位置に応じて、表示装置2の表示画面の一部に表示する少なくとも1つの画像の表示領域を決定する。分割表示制御部331は、決定した表示領域を示す情報である表示領域決定情報を記憶部31に格納する。
 通信部36は、有線通信を行うものであっても、無線通信を行うものであってもよい。また、通信部36は、複数のインターフェースを備えていてもよく、インターフェースごとに異なる通信方式を用いてもよい。
 (テーブル5)
 テーブル5は、表示装置2が組み込まれた台である。図2に示されているテーブル5は、4つの脚を備えているが、脚の数は、4に限定されず、何本でもよい。また、本発明の「テーブル」とは、物体を載置することが可能な台を意味し、机および作業台も「テーブル」の概念に含まれる。
 (表示システム1における画像表示処理の流れ)
 次に表示システム1における画像表示処理の流れの一例について、説明する。
 図4は、表示システム1における画像表示処理の流れの一例を示すフローチャートである。
 まず、センサー4A~4Dは、ユーザの存在を検出し(位置検出工程)、ユーザ検出信号をユーザ位置決定部34へと送信する。
 ユーザ位置決定部34は、センサー4A~4Dから上記ユーザ検出信号を受信すると、上記ユーザ検出信号に基づいてユーザの位置を判定し、その判定結果を示すユーザ位置判定情報を表示制御部33へ送信する。
 表示制御部33の分割表示制御部331は、ユーザ位置決定部34から上記ユーザ位置判定情報を受信・取得する(ステップ1、以下ステップは単にSと表す)。さらに、分割表示制御部331は、表示領域設定情報を、記憶部31から取得する(S2)。分割表示制御部331は、取得したユーザ位置判定情報が示すユーザ位置に応じた表示領域を決定する(表示領域決定工程)(S3)。
 さらに、分割表示制御部331は、表示領域設定情報に基づき、決定した表示領域と対応する映像装置(すなわちユーザの位置と対応する映像装置)に対して映像送信命令を出力し、当該映像装置が出力する映像を取得する(S4)。取得した映像を、分割表示制御部331は、表示用画像として合成する(S5)。合成された表示用画像は、映像処理部332により表示装置2が表示可能な形式に変換され、通信部36を通じて表示装置2へ送信される。表示装置2は、通信部26により受信した表示用画像を表示部24へ表示する(S6)。
 例えば、図3の(b)に示すように、センサー4A~4Dが、表示装置2の対向する辺5Aおよび辺5Cにユーザの存在を検知した時、分割表示制御部331により、表示領域2Aおよび表示領域2Bが決定される。そして、それぞれの表示領域と対応付けられた映像装置6A~6Cが出力する映像が、各表示領域に表示される。例えば、表示領域2Aに映像装置6Aが対応付けられている場合、表示領域2Aに、映像装置6Aから出力された映像が表示される。
 この例では、分割表示制御部331は、検出されたユーザの位置に応じて、表示装置2の画面に表示する画像の表示方向を決定しているとも表現できる。図3の(b)に示す例では、ユーザ100Aおよびユーザ100Bのそれぞれから画像が正面に見えるように当該画像が表示されているため、画像の視認性が向上している。
 同様に、表示装置2の対向する辺5Aおよび辺5Cに、それぞれユーザが2人並んでいることを、センサー4A~4Dが検知した場合、図3の(c)に示すように、表示領域20A~20Dのそれぞれにおいて、映像装置6A~6Cから出力される映像のいずれかを表示する。換言すれば、分割表示制御部331は、表示装置2の対向する辺5Aおよび辺5Cに、それぞれユーザが2人並んでいる場合、表示装置2の画面を4分割し、4つの画像を分割領域のそれぞれに表示する。
 また、ユーザが、表示装置2の1つの辺に2人並んでおり、対向する辺にはユーザは存在しないことをセンサー4A~センサー4Dが検知した場合は、図3の(d)に示すように、表示領域200Aおよび表示領域200Bにおいて、映像装置6A~6Cが出力する映像を表示する。なお、図3の(d)に示す構成では、1つのセンサー4Aによって、ユーザ100Aおよび100Bの位置(辺5Aに対する相対位置)を検出している。
 〔変形例〕
 図3の(e)に示すように、表示装置2の周囲にユーザがいないとユーザ位置決定部34が判定した場合、表示装置制御用PC3は、表示装置2を停止させてもよい。これにより、ユーザ不在時に表示装置2が不必要に電力を消費することを防ぐことができる。
 また、図3の(b)に示す領域2A’、領域2B’および図4の(d)に示す領域200A’のように、表示を行わない領域が存在する場合、バックライト制御部333は、分割表示制御部331が出力する表示用画像に基づき、表示を行わない領域に対応するLEDバックライトユニット242の発光を停止させてもよい。これにより、表示を行わない領域におけるLEDバックライトユニット242およびLEDドライバ232の不要な電力消費を防ぐことができる。
 〔実施形態2〕
 本発明の他の実施形態について、図5~図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図5は、本実施形態に係る表示システム10の構成を示す機能ブロック図である。
 (1.表示システム10の機能の説明)
 表示システム10は、表示システム1と同様に、表示装置2およびセンサー4A~4Dを組み込んだテーブル5を備えている。表示システム1は、テーブル5の各辺5A~5Dにそれぞれ組み込まれたセンサー4A~4Dによって、テーブル5の辺5A~5Dのいずれの近傍にユーザが存在しているのかを検出する。
 表示装置制御用PC30は、センサー4A~4Dによって検出されたユーザの存在を示すユーザ検出信号に基づき、上述の図3のフローに従い、画像の表示領域を決定する。
 表示装置制御用PC30が画像の表示領域を決定した後に、ユーザがタッチパネル21をタッチすることがある。この場合、表示部24上のタッチ位置を示す座標(以下、第1座標)を示すタッチ位置情報が表示装置2から出力される。タッチ位置情報を受信した表示装置制御用PC30は、第1座標を含む表示領域を判別し、第1座標を当該表示領域上の座標(以下、第2座標)へ変換する。これにより、画面の一部に表示された画像ごとに、当該画像の座標情報を用いた処理を行うことができ、座標に関わる処理を効率良く行うことができる。
 座標情報を用いた処理とは、例えば、表示領域に表示された画像を縮小、拡大する処理である。このような処理は、タッチパネル21上でユーザが行ったピンチイン操作、またはピンチアウト操作に従って行われてもよい。また、表示画像の回転、移動なども座標情報を用いた処理に含まれる。
 (2.表示システム10の構成)
 表示装置制御用PC30は、表示装置制御用PC3の構成に加えて、座標変換部(座標変換手段)35を備えている。
 座標変換部35は、表示装置2が出力する第1座標の情報を、通信部36を通じて受信するとともに、その時点で決定されている表示領域を示す表示領域決定情報を記憶部31から取得する。取得した各情報に基づき、座標変換部35は、第1座標を第2座標へ変換し、映像処理部332へ出力する。
 換言すれば、座標変換部35は、表示装置2の画面よりも小さな画像である部分画像または基準となる方向とは異なる方向で表示された画像である回転画像が、上記画面に表示されているときに、タッチパネル21が受け付けた第1座標を、上記部分画像または回転画像における位置を示す第2座標に変換する。
 また、主制御部32は、タッチ位置の座標の経時変化から、ユーザが行った入力操作を判定し、その判定結果を映像処理部332に出力する。
 映像処理部332は、座標変換部35が出力した第2座標および上記判定結果に基づき、第2座標を含む表示領域の画像を処理し、通信部36を通じて、表示装置2へ出力する。
 (3.表示システム10における座標変換処理の流れ)
 次に表示システム10における座標変換処理の流れの一例について説明する。なお、説明を簡単にするために、既にセンサー4A~4Dによって、表示装置2の周囲にユーザが検出され、表示領域が決定されているものとする。
 図6は、センサー4A~4Dによって、表示装置2の周囲にユーザ100A~100Dが検出され、表示領域2a~2dが設定された状態を示す図である。図7は、表示システム10における座標変換処理の流れの一例を示すフローチャートである。
 表示領域2a~2dは、各表示領域に記された数字が示す通り、ユーザ100A~100Dが表示画像を正面から見ることができるように設定されている。具体的には、表示領域2aは表示装置2の基準表示方向(表示領域2cの表示方向)に対して逆方向に表示されている。表示領域2bおよび2dは、基準表示方向に対して左に90度回転した方向に設定されている。
 この状態において、まず、ユーザ100Bがタッチパネル21上の点αへタッチした時、タッチ位置情報生成部22が生成したタッチ位置情報(点αの第1座標)を、座標変換部35が、通信部36を通じて取得する(S11)。
 さらに、座標変換部35は、記憶部31から、その時点で決定されている表示領域の情報(表示領域決定情報)を取得する(S12)。座標変換部35は、取得したタッチ位置情報に含まれる第1座標が表示領域2bに含まれると判定すると、表示領域2b上の、第1座標に対応する座標(第2座標)を算出する(S13)。
 この座標変換処理では、表示装置2の画面全体に適用されている座標系(第1座標系)における第1座標を、表示領域2b(分割表示領域)に適用されている座標系(第2座標系)における座標(第2座標)に変換する。ユーザがタッチ操作を行った時点での、第1座標系と第2座標系との相対位置関係は、分割表示制御部331が生成した表示領域決定情報に示されている。座標変換部35は、表示領域決定情報を参照することで、タッチ位置情報が示す第1座標が、どの分割表示領域に含まれる座標であるかを判定した後、上記第1座標を、判定した分割表示領域に適用されている第2座標系における座標に変換する。
 座標変換部35は、算出した第2座標を映像処理部332へ出力する(S14)。映像処理部332は、受け取った第2座標を用いて、当該表示領域の画像について映像処理を行う。
 これにより、表示装置2全体とは異なる座標系を持つ表示領域2bにおける、表示画像の処理を効率よく行うことができる。特に、画像の拡大・縮小、回を行うタッチ操作にも対応することができる。
 〔実施形態3〕
 本発明のさらに他の実施形態について、図8~図10に基づいて説明すれば、以下のとおりである。
 図8は、本実施形態に係る表示システム20の構成を示す機能ブロック図である。
 (1.表示システム20の機能の説明)
 表示システム20は、表示システム10が有する構成に加え、主制御部32において座標補正部(座標補正手段)37を備えている。この座標補正部37は、ユーザ位置情報およびユーザの目線の高さの情報に基づきタッチ位置情報(第1座標)を補正する。当該補正後の第1座標を、座標変換部35が第2座標に変換する。
 (2.表示システム20の構成)
 記憶部31は、ユーザの目線の高さに関連する高さ情報をさらに格納している。高さ情報は、ユーザの目線の高さそのものを示す数値であってもよいし、ユーザの目線の高さを推測するために用いることができる数値であってもよい。後者の例として、ユーザの身長を挙げることができる。
 高さ情報として、複数のユーザに共通の数値(例えば、身長170cm)が記憶部31に予め格納されていてもよい。また、ユーザごとに高さ情報が記憶部31に格納されており、タッチ操作を行うユーザに応じて、タッチ位置の補正に利用する高さ情報を切り替えてもよい。
 座標補正部37は、記憶部31から高さ情報を、ユーザ位置決定部34からユーザ位置判定情報を取得し、これらユーザ位置判定情報および高さ情報に基づいて、タッチ位置情報の補正を行う。
 なお、ユーザの立ち位置から遠い箇所をタッチする場合には、前方へ体を傾けた状態でタッチすることがある。このような場合を想定して、座標補正部37は、ユーザの立ち位置とタッチ位置との相対位置関係に基づいて、上記高さ情報を補正してもよい。この場合、タッチ位置がユーザの立ち位置から遠ざかるにつれて、高さ情報が示す数値が小さくなるように補正する。
 座標変換部35は、表示システム10と同様の処理によって、座標補正部37が出力する補正後の第1座標を第2座標へと変換する。
 (3.表示システム20における座標補正処理の流れ)
 次に表示システム20における座標補正処理の流れの一例について説明する。
 図9は、座標補正処理の流れの一例を示すフローチャートである。ここでは、表示装置2に対して入力操作を行うユーザは1人であり、当該ユーザの立ち位置に対応する表示領域が既に設定されているものとする。当該ユーザは、自分の前方に位置する表示領域に表示された画像を見ながら、当該画像を表示している画面(より正確にはタッチパネル21)をタッチする。
 まず、ユーザが、タッチパネル21にタッチし、表示装置2が、タッチ位置情報(入力位置情報)を表示装置制御用PC300へ送信した時、座標補正部37は、通信部36を通じ、当該タッチ位置情報を取得する(S21)。
 座標補正部37は、ユーザ位置決定部34から、ユーザの位置を示すユーザ位置判定情報を取得する(S22)。さらに、座標補正部37は、記憶部31から、ユーザの目線の高さを示す高さ情報を取得する(S23)。
 座標補正部37は、取得したユーザ位置判定情報、タッチ位置情報(第1座標)、および高さ情報を用いて、ユーザがタッチしたと認識している表示部24上の座標と、第1座標とのずれを算出する(S24)。ずれの算出方法の詳細については後述する。
 座標補正部37は、算出したずれに基づき、第1座標の補正を行う(S25)。そして、座標補正部37は、補正した第1座標を座標変換部35へ出力する(S26)。
 (4.表示システム20における座標補正の詳細)
 表示装置2に入力されたタッチ位置情報(第1座標)とユーザがタッチしたと認識している位置(ユーザ認識位置と称する)との間にずれが生じる理由およびタッチ位置情報の補正方法について、図10に基づき説明する。
 図10の(a)は表示システム20におけるタッチパネル21のタッチ位置情報の補正方法を説明するための図であり、図10の(b)はユーザの位置を考慮しなかった場合に生じるタッチ位置の誤差を示すための図である。なお、空気とタッチパネル21の素材との相対屈折率は、sinθa/sinθa’である。ガラスの屈折率は、1.45であり、空気の屈折率は1.0である。
 図10の(a)に示すように、ユーザ100Aが点α3をタッチした場合、点α3と対向する、表示部24上の点α1(点α3の鉛直下方向に位置する点)をタッチしたことになる。しかし、タッチパネル21に厚みがあること、およびタッチパネル21と表示部24との間に空気層が存在していることにより、ユーザ100Aが、タッチパネル21上の点α3をタッチしたとき、点α3を見る視線は点α2へ到達する。そのため、ユーザ100Aは、点α2を視認しながら、点α1の座標を第1座標として入力することになる。
 すなわち、ユーザ100Aが点α2をタッチしたつもりでも、実際には、点α1がタッチ位置として入力されてしまうことになり、入力位置のズレ量xが生じる。
 また、同様に、ユーザ100Aが点β1の鉛直上方向に位置する、タッチパネル21上の点β3をタッチした場合においても、ユーザ100Aの視認する点β2と点β3との間にズレ量yが生じる。ズレ量yは、ズレ量xよりも大きくなる。
 ズレ量xおよびyは、視線の入射角、タッチパネル21の屈折率および厚さ、並びに、タッチパネル21と表示部24との間の空気層の厚さにより定まる。視線の入射角以外のパラメータは、タッチパネル21において変化しないため、上記ズレ量は視線の入射角のみにより変動する。
 また、表示装置2に対するユーザ100Aの相対位置(立ち位置)が固定されていると仮定すると、視線の入射角は、目線の高さにより決定される。そのため、表示システム20においては、座標補正部37は、タッチパネル21を通して表示部24の表示画面を視認することによって生じる入力位置のずれを、ユーザの目線の高さに関連する高さ情報に基づいて補正する。
 この構成を実現するために、高さ情報に応じてズレ量を算出するための数式を記憶部31に予め格納しておく。上記数式は、例えば、次の(1)式に示すように高さ情報に比例してずれ量を算出するものである。
 (ズレ量)=(タッチ位置のy座標)×a/{(高さ情報)-(表示画面の高さ)}+b・・・(1)
 上記(1)式において、値aおよびbは、実際の製品に応じて当業者が適宜設定する定数である。{(高さ情報)-(表示画面の高さ)}によって、表示画面から目の位置までの高さ(または、当該高さと関連する値)が算出される。同じ位置をタッチする場合、身長が高いユーザほど、上記ズレ量は小さくなる。
 また、上記タッチ位置のy座標とは、表示部24の表示画面における座標を示す(x,y)座標系におけるy座標であって、ユーザが位置する側の、表示画面の辺(縁部)に対応するようにx座標軸が設けられている場合のy座標である。換言すれば、タッチ位置のy座標とは、ユーザが位置する側の、表示画面の辺(座標平面の縁部)からタッチ位置までの距離である。
 そのため、ユーザが自分の立ち位置よりも遠い位置をタッチするほど、タッチ位置のy座標は大きくなる。その結果、上記(1)式により、ユーザが自分の立ち位置よりも遠い位置をタッチするほど、上記ズレ量は大きくなる。
 タッチ位置のx座標に関しても、y座標と同様の式でズレ量を補正しても良い。ズレ量のx座標に関する式は、(タッチ位置のy座標)を(タッチ位置のx座標)と入れ替えた式と等価である。この場合のタッチ位置のx座標の原点は、ユーザの立ち位置とする。
 座標補正部37は、上記(1)式を用いてズレ量を算出した後、算出したズレ量を、タッチ位置情報が示す第1座標に加える(または、第1座標から引く)。表示装置2の画面におけるxy座標系において、第1座標の(x,y)座標値のいずれにズレ量を足す(または引く)かについては、ユーザ位置判定情報が示すユーザの立ち位置に応じて座標補正部37が判定すればよい。すなわち、座標補正部37は、ユーザの位置に応じて、入力位置のずれを補正する方向を変更する。より詳細には、座標補正部37は、ユーザの立ち位置から遠ざかる方向へタッチ位置が補正されるように、上記(1)式から算出したズレ量を補正前のタッチ位置の座標値に加算する。
 次に、図10の(b)に示すように、ユーザが、ユーザ100Aの位置からユーザ100Bの位置へ移動した場合を想定する。例えば、ユーザ100Bが、点γ3をタッチするとき、ユーザ100Bは点α2を視認している。もし、ユーザ100Bがユーザ100Aの位置にいることを想定して座標補正部37が入力位置情報の補正を行った場合、補正後の第1座標は、ユーザ100Aが、γ3をタッチしたときに視認する点である点γ2を示すものとなる。そのため、点γ2から点α2までの距離であるズレ量zが生じることになる。このズレ量zは、ズレ量xよりも大きい。
 これに対して、表示システム20おいては、座標補正部37が、タッチパネルに対して行われた入力操作における入力位置のずれを補正する方向がユーザの位置に応じて変更されるため、ユーザ100A、ユーザ100Bいずれの方向から入力操作した場合でも、入力位置のずれを適切に補正することができる。
 なお、本実施形態の表示システム20が解決しようとする特有の課題(課題A)は、透明部材(例えば、タッチパネル)が表示装置の画面を覆う位置に配置されている場合に、上記透明部材を通して上記画面を視認することによって生じる入力位置のずれを適切に補正することである。
 課題Aを解決するために、分割表示制御部331および座標変換部35は必ずしも必要ではないため、課題Aを解決することを本発明の主たる目的とするのであれば、これらの機能ブロックを表示システム20から除くことも可能である。
 そのため、本実施形態の表示システム20に含まれる表示装置2は、透明部材が画面を覆う位置に配置されており、上記透明部材を通して上記画面を視認することによって生じる入力位置のずれを、上記ユーザの目線の高さに関連する高さ情報に基づいて補正する座標補正手段を備えている、と表現できる。また、座標補正手段は、上記表示装置に対するユーザの位置を検出する位置検出装置が検出したユーザの位置に応じて、上記入力位置のずれを補正する方向を変更することが好ましい。
 〔ソフトウェアによる実現例〕
 表示システム1、10、20の制御ブロック(特に表示制御部33、座標変換部35および座標補正部37)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、表示システム1、10、20は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る制御装置(表示制御装置33)は、画面を有する表示装置に対するユーザの位置を検出する位置検出装置(センサー4A~4D)が検出したユーザの位置に応じて、上記画面(表示部24)の一部に表示する少なくとも1つの画像の表示領域を決定する表示制御手段(分割表示制御部331)を備えている。
 本発明の態様1に係る表示制御方法は、画面を有する表示装置に対するユーザの位置を検出する位置検出工程と、上記位置検出工程において検出したユーザの位置に応じて、上記画面の一部に表示する少なくとも1つの画像の表示位置を決定する表示領域決定工程とを含んでいる。
 上記の構成によれば、位置検出装置は、表示装置に対するユーザの位置を検出する。表示制御手段は、検出されたユーザの位置に応じて、表示装置の画面の一部に表示する少なくとも1つの画像の表示領域を決定する。
 それゆえ、表示装置の付近にいるユーザにとって見やすい位置に画像を表示することができ、画像の視認性を高めることができる。
 なお、位置検出装置は、表示装置に設けられていてもよいし、表示装置の外部に設けられ、当該表示装置と通信可能に接続されていてもよい。
 本発明の態様2に係る制御装置の備える上記表示制御手段は、上記態様1において、上記位置検出装置が複数のユーザを検出したときに、検出された複数のユーザの位置に対応した、上記画面における複数の領域のそれぞれに画像を表示する決定を行ってもよい。
 上記の構成によれば、表示装置の近傍に複数のユーザが検出された場合に、表示制御手段は、検出された複数のユーザの位置に対応した、画面上の複数の領域のそれぞれに画像を表示する決定を行う。
 それゆえ、表示装置の近傍に複数のユーザがいる場合でも、各ユーザから見やすい位置に画像を表示することができる。
 なお、複数の領域のそれぞれに同一の画像を表示してもよいし、互いに異なる画像を表示してもよい。
 本発明の態様3に係る制御装置の備える上記表示制御手段は、上記態様1または2において、上記位置検出装置が検出したユーザの位置に応じて、上記画面に表示する画像の表示方向を決定してもよい。
 上記の構成によれば、例えば、テーブル型の表示装置において、標準の立ち位置とは反対側(向かい側)から画像を見る場合でも、標準の方向とは逆方向に上記画像が表示される。その結果、ユーザは標準の位置から画像を見た場合と同じ方向の画像を、標準の位置とは異なる位置から見ることができる。
 上記表示装置は、上記画面における位置を示す第1座標情報の入力をユーザから受け付ける入力部(タッチパネル21)を備え、本発明の態様4に係る制御装置は、上記態様1から3のいずれかにおいて、上記画面よりも小さな画像である部分画像または基準となる方向とは異なる方向で表示された画像である回転画像が、上記画面に表示されているときに、上記入力部が受け付けた第1座標を、上記部分画像または回転画像における位置を示す第2座標に変換する座標変換手段(座標変換部35)をさらに備えてもよい。
 上記の構成によれば、入力部は、表示装置の画面における位置を示す第1座標の入力をユーザから受け付ける。座標変換手段は、部分画像または回転画像が上記画面に表示されているときに、入力部が受け付けた第1座標を、部分画像または回転画像における位置を示す第2座標に変換する。部分画像とは、例えば、全画面表示されたときの大きさの半分の大きさで表示された画像である。また、回転画像とは、例えば、標準の表示方向の画像を180°反転させた場合の画像である。
 このように、第1座標を第2座標に変換することにより、画面の一部に表示された画像ごとに座標情報を用いた処理を行うことができ、座標に関わる処理を効率良く行うことができる。
 透明部材(タッチパネル21)が上記画面を覆う位置に配置されており、本発明の態様5に係る制御装置は、上記態様1から4のいずれかにおいて、上記透明部材を通して上記画面を視認することによって生じる入力位置のずれを、上記ユーザの目線の高さに関連する高さ情報に基づいて補正する座標補正手段(座標補正部37)をさらに備えていてもよい。
 上記の構成によれば、表示装置の画面を覆う位置に透明部材が配置されており、この透明部材は、画面を保護するための保護ガラスであってもよいし、タッチパネルであってもよい。透明部材がタッチパネルの場合には、画面における位置を示す座標情報の入力をユーザから受け付ける。座標補正手段は、透明部材を通して上記画面を視認することによって生じる入力位置のずれを、ユーザの目線の高さに関連する高さ情報に基づいて補正する。高さ情報とは、例えば、目線の高さそのものを示す値や、ユーザの身長を示す値である。
 それゆえ、入力位置のずれを補正し、ユーザが意図した処理が行われる可能性を高めることができる。
 本発明の態様6に係る制御装置が備える上記座標補正手段は、上記態様5において、上記位置検出装置が検出したユーザの位置に応じて、上記入力位置のずれを補正する方向を変更してもよい。
 上記の構成によれば、入力操作を行うユーザの位置に応じて、タッチパネルに対して行われた入力操作における入力位置のずれを補正する方向が変更される。
 それゆえ、標準となる位置とは異なる位置からユーザが入力操作した場合でも、入力位置のずれを適切に補正することができる。
 本発明の各態様に係る制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記制御装置が備える各手段として動作させることにより上記制御装置をコンピュータにて実現させる制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、表示装置、特に、テーブルまたは机に内蔵された表示装置の制御装置に利用することができる。
 1,10,20 表示システム
 2 表示装置
 3,30,300 表示装置制御用PC(制御装置)
 4A~4D センサー(位置検出装置)
 5 テーブル
 21 タッチパネル(入力部、透明部材)
 22 タッチ位置情報生成部
 23 表示制御部
 24 表示部
 33 表示制御装置
 35 座標変換部(座標変換手段)
 37 座標補正部(座標補正手段)
 331 分割表示制御部(表示領域決定手段)

Claims (5)

  1.  画面を有する表示装置に対するユーザの位置を検出する位置検出装置が検出したユーザの位置に応じて、上記画面の一部に表示する少なくとも1つの画像の表示領域を決定する表示領域決定手段を備えることを特徴とする制御装置。
  2.  上記表示領域決定手段は、上記位置検出装置が複数のユーザを検出したときに、検出された複数のユーザの位置に対応した、上記画面における複数の領域のそれぞれに画像を表示する決定を行うことを特徴とする請求項1に記載の制御装置。
  3.  上記表示装置は、上記画面における位置を示す第1座標の入力をユーザから受け付ける入力部を備え、
     上記画面よりも小さな画像である部分画像または基準となる方向とは異なる方向で表示された画像である回転画像が、上記画面に表示されているときに、上記入力部が受け付けた第1座標を、上記部分画像または回転画像における位置を示す第2座標に変換する座標変換手段をさらに備えることを特徴とする請求項1または2に記載の制御装置。
  4.  透明部材が上記画面を覆う位置に配置されており、
     上記透明部材を通して上記画面を視認することによって生じる入力位置のずれを、上記ユーザの目線の高さに関連する高さ情報に基づいて補正する座標補正手段をさらに備えることを特徴とする請求項1~3のいずれか1項に記載の制御装置。
  5.  上記座標補正手段は、上記位置検出装置が検出したユーザの位置に応じて、上記入力位置のずれを補正する方向を変更することを特徴とする請求項4に記載の制御装置。
PCT/JP2013/074866 2013-02-27 2013-09-13 制御装置 WO2014132472A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-037915 2013-02-27
JP2013037915 2013-02-27

Publications (1)

Publication Number Publication Date
WO2014132472A1 true WO2014132472A1 (ja) 2014-09-04

Family

ID=51427766

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/074866 WO2014132472A1 (ja) 2013-02-27 2013-09-13 制御装置

Country Status (1)

Country Link
WO (1) WO2014132472A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10025548B2 (en) 2016-08-09 2018-07-17 International Business Machines Corporation Automated display configuration
JP2019095572A (ja) * 2017-11-22 2019-06-20 株式会社ダイセル テーブル型表示装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659813A (ja) * 1992-08-07 1994-03-04 Fuji Xerox Co Ltd 電子情報描画装置
JPH07168529A (ja) * 1993-12-14 1995-07-04 Hitachi Ltd 携帯型情報処理装置
WO1997035248A1 (fr) * 1996-03-15 1997-09-25 Hitachi, Ltd. Afficheur et son procede d'exploitation
JP2000222133A (ja) * 1999-01-28 2000-08-11 Canon Inc 電子情報表示装置及びその表示制御方法並びに記憶媒体
JP2006085618A (ja) * 2004-09-17 2006-03-30 Matsushita Electric Ind Co Ltd タッチ式入力パネル装置
JP2008269044A (ja) * 2007-04-17 2008-11-06 Sharp Corp 表示制御装置及び表示制御プログラム
JP2008268327A (ja) * 2007-04-17 2008-11-06 Sharp Corp 情報表示装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659813A (ja) * 1992-08-07 1994-03-04 Fuji Xerox Co Ltd 電子情報描画装置
JPH07168529A (ja) * 1993-12-14 1995-07-04 Hitachi Ltd 携帯型情報処理装置
WO1997035248A1 (fr) * 1996-03-15 1997-09-25 Hitachi, Ltd. Afficheur et son procede d'exploitation
JP2000222133A (ja) * 1999-01-28 2000-08-11 Canon Inc 電子情報表示装置及びその表示制御方法並びに記憶媒体
JP2006085618A (ja) * 2004-09-17 2006-03-30 Matsushita Electric Ind Co Ltd タッチ式入力パネル装置
JP2008269044A (ja) * 2007-04-17 2008-11-06 Sharp Corp 表示制御装置及び表示制御プログラム
JP2008268327A (ja) * 2007-04-17 2008-11-06 Sharp Corp 情報表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10025548B2 (en) 2016-08-09 2018-07-17 International Business Machines Corporation Automated display configuration
US10255016B2 (en) 2016-08-09 2019-04-09 International Business Machines Corporation Automated display configuration
JP2019095572A (ja) * 2017-11-22 2019-06-20 株式会社ダイセル テーブル型表示装置

Similar Documents

Publication Publication Date Title
TWI720595B (zh) 電子裝置以及控制電子裝置的方法
US9959040B1 (en) Input assistance for computing devices
US20100079391A1 (en) Touch panel apparatus using tactile sensor
JP2016071836A (ja) ホログラム表示を実現する対話型表示方法、制御方法及びシステム
US9632690B2 (en) Method for operating user interface and electronic device thereof
US20160011674A1 (en) Representative image
US11714540B2 (en) Remote touch detection enabled by peripheral device
US20150302653A1 (en) Augmented Digital Data
WO2014041436A2 (en) Processing user input pertaining to content movement
US20120038586A1 (en) Display apparatus and method for moving object thereof
EP2418573A2 (en) Display apparatus and method for moving displayed object
JP2005208991A (ja) 位置情報出力装置及び信号処理方法
TWI564780B (zh) 觸控螢幕姿態技術
WO2014132472A1 (ja) 制御装置
WO2014053369A1 (en) Touchscreen device with parallax error compensation
US20140210746A1 (en) Display device and method for adjusting display orientation using the same
CN104503697B (zh) 一种信息处理方法及电子设备
US20110119579A1 (en) Method of turning over three-dimensional graphic object by use of touch sensitive input device
US9116574B2 (en) Optical touch device and gesture detecting method thereof
WO2018209572A1 (zh) 头戴式显示设备及其交互输入方法
TW201516806A (zh) 三維觸控裝置
US20110157059A1 (en) Touch Display Panel and Touch Sensing Method Thereof
JP2005208992A (ja) 位置情報出力装置及び信号処理方法
US20150091831A1 (en) Display device and display control method
JP2014532908A (ja) マルチポインタ間接入力装置の加速度によるインターラクション

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13876356

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13876356

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP