WO2015029554A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2015029554A1
WO2015029554A1 PCT/JP2014/066201 JP2014066201W WO2015029554A1 WO 2015029554 A1 WO2015029554 A1 WO 2015029554A1 JP 2014066201 W JP2014066201 W JP 2014066201W WO 2015029554 A1 WO2015029554 A1 WO 2015029554A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
user
image
information processing
display
Prior art date
Application number
PCT/JP2014/066201
Other languages
English (en)
French (fr)
Inventor
安田 亮平
野田 卓郎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2015534048A priority Critical patent/JP6421754B2/ja
Priority to US14/915,634 priority patent/US10379610B2/en
Priority to CN201480046926.2A priority patent/CN105474303B/zh
Priority to EP14840503.8A priority patent/EP3043343A4/en
Publication of WO2015029554A1 publication Critical patent/WO2015029554A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/24Generation of individual character patterns
    • G09G5/26Generation of individual character patterns for modifying the character dimensions, e.g. double width, double height
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • a television receiver having a display of 50 inches or more such as a liquid crystal display or a plasma display has been developed.
  • a user can view a video such as a movie or a television program on a large screen.
  • Patent Document 1 discloses a technique for increasing the size of a small screen displayed on a display device as the user leaves the display device.
  • Patent Document 2 discloses a technique for changing the size of displaying characters and figures according to the distance between a grip module held by a user and a light emitting module fixed to the television device. .
  • the visibility of the image displayed on the display surface cannot be sufficiently ensured.
  • the size of the image does not change. For this reason, when the user looks at the display surface from an oblique direction, the user feels the image small and difficult to see.
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of ensuring the visibility of an image displayed on a display surface.
  • a line-of-sight distance between a user's position and a position of a point specified on the image display surface based on the user's line-of-sight direction is calculated.
  • a display control unit that determines a size of a display image displayed on the image display surface according to the line-of-sight distance calculated by the line-of-sight distance calculation unit. Is done.
  • a line of sight between a position of a user and a position of a point specified on an image display surface based on the line of sight of the user An information processing method comprising: calculating a distance; and determining, by a processor, a size of a display image displayed on the image display surface according to the calculated line-of-sight distance.
  • the computer includes a position of a user and a position of a point specified on the image display surface based on the line-of-sight direction of the user.
  • a line-of-sight distance calculation unit that calculates a line-of-sight distance between the display line and a display control unit that determines a size of a display image displayed on the image display surface according to the line-of-sight distance calculated by the line-of-sight distance calculation unit
  • a program is provided.
  • FIG. It is explanatory drawing for demonstrating the example which the display position of the menu image 40 and the position which the user 2 is looking at shift
  • FIG. It is explanatory drawing which showed the example of the display position of the menu image 40 by the embodiment. It is explanatory drawing which showed the example of control of the display position of the notification information 42 by the embodiment. It is explanatory drawing which showed the example of a display of the pop-up window 44 by the embodiment. It is explanatory drawing which showed another example of a display of the menu image 40 by the embodiment.
  • 6 is an explanatory diagram showing a flow of an operation of a user 2 regarding display of a menu image 40.
  • FIG. 5 is an explanatory diagram showing an example of an operation of a user 2 on a menu image 40.
  • FIG. It is the flowchart which showed the operation
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • a plurality of configurations having substantially the same functional configuration are distinguished as required by the display surface 30a and the display surface 30b.
  • only the same reference numerals are given.
  • the display surface 30 when it is not necessary to distinguish between the display surface 30a and the display surface 30b, they are simply referred to as the display surface 30.
  • FIG. 1 is an explanatory diagram showing the basic configuration of the information processing system according to the present embodiment.
  • the information processing system according to the present embodiment includes an information processing apparatus 10 and a camera 20.
  • the information processing apparatus 10 is an apparatus for displaying an image such as the menu image 40 on the display surface 30.
  • the information processing apparatus 10 may be a display device such as a television receiver or a display device.
  • the display surface 30 is an example of an image display surface in the present disclosure, and is, for example, a large screen.
  • the display surface 30 is displayed by, for example, an output device 162 described later.
  • the menu image 40 is an example of a display image in the present disclosure. Examples of the menu image 40 include a television program guide, a web page, a DVD (Digital Versatile Disc) playback image, or a game software display image.
  • the information processing apparatus 10 can display the menu image 40 on the display surface 30 in accordance with, for example, the operation of the user 2 looking at the display surface 30. For example, when the user 2 performs an operation for displaying the menu image 40 such as pressing a “menu button” on a remote controller (not shown), the information processing apparatus 10 displays the menu image 40. Display on the surface 30. In addition, when the user 2 performs an operation for deleting the menu image 40 such as pressing the “return button” on the remote controller, the information processing apparatus 10 deletes the menu image 40 from the display surface 30.
  • the information processing apparatus 10 can display a background image in addition to the menu image 40 on the display surface 30.
  • the information processing apparatus 10 can display the menu image 40 and the background image together on the display surface 30, display only the menu image 40, or display only the background image.
  • the information processing apparatus 10 displays the menu image 40 in front of the background image, that is, displays the menu image 40 in a superimposed manner.
  • background image only one type of background image can be displayed on the display surface 30, or two or more types of background images can be displayed.
  • the background image include, for example, a video of a television program, a moving image and a still image reproduced from the storage device 164 described later, and a recording medium such as a DVD or a USB (Universal Serial Bus) memory by the information processing device 10.
  • Various images such as a moving image and a still image to be read out or a desktop screen of an OS (Operating System) can be used.
  • the background image may be a black or white screen that does not include characters or images, for example.
  • the information processing apparatus 10 has a hardware configuration as shown in FIG. As shown in FIG. 2, the information processing apparatus 10 includes a CPU (Central Processing Unit) 150, a ROM (Read Only Memory) 152, a RAM (Random Access Memory) 154, an internal bus 156, an interface 158, an input device 160, and an output. A device 162, a storage device 164, and a communication device 166;
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 150 includes, for example, various processing circuits and functions as the control unit 100 that controls the entire information processing apparatus 10. Further, in the information processing apparatus 10, the CPU 150 functions, for example, of a line-of-sight specifying unit 102, a visual position calculation unit 104, a line-of-sight distance calculation unit 106, a character size calculation unit 108, a display control unit 110, and an input determination unit 112 described later. To realize.
  • the ROM 152 stores programs used by the CPU 150, control data such as calculation parameters, and the like.
  • RAM154 The RAM 154 temporarily stores a program executed by the CPU 150, for example.
  • the interface 158 connects the input device 160, the output device 162, the storage device 164, and the communication device 166 to the internal bus 156.
  • the input device 160 exchanges data with the CPU 150 and the like via the interface 158 and the internal bus 156.
  • the input device 160 includes input means for a user to input information such as a touch panel, a button, a microphone, and a switch, and an input control circuit that generates an input signal based on an input by the user and outputs the input signal to the CPU 150. ing.
  • the input device 160 functions as the input unit 122 described later.
  • the output device 162 includes display devices such as a liquid crystal display (LCD) device, an organic light emitting diode (OLED) device, and a lamp. Further, the output device 162 includes an audio output device such as a speaker. For example, the display device displays a captured image or a generated image. The voice output device converts voice data or the like into voice and outputs the voice. For example, the output device 162 functions as a display unit 124 described later.
  • the storage device 164 is a data storage device that stores programs executed by the CPU 150 and various data, for example.
  • the storage device 164 includes, for example, a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, or a deletion device that deletes data recorded on the storage medium.
  • the communication device 166 is a communication interface including a communication device for connecting to a communication network such as a public network or the Internet.
  • the communication device 166 may be a wireless LAN compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a wire communication device that performs wired communication.
  • the communication device 166 functions as the communication unit 120 described later.
  • the hardware configuration of the information processing apparatus 10 is not limited to the configuration described above.
  • the information processing apparatus 10 may not include any one or more of the input device 160, the output device 162, the storage device 164, or the communication device 166.
  • the camera 20 has a function of imaging an external image on an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) through a lens, and capturing a still image or a moving image.
  • an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) through a lens, and capturing a still image or a moving image.
  • the camera 20 captures an image of the user 2 or an object located in front of the lens.
  • the camera 20 can transmit the captured image to the information processing apparatus 10 by wired communication or wireless communication.
  • the information processing system according to the present embodiment is not limited to the configuration described above.
  • the information processing apparatus 10 and the camera 20 may be integrally configured such that the information processing apparatus 10 includes the camera 20 therein.
  • the display size of the menu image 40 displayed on the display surface 30 does not change, the visibility of the menu image 40 changes depending on, for example, the position of the user 2 and the viewing direction of the user 2. For example, as the distance between the user 2 and the display surface 30 is larger, the menu image 40 is more visually recognized by the user 2 and is difficult to see. In addition, when the user 2 views the display surface 30 from an oblique direction, the menu image 40 is visually recognized smaller than when viewed from the front, and thus is difficult to see. In particular, when the menu image 40 includes characters, the readability of the characters is significantly reduced.
  • the information processing apparatus 10 has been created by focusing on the above circumstances.
  • the information processing apparatus 10 according to the embodiment of the present disclosure can ensure the visibility of the menu image 40 displayed on the display surface 30.
  • such an embodiment of the present disclosure will be described in detail.
  • FIG. 3 is a functional block diagram showing the configuration of the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 includes a control unit 100, a communication unit 120, an input unit 122, and a display unit 124.
  • the control unit 100 generally controls the operation of the information processing apparatus 10 using hardware such as a CPU 150 and a RAM 154 built in the information processing apparatus 10. 3, the control unit 100 includes a line-of-sight specifying unit 102, a visual position calculation unit 104, a line-of-sight distance calculation unit 106, a character size calculation unit 108, a display control unit 110, and an input determination unit 112. .
  • the line-of-sight specifying unit 102 specifies the position of the user 2 based on the image captured by the camera 20. More specifically, the line-of-sight specifying unit 102 specifies the position of the eye of the user 2 based on the image captured by the camera 20. For example, the line-of-sight specifying unit 102 detects the face of the user 2 by extracting feature points such as eyes, nose, or face outline from the image captured by the camera 20. Then, the line-of-sight specifying unit 102 determines the relative position of the user 2 from the camera 20 based on, for example, the detected distance between the eyes of the user 2 or the size of the face of the user 2. Is calculated.
  • the line-of-sight specifying unit 102 specifies the line-of-sight direction of the user 2 based on an image captured by the camera 20. For example, the line-of-sight specifying unit 102 detects the eyes of the user 2 based on the face image of the user 2 detected from the image captured by the camera 20. Then, the line-of-sight specifying unit 102 specifies the line-of-sight direction of the user 2 by performing pattern matching on the detected image of the eye of the user 2.
  • the line-of-sight specifying unit 102 specifies V1 (v1x, v1y, v1z) as the line-of-sight direction of the user 2a based on the eye image of the user 2a. Further, the line-of-sight specifying unit 102 specifies V2 (v2x, v2y, v2z) as the line-of-sight direction of the user 2b based on the eye image of the user 2b.
  • dictionary learning for pattern matching is created by performing machine learning using a captured image of the entire eyes of a plurality of people associated with the line-of-sight direction by an image processing apparatus. Then, the line-of-sight specifying unit 102 compares the feature amount related to the eyes of the user 2 detected from the image captured by the camera 20 with the dictionary data, so that the line-of-sight direction of the user 2 is any direction. To identify.
  • the image processing apparatus may be the information processing apparatus 10 or a different apparatus.
  • the line-of-sight specifying unit 102 can correct an image in advance, for example, by converting the face image of the user 2 into an image facing the front before performing pattern matching. is there.
  • the visual position calculation unit 104 calculates the visual position of the user 2 on the display surface 30 based on the position of the eyes of the user 2 identified by the visual line identification unit 102 and the visual line direction of the user 2.
  • the visual position is, for example, a position where the user 2 is looking on the display surface 30 or a region near the position where the user 2 is looking, such as the position of the point of coordinates (a, b) shown in FIG. is there.
  • the visual position calculation unit 104 extends from the position (x, y, z) of the user 2's eyes in the line-of-sight direction V (vx, vy, vz) of the user 2.
  • the position of the intersection between the straight line and the display surface 30 (hereinafter also referred to as the line-of-sight intersection) is calculated as the visual position.
  • the visual position calculation unit 104 determines the vertical coordinate value of the visual position based on the vertical coordinate value at the line-of-sight intersection and the height of the head (or eyes) of the user 2. You may calculate based on. For example, regarding the vertical coordinate value of the visual position, the visual position calculation unit 104 calculates the vertical coordinate value at the line-of-sight intersection and the vertical coordinate value of the head (or eyes) of the user 2. For example, it is calculated as a weighted average value by a predetermined coefficient such as 0.5.
  • the line-of-sight distance calculation unit 106 is a point specified on the display surface 30 based on the position of the eye of the user 2 specified by the line-of-sight specifying unit 102 and the line-of-sight direction of the user 2 (hereinafter also referred to as a specific point).
  • the line-of-sight distance to the position is calculated.
  • the specific point is a visual position calculated by the visual position calculation unit 104, for example.
  • the specific point is the same coordinate value as the visual position in the horizontal direction, and the coordinate value is the same as or close to the position of the eye height of the user specified by the line-of-sight specifying unit 102 in the vertical direction. It may be a point.
  • the specific point may be a predetermined coordinate value determined in advance for either one of the horizontal direction and the vertical direction, and may be a point having the same coordinate value as the viewing position for either one.
  • the character size calculation unit 108 calculates the size of the character included in the menu image 40 according to the line-of-sight distance calculated by the line-of-sight distance calculation unit 106. More specifically, the character size calculation unit 108 calculates the size of the character included in the menu image 40 as the line-of-sight distance increases.
  • FIG. 6 is an explanatory diagram for explaining a character size calculation method by the character size calculation unit 108.
  • ⁇ shown in FIG. 6 is the viewing angle of the user 2 in the vertical direction.
  • the character size calculation unit 108 calculates the height h of the character by the following calculation formula (1) using the vertical viewing angle ⁇ and the line-of-sight distance d.
  • the larger the value of the line-of-sight distance d the larger the character size is calculated.
  • the line-of-sight distance d is larger than the line-of-sight distance d ′, and therefore the character height h corresponding to the line-of-sight distance d is set. Is calculated to be larger than the character height h ′ corresponding to the line-of-sight distance d ′.
  • the character size calculation unit 108 can calculate the character size using a fixed value as the value of the vertical viewing angle ⁇ . For example, the value of the vertical viewing angle that is felt by a large number of users 2 that the character is most readable is set as the value of the vertical viewing angle ⁇ by a user test previously performed on a plurality of users 2. May be.
  • the character size calculation unit 108 determines the value of the vertical viewing angle ⁇ according to predetermined conditions such as room brightness, font type, language, character background image, or attributes such as the age of the user 2. It is also possible to change it dynamically. For example, the character size calculation unit 108 sets the value of the vertical viewing angle ⁇ to be larger as the room is darker. In addition, the character size calculation unit 108 sets the value of the vertical viewing angle ⁇ to be larger as the luminance of the character background image is lower. According to these setting examples, the character size is calculated to be larger in a situation where the character is harder to read than usual, so that the readability of the character is improved.
  • the character size calculation unit 108 can calculate a temporary character size by the above-described calculation formula (1) even when the menu image 40 does not include characters.
  • the character size calculation unit 108 can also calculate the optimal size of the picture included in the menu image 40 according to the line-of-sight distance calculated by the line-of-sight distance calculation unit 106.
  • the value of the vertical viewing angle ⁇ in the calculation formula (1) for example, as in the case of characters, a large number of pictures are most easily seen by user tests conducted in advance for a plurality of users 2. It can be set to the value of the vertical viewing angle felt by the user 2.
  • the character size is calculated to be smaller as the line-of-sight distance d is smaller. Therefore, if the line-of-sight distance d is very small, the character is crushed and displayed, and the user 2 may not be able to read. There is. For this reason, as a third modification, when the character size calculated by the above calculation formula (1) is smaller than a predetermined size, the character size calculation unit 108 changes the predetermined size to the character size. It is also possible to set as the size.
  • the predetermined size may be set according to, for example, the resolution of the display surface 30, the type of font, or the type of the output device 162.
  • Display control unit 110 (A. Determination of the size of the menu image 40) The display control unit 110 determines the size of the menu image 40 according to the line-of-sight distance calculated by the line-of-sight distance calculation unit 106. More specifically, the display control unit 110 can determine the size of the menu image 40 to be larger as the line-of-sight distance calculated by the line-of-sight distance calculation unit 106 increases.
  • FIG. 7 is an explanatory diagram showing the sizes of the menu images 40 determined by the display control unit 110 when the line-of-sight distances are different.
  • the display control unit 110 displays the menu image corresponding to the line-of-sight distance d when the line-of-sight distance d calculated by the line-of-sight distance calculation unit 106 is larger than the line-of-sight distance d ′.
  • the size of 40a is determined to be larger than the size of the menu image 40b corresponding to the line-of-sight distance d ′.
  • the display control unit 110 determines the size of the menu image 40 according to the character size calculated by the character size calculation unit 108. For example, the display control unit 110 determines the size of the menu image 40 to a larger value as the character size calculated by the character size calculation unit 108 is larger.
  • the display control unit 110 can not change the size of the background image even if the line-of-sight distance changes.
  • the display control unit 110 displays the menu image 40 according to the size calculated by the character size calculation unit 108 for the smallest character included in the menu image 40. It is possible to determine the size of Alternatively, the display control unit 110 may determine the size of the menu image 40 according to the size calculated by the character size calculation unit 108 for characters that are more likely to be noticed by the user 2 in the menu image 40. Is possible.
  • examples of characters that are likely to be noticed by the user 2 include a television program name when the menu image 40 is a television program guide, or a case where the menu image 40 is a web page. For example, a character string indicating a link destination may be used.
  • the display control unit 110 can determine the size of the menu image 40 by one of the following two methods. First, the display control unit 110 can determine the size of the menu image 40 according to the (temporary) character size calculated by the character size calculation unit 108 using, for example, the calculation formula (1). It is. Secondly, the display control unit 110 can determine the size of the menu image 40 according to the optimal size of the picture calculated by the character size calculation unit 108.
  • the display control unit 110 sets a predetermined size as the size of the menu image 40 when the size of the menu image 40 calculated according to the line-of-sight distance d is larger than the predetermined size. It is possible to determine.
  • the predetermined size may be set according to the size of the display surface 30, for example.
  • the display control unit 110 displays the menu image 40 on the display surface 30 with the determined size. More specifically, the display control unit 110 can display the menu image 40 at the visual position calculated by the visual position calculation unit 104 on the display surface 30. For example, as illustrated in FIG. 8, the display control unit 110 displays the menu image 40 so that the display position of the menu image 40 is included in the display area of the menu image 40, for example, the center position of the menu image 40 is set as the viewing position.
  • the menu image 40 is displayed on the display surface 30 at the position where the user 2 is currently viewing. For this reason, the user 2 does not have to move his / her line of sight when the menu image 40 is displayed, and can comfortably view the menu image 40.
  • the display control unit 110 performs predetermined processing for a plurality of visual positions calculated by the visual position calculation unit 104 during a predetermined time from when the operation for displaying the menu image 40 is performed. By applying this filter, it is possible to calculate the display position of the menu image 40. Then, the display control unit 110 can display the menu image 40 at the calculated display position.
  • the predetermined filter is a low-pass filter.
  • the predetermined filter coefficient for example, even when the user 2 displays the menu image 40 while moving the line of sight, the display position calculated by the display control unit 110 and the display of the menu image 40 are started. It is also possible to set an appropriate value so that the position viewed by the user 2 does not differ greatly at times. According to this setting example, the possibility that the user 2 feels uncomfortable with respect to the display position of the menu image 40 can be reduced.
  • the display control unit 110 can display the menu image 40 at a predetermined position on the display surface 30. For example, as shown in FIG. 10, with respect to the vertical direction, the display control unit 110, for example, multiplies the vertical length H of the display surface 30 by a predetermined coefficient ⁇ from the center in the vertical direction of the display surface 30.
  • the menu image 40 may be displayed at a position of a point that is a predetermined coordinate value such as a coordinate value that is lowered by a value and has the same coordinate value as the viewing position in the horizontal direction, for example.
  • the display control unit 110 can further display notification information 42 for notifying the user on the display surface 30. Further, the display control unit 110 can move the display position of the notification information 42 in accordance with a change in the viewing position of the user 2.
  • the notification information 42 may be, for example, a message notifying the abnormality of the information processing apparatus 10, earthquake information, emergency bulletin, or the like.
  • the notification information 42 may be various types of images such as the menu image 40.
  • FIG. 11 is an explanatory diagram showing an example of a change in the display position of the notification information 42 when the user 2 changes the line-of-sight direction.
  • FIG. 11 shows an example in which the message “Abnormality has been found in the HDD” is displayed as the notification information 42.
  • the display control unit 110 changes the display position of the notification information 42 in the horizontal direction from the notification information 42a to the notification information 42b.
  • the display control unit 110 changes the display position of the notification information 42 in the vertical direction according to the change in the viewing position of the user 2.
  • the display control unit 110 displays the notification information 42 at the viewing position of the user 2 and moves the display position of the notification information 42 following the change in the viewing position.
  • the display control unit 110 causes the notification information 42 to be displayed at a position away from the visual position of the user 2 by a predetermined distance, for example, in the horizontal direction or the vertical direction, and the notification information 42 is adjusted in accordance with the change in the visual position. Is moved while being separated from the viewing position by a predetermined distance.
  • the display control unit 110 displays the notification information 42 in front of the background image, that is, superimposes it.
  • the display control unit 110 can display the notification information 42 in front of the menu image 40 when the display area of the notification information 42 and the display area of the menu image 40 overlap.
  • the display position of the notification information 42 changes according to the change in the viewing direction of the user 2, so that the notification information 42 can be surely and quickly noticed to the user 2. For example, it is possible to quickly notify the user 2 of highly urgent information or highly important information.
  • the display control unit 110 can display the pop-up image 44 on the display surface 30 in addition to the menu image 40.
  • the pop-up image 44 is an image for displaying auxiliary content related to the menu image 40 such as a context menu related to an item selected by the user 2 in the menu image 40.
  • FIG. 12 is an explanatory diagram showing an example in which a pop-up image 44 for selecting viewing or recording of the selected program is displayed when the program “Nature” is selected in the menu image 40 by the user 2. It is. As illustrated in FIG. 12, for example, when the operation for displaying the pop-up image 44 is performed by the user 2, the display control unit 110 is positioned at or near the viewing position of the user 2 at the time of operation. A pop-up image 44 is displayed.
  • the display control unit 110 may display the pop-up image 44 at a predetermined position that is not related to the viewing position, for example, in advance.
  • the display control unit 110 can display the menu image 40 by surrounding the outline of the menu image 40 with, for example, bright illumination as shown in FIG. According to this modification, the outline of the menu image 40 can be more clearly recognized by the user 2, so that the visibility of the menu image 40 is improved.
  • the display control unit 110 can display the background image displayed on the display surface 30 darker as shown in FIG. 13 when the menu image 40 is displayed. For example, when the menu image 40 is displayed, the display control unit 110 superimposes black shading with a transparency of about 50% on the entire background image. According to this modification, the menu image 40 is displayed more conspicuously than the background image, particularly when the menu image 40 and the background image are similar gradation images, or when the background image is a bright image. be able to. For this reason, the visibility of the menu image 40 is improved.
  • the display control unit 110 can also display a combination of Modification 1 and Modification 2 described above.
  • FIG. 14 is an explanatory diagram showing the flow of the operation of the user 2 from the calling operation (S11) of the menu image 40 to the selection operation (S14) of the user 2 on the menu image 40.
  • the rectangle indicates the operation of the user 2 using the remote controller
  • the hexagon indicates the operation by the user 2's gesture
  • the diamond indicates the operation by the user 2's line of sight
  • the ellipse indicates the user 2 Each operation by uttering is shown.
  • the input determination unit 112 determines an operation for calling the menu image 40 by the user 2 based on input information acquired by the communication unit 120 (S11). As shown in FIG. 14, for example, when the input determination unit 112 recognizes that the input information received from the remote controller indicates that the menu button of the remote controller is pressed, the input determination unit 112 It is determined that the menu image 40 is to be called. In addition, when the input determination unit 112 recognizes an image received from the camera 20 as needed and recognizes an operation of repeatedly shaking the hand by the user 2, the input determination unit 112 displays the menu image 40. To call.
  • the input determining unit 112 recognizes the voice input to the input unit 122, and if the input determining unit 112 recognizes a predetermined voice, the input determining unit 112 displays the menu image 40 corresponding to the recognition result. Judge to call. For example, if the input determination unit 112 recognizes a voice “Take out the program guide”, the input determination unit 112 determines to call the menu image 40 corresponding to the program guide.
  • the display control unit 110 displays the menu image 40 on the display surface 30, for example, near the viewing position of the user 2. It is displayed (S12).
  • the input determination unit 112 determines an operation by the user 2 to move between selection items included in the menu image 40 based on, for example, input information acquired by the communication unit 120 (S13). ). As illustrated in FIG. 14, for example, when the input determination unit 112 recognizes that the input information received from the remote controller indicates that the cursor button of the remote controller is pressed, the input determination unit 112 Determines the content of the movement instruction by the user 2 based on the received input information.
  • the input determination unit 112 recognizes an image received from the camera 20 at any time and recognizes an operation of flicking the finger of the hand by the user 2 up, down, left, and right
  • the input determination unit 112 Based on the recognized action, the content of the movement instruction by the user 2 is determined.
  • the input determination unit 112 recognizes an image received from the camera 20 as needed, and recognizes a change in the line-of-sight direction of the user 2
  • the input determination unit 112 displays the recognized line-of-sight direction. The change is determined as an instruction content of movement by the user 2.
  • the input determination unit 112 performs a selection operation on the menu image 40 such as erasing the menu image 40 by the user 2 based on the input information acquired by the communication unit 120, for example. Determine (S14).
  • the input determination unit 112 determines that the selection content in S13 is determined. Further, when the input determining unit 112 recognizes that the input information received from the remote controller indicates that the “return button” of the remote controller has been pressed, the input determining unit 112 displays the selection content in S13. It is determined to cancel and shift to the process of S12.
  • the input determining unit 112 when the input determining unit 112 recognizes an image received from the camera 20 at any time and recognizes the action of lowering the hand by the user 2 from the top, the input determining unit 112 displays the menu image. It is determined that 40 is deleted.
  • the input determination unit 112 recognizes the voice input to the input unit 122, and if the input determination unit 112 recognizes a predetermined voice, the input determination unit 112 executes a process corresponding to the recognition result. Judge that. For example, if the input determination unit 112 recognizes a sound “program from ACE 9 o'clock”, the input determination unit 112 determines to select a program broadcast from 9 o'clock in a broadcast station “ACE”. In addition, when the input determination unit 112 recognizes the voice “determine” or “determine”, the input determination unit 112 determines to determine the selection content in S13. Further, when the input determination unit 112 recognizes the voice of “stop” or “stop”, the input determination unit 112 determines to cancel the selection content in S13 and shift to the processing in S12.
  • the input determination unit 112 determines whether the display position of the menu image 40 includes the visual position calculated by the visual position calculation unit 104, for example, a communication unit It is possible to determine the content of the input indicated by the input information acquired by 120.
  • the input determination unit 112 indicates that the input content indicated by the acquired input information is a cancel operation. It is possible to judge.
  • the input determining unit 112 receives the input information indicating that a predetermined button has been pressed from the remote controller, and displays the content in the display area of the menu image 40. If the visual position is included, the input content indicated by the received input information is determined to be the determination operation. Further, as shown in the right diagram in FIG. 15, the input determination unit 112 receives the input information indicating that a predetermined button has been pressed from the remote controller, and displays in the display area of the menu image 40. If the viewing position is not included, the input content indicated by the received input information is determined to be a cancel operation.
  • the communication unit 120 is an example of an acquisition unit in the present disclosure.
  • the communication unit 120 transmits and receives information to and from various devices that can communicate with the information processing apparatus 10 by wired communication or wireless communication.
  • the communication unit 120 receives an image captured by the camera 20 from the camera 20.
  • the communication unit 120 receives input information indicating that the button has been pressed from the remote controller.
  • the input unit 122 is an example of an acquisition unit in the present disclosure.
  • the input unit 122 receives various input operations performed on the information processing apparatus 10 by the user 2. For example, the input unit 122 receives an utterance from the user 2.
  • the display unit 124 displays, for example, the menu image 40 and the notification information 42 on the display surface 30 based on the control by the display control unit 110.
  • a computer for causing hardware such as the CPU 150, the ROM 152, and the RAM 154 built in the information processing apparatus 10 to exhibit functions equivalent to the respective configurations of the information processing apparatus 10 described above.
  • Programs can also be provided.
  • a recording medium on which the computer program is recorded is also provided.
  • any one or more of the communication unit 120, the input unit 122, and the display unit 124 are not included in the information processing apparatus 10, and may be provided in another apparatus.
  • FIG. 16 is a flowchart showing the operation according to the present embodiment.
  • the line-of-sight identifying unit 102 detects the face of the user 2 by extracting, for example, feature points related to the human face from the image captured by the camera 20 (S101). Subsequently, the line-of-sight specifying unit 102 detects the eyes of the user 2 based on the face image of the user 2 detected in S101. The line-of-sight specifying unit 102 specifies the line-of-sight direction of the user 2 based on the detected eye image of the user 2 (S102).
  • the visual position calculation unit 104 calculates the visual position of the user 2 on the display surface 30 based on the position of the eye of the user 2 specified in S102 and the line-of-sight direction of the user 2 (S103). .
  • the line-of-sight distance calculation unit 106 calculates the line-of-sight distance between the eye position of the user 2 identified in S102 and the visual position calculated in S103 (S104).
  • the character size calculation unit 108 calculates the size of the character included in the menu image 40 based on the line-of-sight distance calculated in S104, for example, using the calculation formula (1) (S105).
  • the display control unit 110 determines the size of the menu image 40 in accordance with the character size calculated in S105 (S106).
  • the display control unit 110 displays the menu image 40 in the size determined in S106 at the viewing position calculated in S103 (S107).
  • the information processing apparatus 10 displays the display surface 30 based on the position of the user 2 and the line-of-sight direction of the user 2.
  • the line-of-sight distance to the position of the specific point is calculated, and the size of the menu image 40 displayed on the display surface 30 is determined according to the calculated line-of-sight distance. For this reason, since the information processing apparatus 10 determines the size of the menu image 40 according to the size of the line-of-sight distance, the visibility of the menu image 40 displayed on the display surface 30 can be ensured.
  • the information processing apparatus 10 displays the menu image 40 on the display surface 30 larger. Let For this reason, even if the user 2 changes the direction of the line of sight, the size of the menu image 40 displayed on the display surface 30 is felt to the user 2 and the visibility is maintained.
  • the information processing apparatus 10 can display the menu image 40 at the viewing position of the user 2 on the display surface 30. For this reason, the user 2 does not have to move his / her line of sight when the menu image 40 is displayed, and can comfortably view the menu image 40.
  • the information processing system according to the present disclosure is not limited to the configuration described in Section 1.
  • the information processing system according to the present disclosure can be designed as a configuration illustrated in FIG.
  • the information processing system according to the first modification includes an information processing terminal 70, a projection device 80, a projection surface 90, and a camera 20.
  • the camera 20 is the same as the camera 20 according to the present embodiment.
  • the information processing terminal 70 is another example of the information processing apparatus according to the present disclosure.
  • the information processing terminal 70 is a device that causes the projection device 80 to project an image such as the menu image 40 by the operation of the user 2, for example.
  • This information processing terminal 70 can include all the components of the information processing apparatus 10 shown in FIG. The function of each component is roughly the same as the function described in section 2-1.
  • FIG. 17 illustrates an example in which the information processing terminal 70 is a laptop PC (Personal Computer), the present invention is not limited to such an example.
  • the information processing terminal 70 may be a desktop PC, a mobile phone such as a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), a digital camera, a glasses-type computer, or a game machine.
  • the projection device 80 is a device that projects an image by light emission.
  • the projection device 80 includes a reception unit that receives image data from the information processing terminal 70, and a projection unit that projects an image formed according to the received image data by light emission.
  • the projection device 80 and the information processing terminal 70 may be integrally configured.
  • the projection surface 90 is another example of the image display surface in the present disclosure.
  • the projection plane 90 is a plane on which an image projected by the projection device 80 is projected.
  • the projection surface 90 may be various screens such as a mat screen, a building wall, or a ceiling in the building.
  • the information processing terminal 70 calculates the line-of-sight distance between the position of the user 2 and the position of the specific point on the projection plane 90 based on the line-of-sight direction of the user 2 and The size of the menu image 40 projected on the projection plane 90 is determined according to the calculated line-of-sight distance. For this reason, since the information processing terminal 70 determines the size of the menu image 40 according to the size of the line-of-sight distance, the visibility of the menu image 40 projected on the projection plane 90 can be ensured. For example, even if the user 2 changes the direction of the line of sight, the user 2 feels the same size of the menu image 40 projected on the projection plane 90, and the visibility is maintained.
  • the first modification it is possible to use, for example, a commercially available inexpensive product for the projection device 80 and the projection surface 90, and the information processing device 10 according to the present embodiment. A large display is not required. For this reason, the information processing system according to the modification 1 can be configured at a lower cost than the information processing system according to the present embodiment.
  • each component included in the control unit 100 such as the line-of-sight distance calculation unit 106 and the display control unit 110 is provided in the information processing apparatus 10 according to the embodiment of the present disclosure has been described.
  • the present disclosure is not limited to such an example.
  • Each component included in the control unit 100 described above may be provided in a communication device capable of communicating with the information processing device 10 such as a server device instead of being provided in the information processing device 10.
  • a computer program for exerting the same function as each component included in the control unit 100 described above may be stored in the communication device instead of being stored in the information processing device 10.
  • a line-of-sight distance calculation unit that calculates a line-of-sight distance between the position of the user and the position of the point specified on the image display surface based on the line-of-sight direction of the user;
  • a display control unit for determining a size of a display image displayed on the image display surface according to the line-of-sight distance calculated by the line-of-sight distance calculation unit;
  • An information processing apparatus comprising: (2) The information processing apparatus calculates a visual position of the user on the image display surface as a position of a point specified on the image display surface based on the position of the user and the line-of-sight direction of the user.
  • the information processing apparatus causes the display image to be displayed at the visual position calculated by the visual position calculation unit.
  • the information processing apparatus further includes a character size calculation unit that calculates the size of a character included in the display image according to the line-of-sight distance, The information processing apparatus according to (2) or (3), wherein the display control unit determines a size of the display image according to a character size calculated by the character size calculation unit.
  • the information processing apparatus determines the size of the display image to be a larger value as the character size calculated by the character size calculation unit is larger.
  • the information processing apparatus calculates a size of a character included in the display image as the line-of-sight distance increases.
  • the information processing apparatus further includes a line-of-sight specifying unit that specifies the position of the user and the line-of-sight direction of the user,
  • the information processing apparatus according to any one of (2) to (6), wherein the visual position calculation unit calculates the visual position on the image display surface based on a specific result by the line-of-sight specifying unit.
  • the display control unit further displays notification information for notifying a user on the image display surface,
  • the information processing apparatus according to any one of (2) to (7), wherein the display control unit moves a display position of the notification information according to a change in the viewing position.
  • the information processing apparatus includes an acquisition unit that acquires input information by a user; Input content indicated by the input information acquired by the acquisition unit based on whether or not the visual position calculated by the visual position calculation unit is included in the display area of the display image on the image display surface
  • the information processing apparatus according to any one of (2) to (8) further including: an input determination unit that determines (10) The input determining unit determines that the input content indicated by the input information is a determination operation when the viewing position is included in a display area of the display image when the input information is acquired; The input determining unit determines that the input content indicated by the input information is a stop operation when the visual information is not included in the display area of the display image when the input information is acquired.
  • the information processing apparatus according to (9). (11) Calculating a line-of-sight distance between the position of the user and the position of the point specified on the image display surface based on the line-of-sight direction of the user; Determining a size of a display image displayed on the image display surface by a processor according to the calculated line-of-sight distance;
  • An information processing method comprising: (12) Computer A line-of-sight distance calculation unit that calculates a line-of-sight distance between the position of the user and the position of the point specified on the image display surface based on the line-of-sight direction of the user; A display control unit for determining a size of a display image displayed on the image display surface according to the line-of-sight distance calculated by the line-of-sight distance calculation unit; Program to function as

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本発明の情報処理装置は、利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部(106)と、前記視線距離算出部(106)により算出された視線距離に応じて文字のサイズを決定する文字サイズ算出部(108)と、前記文字サイズ算出部(108)により算出された文字のサイズに応じて表示画像のサイズを決定する表示制御部(110)と、を備える。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 近年、例えば液晶ディスプレイやプラズマディスプレイなど、50インチ以上のディスプレイを有するテレビジョン受像機が開発されている。このようなテレビジョン受像機において、利用者は、例えば映画やテレビジョン番組などの映像を大画面において視聴することが可能である。
 また、プロジェクタなど、表示面に表示される画像の大きさをユーザが調整可能な表示装置が広く普及している。例えば、特許文献1には、利用者が表示装置から離れるに従って、表示装置に表示される小画面の大きさを大きくする技術が開示されている。また、特許文献2には、ユーザが手に持つ把持モジュールと、テレビジョン装置に固定された発光モジュールとの間の距離によって、文字や図形を表示する大きさを変化させる技術が開示されている。
国際公開第2009/125481号 特開2008-096776号公報
 しかしながら、上記の技術では、表示面に表示される画像の視認性を十分確保することができない。例えば、上記の技術では、利用者が同じ場所に位置する場合には、仮に利用者が顔の向きや視線の向きを変化させたとしても、画像のサイズは変わらない。このため、利用者が斜めの方向から表示面を見る場合には、利用者には画像が小さく感じられ、見難くなる。
 そこで、本開示では、表示面に表示される画像の視認性を確保することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する。
 上記課題を解決するために、本開示のある観点によれば、利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部と、を備える、情報処理装置が提供される。
 また、上記課題を解決するために、本開示の別の観点によれば、利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出することと、算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズをプロセッサにより決定することと、を備える、情報処理方法が提供される。
 また、上記課題を解決するために、本開示の別の観点によれば、コンピュータを、利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部、として機能させるための、プログラムが提供される。
 以上説明したように本開示によれば、表示面に表示される画像の視認性を確保することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態による情報処理システムの構成例を示した説明図である。 同実施形態による情報処理装置10のハードウェア構成を示した説明図である。 同実施形態による情報処理装置10の構成を示した機能ブロック図である。 同実施形態による視線方向の特定方法を示した説明図である。 同実施形態による目視位置の算出方法を示した説明図である。 同実施形態によるフォントサイズの算出方法を示した説明図である。 同実施形態によるメニュー画像40の表示例を示した説明図である。 同実施形態によるメニュー画像40の表示例を示した説明図である。 メニュー画像40の表示開始時において、メニュー画像40の表示位置と、利用者2が見ている位置とがずれる例を説明するための説明図である。 同実施形態によるメニュー画像40の表示位置の例を示した説明図である。 同実施形態による通知情報42の表示位置の制御例を示した説明図である。 同実施形態によるポップアップウィンドウ44の表示例を示した説明図である。 同実施形態によるメニュー画像40の別の表示例を示した説明図である。 メニュー画像40の表示に関する利用者2の操作の流れを示した説明図である。 メニュー画像40に対する利用者2の操作の一例を示した説明図である。 同実施形態による動作を示したフローチャートである。 本開示の変形例による情報処理システムの構成例を示した説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて表示面30aおよび表示面30bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、表示面30aおよび表示面30bを特に区別する必要が無い場合には、単に表示面30と称する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.情報処理システムの基本構成
 2.実施形態の詳細な説明
  2-1.構成
  2-2.動作
  2-3.効果
 3.変形例
<<1.情報処理システムの基本構成>>
 本開示は、一例として「2.実施形態の詳細な説明」において詳細に説明するように、多様な形態で実施され得る。以下では、まず、本開示による情報処理システムの基本構成について説明する。
 図1は、本実施形態による情報処理システムの基本構成を示した説明図である。図1に示したように、本実施形態による情報処理システムは、情報処理装置10、およびカメラ20を含む。
 <1-1.情報処理装置10>
 情報処理装置10は、表示面30にメニュー画像40などの画像を表示させるための装置である。この情報処理装置10は、例えばテレビジョン受像機やディスプレイ装置などの表示装置であってもよい。
 ここで、表示面30は、本開示における画像表示面の一例であり、例えば大型の画面である。この表示面30は、例えば後述する出力装置162により表示される。また、メニュー画像40は、本開示における表示画像の一例である。メニュー画像40の例としては、テレビジョン番組の番組表、webページ、DVD(Digital Versatile Disc)の再生用画像、または、ゲームソフトの表示画像などが挙げられる。
 情報処理装置10は、例えば表示面30を見ている利用者2の操作に応じて、メニュー画像40を表示面30に表示させることが可能である。例えば、利用者2により、リモートコントローラー(図示省略)における「メニューボタン」の押下などの、メニュー画像40を表示させるための操作がされた場合には、情報処理装置10は、メニュー画像40を表示面30に表示させる。また、利用者2により、リモートコントローラーにおける「戻るボタン」の押下などの、メニュー画像40を消去させるための操作がされた場合には、情報処理装置10は、メニュー画像40を表示面30から消去させる。
 また、情報処理装置10は、表示面30において、メニュー画像40の他に、背景画像を表示させることが可能である。情報処理装置10は、メニュー画像40と背景画像を一緒に表示面30に表示させること、メニュー画像40だけを表示させること、または、背景画像だけを表示させることのいずれも可能である。なお、メニュー画像40と背景画像が一緒に表示面30に表示される場合には、情報処理装置10は、背景画像よりも前面にメニュー画像40を表示、つまり重畳表示させる。
 なお、背景画像は、表示面30において1種類だけ表示されることも可能であるし、2種類以上表示されることも可能である。また、背景画像の例としては、例えばテレビジョン番組の映像、後述するストレージ装置164から再生される動画像や静止画像、DVDやUSB(Universal Serial Bus)メモリなどの記録媒体から情報処理装置10により読み出される動画像や静止画像、または、OS(Operating System)のデスクトップ画面など、各種の画像が挙げられる。また、背景画像は、文字や画像を含まない、例えば黒色や白色の一色の画面であってもよい。
 また、情報処理装置10は、例えば図2に示すようなハードウェア構成を有する。図2に示したように、情報処理装置10は、CPU(Central Processing Unit)150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、内部バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
 (CPU150)
 CPU150は、例えば各種処理回路などで構成され、情報処理装置10全体を制御する制御部100として機能する。また、CPU150は、情報処理装置10において、例えば、後述する視線特定部102、目視位置算出部104、視線距離算出部106、文字サイズ算出部108、表示制御部110、および入力判断部112の機能を実現する。
 (ROM152)
 ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
 (RAM154)
 RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
 (インターフェース158)
 インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および通信装置166を、内部バス156と接続する。例えば入力装置160は、このインターフェース158および内部バス156を介して、CPU150などとの間でデータをやり取りする。
 (入力装置160)
 入力装置160は、例えばタッチパネル、ボタン、マイクロフォン、およびスイッチなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU150に出力する入力制御回路などから構成されている。入力装置160は、例えば、後述する入力部122として機能する。
 (出力装置162)
 出力装置162は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置162は、スピーカーなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。また、音声出力装置は、音声データ等を音声に変換して出力する。この出力装置162は、例えば、後述する表示部124として機能する。
 (ストレージ装置164)
 ストレージ装置164は、例えばCPU150が実行するプログラムや各種データを格納する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
 (通信装置166)
 通信装置166は、例えば公衆網やインターネットなどの通信網に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。通信装置166は、例えば、後述する通信部120として機能する。
 なお、情報処理装置10のハードウェア構成は、上述した構成に限定されない。例えば、情報処理装置10は、入力装置160、出力装置162、ストレージ装置164、または、通信装置166のうちいずれか一つ以上を備えなくてもよい。
 <1-2.カメラ20>
 カメラ20は、外部の映像を、レンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子に結像させ、静止画像又は動画像を撮影する機能を有する。例えば、カメラ20は、レンズの前方に位置する利用者2や物体の画像を撮影する。
 また、カメラ20は、有線通信または無線通信により、撮像した画像を情報処理装置10へ送信することが可能である。
 なお、本実施形態による情報処理システムは、上述した構成に限定されない。例えば、情報処理装置10がカメラ20を内部に含むなど、情報処理装置10とカメラ20は一体的に構成されてもよい。
 <1-3.課題の整理>
 ところで、表示面30に表示されるメニュー画像40の表示サイズが仮に変化しないとすると、例えば利用者2の位置や利用者2の視線方向によって、メニュー画像40の視認性は変化する。例えば、利用者2と表示面30との間の距離が大きいほど、利用者2にはメニュー画像40がより小さく視認され、見難くなる。また、利用者2が表示面30を斜めの方向から見る場合の方が、正面から見る場合よりもメニュー画像40が小さく視認されるので、見難い。特にメニュー画像40に文字が含まれる場合において、文字の可読性が顕著に低下する。
 そこで、上記事情を一着眼点にして本開示の実施形態による情報処理装置10を創作するに至った。本開示の実施形態による情報処理装置10は、表示面30に表示されるメニュー画像40の視認性を確保することができる。以下、このような本開示の実施形態について詳細に説明する。
<<2.実施形態の詳細な説明>>
 <2-1.構成>
 図3は、本実施形態による情報処理装置10の構成を示した機能ブロック図である。図3に示したように、情報処理装置10は、制御部100、通信部120、入力部122、および表示部124を有する。
 [2-1-1.制御部100]
 制御部100は、情報処理装置10に内蔵されるCPU150、RAM154などのハードウェアを用いて、情報処理装置10の動作を全般的に制御する。また、図3に示したように、制御部100は、視線特定部102、目視位置算出部104、視線距離算出部106、文字サイズ算出部108、表示制御部110、および入力判断部112を有する。
 [2-1-2.視線特定部102]
 (A.利用者2の位置の特定)
 視線特定部102は、カメラ20による撮影画像に基づいて、利用者2の位置を特定する。より具体的には、視線特定部102は、カメラ20による撮影画像に基づいて、利用者2の目の位置を特定する。例えば、視線特定部102は、カメラ20による撮影画像から、例えば目、鼻、または顔の輪郭などの特徴点を抽出することにより、利用者2の顔を検出する。そして、視線特定部102は、例えば検出された利用者2の目と目の間の距離、または利用者2の顔の大きさなどに基づいて、カメラ20からの利用者2の相対的な位置を算出する。
 (B.利用者2の視線方向の特定)
 また、視線特定部102は、カメラ20による撮影画像に基づいて、利用者2の視線方向を特定する。例えば、視線特定部102は、カメラ20による撮影画像から検出された利用者2の顔の画像に基づいて、利用者2の目を検出する。そして、視線特定部102は、検出された利用者2の目の画像に対してパターンマッチングを行うことにより、利用者2の視線方向を特定する。
 ここで、図4を参照して、上記の機能についてより詳細に説明する。図4に示したように、例えば、視線特定部102は、利用者2aの目の画像に基づいて、利用者2aの視線方向としてV1(v1x、v1y、v1z)を特定する。また、視線特定部102は、利用者2bの目の画像に基づいて、利用者2bの視線方向としてV2(v2x、v2y、v2z)を特定する。
 なお、特定方法の具体例としては、例えば以下が挙げられる。まず、ある画像処理装置により、視線方向と対応づけられた、複数人の目全体の撮影画像を用いて機械学習が行われることにより、パターンマッチング用の辞書データが作成される。そして、視線特定部102は、カメラ20による撮影画像から検出された、利用者2の目に関する特徴量と上記の辞書データとを比較することにより、利用者2の視線方向がいずれの方向であるかを特定する。なお、上記の画像処理装置は、情報処理装置10であってもよいし、異なる装置であってもよい。
 ‐変形例‐
 なお、利用者2が表示面30に対して斜めの方向に位置している場合には、斜めに向いた顔の画像がカメラ20により撮影されるので、検出された利用者2の目の画像自体を用いてパターンマッチングを行うことは難しいという事情がある。このため、変形例として、視線特定部102は、パターンマッチングを行う前に、あらかじめ、例えば利用者2の顔の画像を正面を向いた画像へ変換するなど、画像の補正を行うことが可能である。
 [2-1-3.目視位置算出部104]
 目視位置算出部104は、視線特定部102により特定された利用者2の目の位置、および利用者2の視線方向に基づいて、表示面30における利用者2の目視位置を算出する。ここで、目視位置は、例えば図5に示した座標(a,b)の点の位置のように、利用者2が表示面30において見ている位置、または見ている位置の近傍の領域である。
 例えば、図5に示したように、目視位置算出部104は、利用者2の目の位置(x,y,z)から利用者2の視線方向V(vx,vy,vz)へ伸ばした半直線と表示面30との交点(以下、視線交点とも称する)の位置を、目視位置として算出する。
 ‐変形例‐
 なお、一般的に、人間の目の形状は横長の楕円形であるため、視線特定部102により特定される視線方向に関しては、垂直方向の成分の方が水平方向の成分よりも確度が低くなる傾向がある。このため、変形例として、目視位置算出部104は、目視位置の垂直方向の座標値に関しては、上記の視線交点における垂直方向の座標値、および利用者2の頭(または目)の高さに基づいて算出してもよい。例えば、目視位置算出部104は、目視位置の垂直方向の座標値に関しては、上記の視線交点における垂直方向の座標値と、利用者2の頭(または目)の垂直方向の座標値とを、例えば0.5などの所定の係数により重み付き平均した値として算出する。
 [2-1-4.視線距離算出部106]
 視線距離算出部106は、視線特定部102により特定された利用者2の目の位置と、利用者2の視線方向に基づいて表示面30において特定される点(以下、特定点とも称する)の位置との間の視線距離を算出する。ここで、特定点は、例えば、目視位置算出部104により算出される目視位置である。または、特定点は、水平方向に関しては目視位置と同じ座標値であり、垂直方向に関しては、視線特定部102により特定される利用者の目の高さの位置と同一または近傍の座標値である点であってもよい。または、特定点は、水平方向と垂直方向のうちいずれか一方に関して、あらかじめ定められた所定の座標値であり、いずれか他方に関しては目視位置と同じ座標値である点であってもよい。
 [2-1-5.文字サイズ算出部108]
 文字サイズ算出部108は、メニュー画像40に含まれる文字のサイズを、視線距離算出部106により算出された視線距離に応じて算出する。より具体的には、文字サイズ算出部108は、視線距離が大きいほど、メニュー画像40に含まれる文字のサイズをより大きく算出する。
 ここで、図6を参照して、上記の機能についてより詳細に説明する。図6は、文字サイズ算出部108による文字サイズの算出方法を説明するための説明図である。なお、図6に示したθは、利用者2の垂直方向の視野角である。
 図6に示したように、例えば、文字サイズ算出部108は、文字の高さhを、垂直視野角θと視線距離dを用いて、以下の計算式(1)により算出する。
Figure JPOXMLDOC01-appb-M000001
 この計算式(1)によれば、視線距離dの値が大きくなるほど、文字のサイズがより大きく算出される。例えば、図6に示したように、垂直視野角θの値が同じである場合には、視線距離dの方が視線距離d’よりも大きいので、視線距離dに対応する文字の高さhは、視線距離d’に対応する文字の高さh’よりも大きく算出される。
 一般的に、人間の目には、視線距離が大きい位置にある物体ほど小さく視認される。一方、計算式(1)によれば、視線距離が大きいほど、表示面30に表示される文字のサイズはより大きく算出される。従って、計算式(1)によれば、例えば利用者2が視線方向をずらすなどにより視線距離dの大きさが変化したとしても、利用者2には、表示面30に表示される文字が同程度の大きさで視認される。
 なお、文字サイズ算出部108は、垂直視野角θの値として固定値を用いて文字のサイズを算出することが可能である。例えば、事前に複数の利用者2に対して行われたユーザテストにより、文字が最も読みやすいと多数の利用者2により感じられた垂直視野角の値が、垂直視野角θの値として設定されてもよい。
 あるいは、文字サイズ算出部108は、垂直視野角θの値を、例えば部屋の明るさ、フォントの種類、言語、文字の背景画像、または利用者2の年齢などの属性といった所定の条件に応じて、動的に変化させることも可能である。例えば、文字サイズ算出部108は、部屋が暗いほど、垂直視野角θの値をより大きく設定する。また、文字サイズ算出部108は、文字の背景画像の輝度が低いほど、垂直視野角θの値をより大きく設定する。これらの設定例によれば、文字が通常よりも読みにくい状況では文字サイズがより大きく算出されるので、文字の可読性が向上する。
 (A.変形例1)
 また、文字サイズ算出部108は、メニュー画像40が文字を含まない場合に関しても、上記の計算式(1)により、仮の文字サイズを算出することが可能である。
 (B.変形例2)
 また、文字サイズ算出部108は、メニュー画像40に含まれる絵の最適サイズを、視線距離算出部106により算出された視線距離に応じて算出することも可能である。なお、計算式(1)における垂直視野角θの値に関しては、例えば、文字の場合と同様に、事前に複数の利用者2に対して行われたユーザテストにより、絵が最も見やすいと多数の利用者2により感じられた垂直視野角の値に設定されることが可能である。
 (C.変形例3)
 なお、上記の計算式(1)によれば、視線距離dが小さくなるほど文字のサイズが小さく算出されるので、視線距離dがとても小さくなると文字が潰れて表示され、利用者2が読めなくなる恐れがある。このため、変形例3として、文字サイズ算出部108は、上記の計算式(1)により算出された文字サイズが、あらかじめ定められた所定のサイズよりも小さくなる場合には、所定のサイズを文字のサイズとして設定することも可能である。なお、所定のサイズは、例えば、表示面30の解像度、フォントの種類、または出力装置162の種類などに応じて設定されてもよい。
 [2-1-6.表示制御部110]
 (A.メニュー画像40のサイズの決定)
 表示制御部110は、視線距離算出部106により算出された視線距離に応じて、メニュー画像40のサイズを決定する。より具体的には、表示制御部110は、視線距離算出部106により算出された視線距離が大きいほど、メニュー画像40のサイズをより大きく決定することが可能である。
 図7は、視線距離が異なる場合において、表示制御部110により決定されるメニュー画像40のそれぞれのサイズを示した説明図である。図7に示したように、例えば、表示制御部110は、視線距離算出部106により算出された視線距離dの方が視線距離d’よりも大きい場合には、視線距離dに対応するメニュー画像40aのサイズを、視線距離d’に対応するメニュー画像40bのサイズよりも大きくなるように決定する。
 上記の機能についてさらに詳細に説明すると、表示制御部110は、文字サイズ算出部108により算出された文字のサイズに応じてメニュー画像40のサイズを決定する。例えば、表示制御部110は、文字サイズ算出部108により算出された文字のサイズが大きいほど、メニュー画像40のサイズをより大きな値に決定する。
 上述したように、人間の目には、視線距離が大きい位置にある物体ほど小さく視認される。一方、上記の決定例によれば、視線距離が大きいほど、メニュー画像40はより大きく表示面30に表示される。このため、上記の決定例によれば、例えば利用者2が視線方向をずらすなどにより視線距離が変化したとしても、利用者2には、表示面30に表示されるメニュー画像40が同程度の大きさで視認されることになる。従って、メニュー画像40の視認性が維持される。
 なお、上述した、表示面30に表示される背景画像に関してはメニュー画像40とは異なり、表示制御部110は、視線距離が変化しても背景画像のサイズを変化させないことが可能である。
 ‐変形例1‐
 なお、メニュー画像40が複数のサイズの文字を含む場合には、表示制御部110は、メニュー画像40に含まれる最も小さい文字について文字サイズ算出部108により算出されたサイズに応じて、メニュー画像40のサイズを決定することが可能である。あるいは、表示制御部110は、メニュー画像40において利用者2に注目される可能性がより高い文字について文字サイズ算出部108により算出されたサイズに応じて、メニュー画像40のサイズを決定することが可能である。ここで、利用者2に注目される可能性が高い文字の例としては、メニュー画像40がテレビジョン番組表である場合におけるテレビジョン番組名であったり、メニュー画像40がwebページである場合におけるリンク先を示す文字列などが挙げられる。
 ‐変形例2‐
 また、メニュー画像40が文字を含まない場合に関しては、表示制御部110は、下記の2種類の方法のいずれかによりメニュー画像40のサイズを決定することが可能である。第1に、表示制御部110は、文字サイズ算出部108により例えば計算式(1)を用いて算出される(仮の)文字のサイズに応じて、メニュー画像40のサイズを決定することが可能である。第2に、表示制御部110は、文字サイズ算出部108により算出される、絵の最適サイズに応じてメニュー画像40のサイズを決定することが可能である。
 ‐変形例3‐
 なお、上記の決定例によれば、視線距離dが大きくなるほどメニュー画像40のサイズはより大きく算出されるので、視線距離dがとても大きくなるとメニュー画像40の一部が表示面30からはみ出してしまう恐れがある。このため、変形例3として、表示制御部110は、視線距離dに応じて算出されたメニュー画像40のサイズが所定のサイズよりも大きくなる場合には、メニュー画像40のサイズとして所定のサイズを決定することが可能である。なお、所定のサイズは、例えば、表示面30の大きさに応じて設定されてもよい。
 (B.メニュー画像40の表示位置の決定)
 (B-1.目視位置に表示)
 また、表示制御部110は、決定したサイズでメニュー画像40を表示面30に表示させる。より具体的には、表示制御部110は、表示面30における、目視位置算出部104により算出された目視位置にメニュー画像40を表示させることが可能である。例えば、図8に示したように、表示制御部110は、メニュー画像40の中心位置を目視位置とするなど、メニュー画像40の表示領域に目視位置が含まれるようにメニュー画像40を表示させる。
 この表示例によれば、メニュー画像40は、表示面30において利用者2が現在見ている位置に表示される。このため、利用者2は、メニュー画像40が表示された際に視線を移動させる必要がなく、メニュー画像40を快適に見ることができる。
 (B-2.フィルタの適用)
 ところで、例えば目の瞬きや姿勢の搖動などにより、一般的に、利用者2の視線方向は随時大きく変動するので、目視位置算出部104により算出される目視位置は随時大きく振動する傾向にある。このため、例えば利用者2によりメニュー画像40を表示させる操作がされた際において目視位置算出部104により算出された目視位置と、メニュー画像40が実際に表示される際に利用者2が見ている位置とは異なってしまう可能性が大きい。
 そこで、変形例として、表示制御部110は、まず、メニュー画像40を表示させる操作がされた際から所定の時間の間において、目視位置算出部104により算出された複数の目視位置に対して所定のフィルタを掛けることにより、メニュー画像40の表示位置を算出することが可能である。そして、表示制御部110は、算出された表示位置にメニュー画像40を表示させることが可能である。なお、所定のフィルタの例としては、ローパスフィルタなどが挙げられる。
 ‐フィルタの係数の調整‐
 但し、所定のフィルタの係数が強い場合には、例えば図9に示したように、利用者2の視線が移動されている状況において利用者2によりメニュー画像40を表示させる操作がなされた場合には、表示制御部110により算出された表示位置と、利用者2が表示面30において見ている位置とが大きく異なることも想定される。なお、図9は、メニュー画像40を表示させる操作がされてからメニュー画像40が表示されるまでに、利用者2の目視位置が図9において破線で示した領域46の内部まで移動されたことにより、メニュー画像40の表示位置と利用者2の目視位置とが大きくずれた例を示している。
 このように、メニュー画像40の表示開始時において、利用者2が実際に見ている位置からずれてメニュー画像40が表示されると、利用者2はメニュー画像40の表示位置に違和感を抱く恐れがある。
 そこで、所定のフィルタの係数に関しては、例えば利用者2が視線を移動させながらメニュー画像40を表示させる場合であっても、表示制御部110により算出される表示位置と、メニュー画像40の表示開始時において利用者2が見る位置とが大きく異なることがないような、適切な値に設定されることも可能である。この設定例によれば、利用者2がメニュー画像40の表示位置に関して違和感を抱く可能性を減少させることができる。
 (B-3.固定位置に表示)
 また、別の変形例として、表示制御部110は、表示面30における所定の位置にメニュー画像40を表示させることも可能である。例えば、図10に示したように、表示制御部110は、垂直方向に関しては、例えば表示面30の垂直方向における中心から、表示面30の垂直方向の長さHに所定の係数αを乗じた値だけ低くした座標値などの所定の座標値であり、水平方向に関しては例えば目視位置と同じ座標値である点の位置にメニュー画像40を表示させてもよい。
 この変形例による効果として、例えば複数の利用者2が表示面30を一緒に見るような場面において、特定の利用者2の目視位置に合わせて表示させることがないので、複数の利用者2にとって見やすいようにメニュー画像40を表示できる点が挙げられる。
 (C.通知情報42の表示)
 また、変形例として、表示制御部110は、さらに、利用者に通知するための通知情報42を表示面30に表示させることが可能である。さらに、表示制御部110は、利用者2の目視位置の変化に応じて通知情報42の表示位置を移動させることも可能である。ここで、通知情報42は、例えば、情報処理装置10の異常などを通知するメッセージであったり、地震情報や緊急速報などであってもよい。または、通知情報42は、メニュー画像40のような、様々な形式の画像であってもよい。
 ここで、図11を参照して、上記の機能についてより詳細に説明する。図11は、利用者2が視線方向を変化させた場合における通知情報42の表示位置の変化例を示した説明図である。なお、図11は、通知情報42として、「HDDに異常が発見されました。」というメッセージが表示されている例を示している。
 例えば、図11に示したように、利用者2が、図11の左側の図に示した目視位置から右側の図に示した目視位置へ変化させるように、視線方向を変化させた場合には、表示制御部110は、通知情報42の表示位置を、通知情報42aから通知情報42bのように水平方向に変化させる。または、表示制御部110は、利用者2の目視位置の変化に応じて通知情報42の表示位置を垂直方向に変化させる。
 あるいは、表示制御部110は、利用者2の目視位置に通知情報42を表示させ、そして、目視位置の変化に追従させて通知情報42の表示位置を移動させる。または、表示制御部110は、利用者2の目視位置から例えば水平方向または垂直方向に関して所定の距離だけ離れた位置に通知情報42を表示させ、そして、目視位置の変化に合わせて、通知情報42の表示位置を、目視位置から所定の距離だけ離しながら移動させる。
 なお、図11に示したように、表示制御部110は、通知情報42を背景画像よりも前面に表示、つまり重畳表示させる。また、表示制御部110は、通知情報42の表示領域とメニュー画像40の表示領域とが重複する場合には、通知情報42をメニュー画像40よりも前面に表示させることが可能である。
 これらの表示例によれば、利用者2の視線方向の変化に応じて通知情報42の表示位置が変わるので、通知情報42を利用者2に確実かつ迅速に気づかせることができる。例えば、緊急性の高い情報や、重要性の高い情報を迅速に利用者2に通知することができる。
 (D.ポップアップ画像44の表示)
 また、変形例として、表示制御部110は、メニュー画像40に加えて、ポップアップ画像44を表示面30に表示させることも可能である。このポップアップ画像44は、例えばメニュー画像40において利用者2により選択された項目に関するコンテキストメニューなど、メニュー画像40に関する補助的な内容を表示するための画像である。
 ここで、図12を参照して、上記の機能についてより詳細に説明する。図12は、利用者2によりメニュー画像40において“Nature”という番組が選択された場合において、選択された番組の閲覧や録画を選択するためのポップアップ画像44が表示された例を示した説明図である。図12に示したように、例えば、表示制御部110は、利用者2によりポップアップ画像44を表示させるための操作がされた場合には、操作時における利用者2の目視位置または目視位置付近にポップアップ画像44を表示させる。
 なお、表示制御部110は、ポップアップ画像44を、目視位置とは無関係な、例えばあらかじめ定められた所定の位置に表示させてもよい。
 (E.メニュー画像40の表示の変形例)
 ‐変形例1‐
 また、変形例として、表示制御部110は、図13に示したように、メニュー画像40の輪郭を例えば明るい色のイルミネーションで囲って、メニュー画像40を表示させることも可能である。この変形例によれば、メニュー画像40の輪郭をより明確に利用者2に視認させることができるので、メニュー画像40の視認性が向上する。
 ‐変形例2‐
 また、別の変形例として、表示制御部110は、メニュー画像40の表示時において、図13に示したように、表示面30に表示される背景画像をより暗く表示させることが可能である。例えば、表示制御部110は、メニュー画像40の表示時において、背景画像全体に対して透過度50%程度の黒色の網掛けを重畳させる。この変形例によれば、特にメニュー画像40と背景画像とが似た階調の画像であったり、背景画像が明るい画像である場合などにおいて、メニュー画像40を背景画像よりも目立つように表示させることができる。このため、メニュー画像40の視認性が向上する。
 なお、表示制御部110は、上記の変形例1および変形例2を組み合わせて表示させることも可能である。
 [2-1-7.入力判断部112]
 入力判断部112は、例えば後述する通信部120により取得される入力情報に基づいて、利用者2の入力の内容を判断する。ここで、図14を参照して、上記の機能についてより詳細に説明する。図14は、メニュー画像40の呼び出し操作(S11)から、メニュー画像40における利用者2の選択操作(S14)までの、利用者2の操作の流れを示した説明図である。なお、図14では、長方形はリモートコントローラーを用いた利用者2の操作を、六角形は利用者2のジェスチャーによる操作を、ひし形は利用者2の視線による操作を、そして、楕円は利用者2の発声による操作をそれぞれ示している。
 (A.メニュー画像40の呼び出し)
 入力判断部112は、例えばメニュー画像40が表示されていない場合には、通信部120により取得される入力情報などに基づいて、利用者2によるメニュー画像40を呼び出す操作を判断する(S11)。図14に示したように、例えば、入力判断部112は、リモートコントローラーから受信された入力情報がリモートコントローラーのメニューボタンが押下されたことを示すことを認識した場合には、入力判断部112は、メニュー画像40を呼び出すことを判断する。また、入力判断部112は、カメラ20から随時受信される映像を画像認識し、そして、利用者2による手を横に繰り返し振る動作を認識した場合には、入力判断部112は、メニュー画像40を呼び出すことを判断する。また、入力判断部112は、入力部122に対して入力された音声を音声認識し、そして、所定の音声を認識した場合には、入力判断部112は、認識結果に対応するメニュー画像40を呼び出すことを判断する。例えば、入力判断部112は、「番組表を出して」という音声を認識した場合には、番組表に対応するメニュー画像40を呼び出すことを判断する。
 なお、S11の後、つまり入力判断部112によりメニュー画像40を呼び出すことが判断された場合には、表示制御部110は、メニュー画像40を表示面30において、例えば利用者2の目視位置付近に表示させる(S12)。
 (B.項目間の移動)
 また、入力判断部112は、S12の後において、例えば通信部120により取得された入力情報に基づいて、利用者2による、メニュー画像40に含まれる選択項目間を移動させる操作を判断する(S13)。図14に示したように、例えば、入力判断部112は、リモートコントローラーから受信された入力情報が、リモートコントローラーのカーソルボタンが押下されたことを示すことを認識した場合には、入力判断部112は、受信された入力情報に基づいて、利用者2による移動の指示内容を判断する。また、入力判断部112は、カメラ20から随時受信される映像を画像認識し、そして、利用者2による手の指を上下左右にフリックさせる動作を認識した場合には、入力判断部112は、認識された動作に基づいて、利用者2による移動の指示内容を判断する。また、入力判断部112は、カメラ20から随時受信される映像を画像認識し、そして、利用者2の視線方向の変化を認識した場合には、入力判断部112は、認識された視線方向の変化を、利用者2による移動の指示内容として判断する。
 (C.メニュー画像の消去、または決定・中止操作)
 また、入力判断部112は、S12またはS13の後において、例えば通信部120により取得された入力情報に基づいて、利用者2による、例えばメニュー画像40の消去などの、メニュー画像40における選択操作を判断する(S14)。
 例えば、図14に示したように、入力判断部112は、リモートコントローラーから受信された入力情報がリモートコントローラーの「決定ボタン」が押下されたことを示すことを認識した場合には、入力判断部112は、S13における選択内容を決定することを判断する。また、入力判断部112は、リモートコントローラーから受信された入力情報がリモートコントローラーの「戻るボタン」が押下されたことを示すことを認識した場合には、入力判断部112は、S13における選択内容をキャンセルし、S12の処理へ遷移させることを判断する。
 また、入力判断部112は、カメラ20から随時受信される映像を画像認識し、そして、利用者2による手を上から下におろす動作を認識した場合には、入力判断部112は、メニュー画像40を消去することを判断する。
 また、入力判断部112は、入力部122に対して入力された音声を音声認識し、そして、所定の音声を認識した場合には、入力判断部112は、認識結果に対応する処理を実行することを判断する。例えば、入力判断部112は、「ACE9時からの番組」という音声を認識した場合には、“ACE”という放送局において9時から放送される番組を選択することを判断する。また、入力判断部112は、「決定」や「決める」という音声を認識した場合には、S13における選択内容を決定することを判断する。また、入力判断部112は、「中止」や「止める」という音声を認識した場合には、S13における選択内容をキャンセルし、S12の処理へ遷移させることを判断する。
 ‐変形例‐
 また、S14の動作の変形例として、入力判断部112は、メニュー画像40の表示領域の中に、目視位置算出部104により算出された目視位置が含まれるか否かに基づいて、例えば通信部120により取得された入力情報が示す入力の内容を判断することが可能である。
 より具体的には、入力判断部112は、入力情報の取得時において、メニュー画像40の表示領域の中に目視位置が含まれる場合には、取得された入力情報が示す入力の内容が決定操作であると判断することが可能である。また、入力判断部112は、入力情報の取得時において、メニュー画像40の表示領域の中に目視位置が含まれない場合には、取得された入力情報が示す入力の内容が中止操作であると判断することが可能である。
 ここで、図15を参照して、上記の機能についてより詳細に説明する。例えば、図15における左側の図に示したように、入力判断部112は、所定のボタンが押下されたことを示す入力情報がリモートコントローラーから受信された場合において、メニュー画像40の表示領域の中に目視位置が含まれる場合には、受信された入力情報が示す入力の内容が決定操作であると判断する。また、図15における右側の図に示したように、入力判断部112は、所定のボタンが押下されたことを示す入力情報がリモートコントローラーから受信された場合において、メニュー画像40の表示領域の中に目視位置が含まれない場合には、受信された入力情報が示す入力の内容が中止操作であると判断する。
 [2-1-8.通信部120]
 通信部120は、本開示における取得部の一例である。通信部120は、有線通信または無線通信により、情報処理装置10と通信可能な各種の装置との間で情報を送受信する。例えば、通信部120は、カメラ20により撮像された画像をカメラ20から受信する。また、通信部120は、ボタンが押下されたことを示す入力情報をリモートコントローラーから受信する。
 [2-1-9.入力部122]
 入力部122は、本開示における取得部の一例である。入力部122は、利用者2による情報処理装置10に対する各種の入力操作を受け付ける。例えば、入力部122は、利用者2による発声を受け付ける。
 [2-1-10.表示部124]
 表示部124は、表示制御部110による制御に基づいて、例えばメニュー画像40や通知情報42などを表示面30に表示する。
 なお、本開示の実施形態によれば、情報処理装置10に内蔵されるCPU150、ROM152、およびRAM154などのハードウェアを、上述した情報処理装置10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
 また、本開示の実施形態による構成は、上述した構成に限定されない。例えば、通信部120、入力部122、または表示部124のうちいずれか一つ以上は情報処理装置10に含まれず、他の装置に備えられてもよい。
 <2-2.動作>
 以上、本実施形態による構成について説明した。続いて、本実施形態による動作について説明する。図16は、本実施形態による動作を示したフローチャートである。
 図16に示したように、まず、視線特定部102は、カメラ20による撮影画像から例えば人の顔に関する特徴点を抽出することにより、利用者2の顔を検出する(S101)。続いて、視線特定部102は、S101で検出された利用者2の顔の画像に基づいて、利用者2の目を検出する。そして、視線特定部102は、検出された利用者2の目の画像に基づいて、利用者2の視線方向を特定する(S102)。
 続いて、目視位置算出部104は、S102で特定された利用者2の目の位置、および利用者2の視線方向に基づいて、表示面30における利用者2の目視位置を算出する(S103)。
 続いて、視線距離算出部106は、S102で特定された利用者2の目の位置と、S103で算出された目視位置との間の視線距離を算出する(S104)。
 続いて、文字サイズ算出部108は、メニュー画像40に含まれる文字のサイズを、例えば計算式(1)により、S104で算出された視線距離に基づいて算出する(S105)。
 続いて、表示制御部110は、S105で算出された文字のサイズに応じてメニュー画像40のサイズを決定する(S106)。
 その後、表示制御部110は、S103により算出された目視位置において、S106で決定されたサイズでメニュー画像40を表示させる(S107)。
 <2-3.効果>
 以上、例えば図3~図8、図16等を参照して説明したように、本実施形態による情報処理装置10は、利用者2の位置と、利用者2の視線方向に基づいて表示面30における特定点の位置との間の視線距離を算出し、そして、算出された視線距離に応じて、表示面30に表示されるメニュー画像40のサイズを決定する。このため、情報処理装置10は、視線距離の大きさに応じてメニュー画像40のサイズを決定するので、表示面30に表示されるメニュー画像40の視認性を確保することができる。
 例えば、利用者2が斜めの方向から表示面30を見る場合には、正面から見る場合と比べて視線距離が大きくなるので、情報処理装置10は、メニュー画像40をより大きく表示面30に表示させる。このため、利用者2が視線の向きを変化させたとしても、利用者2には、表示面30に表示されるメニュー画像40の大きさが同程度に感じられ、視認性が維持される。
 また、情報処理装置10は、表示面30における利用者2の目視位置にメニュー画像40を表示させることが可能である。このため、利用者2は、メニュー画像40が表示された際に視線を移動させる必要がなく、メニュー画像40を快適に見ることができる。
<<3.変形例>>
 なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <3-1.変形例1>
 例えば、本開示による情報処理システムは、1節で述べた構成に限定されない。例えば、本開示による情報処理システムは、図17に示したような構成として設計されることも可能である。図17に示したように、この変形例1による情報処理システムは、情報処理端末70、投影装置80、投影面90、およびカメラ20を含む。なお、カメラ20は、本実施形態によるカメラ20と同様である。
 [3-1-1.情報処理端末70]
 情報処理端末70は、本開示における情報処理装置の別の例である。情報処理端末70は、例えば利用者2の操作により、メニュー画像40などの画像を投影面90へ投影装置80に投影させる装置である。この情報処理端末70は、図3に示した情報処理装置10の構成要素を全て含むことが可能である。また、各構成要素の機能は、2-1節で述べた機能と概略同様である。なお、図17では、情報処理端末70がラップトップ型のPC(Personal Computer)である例を示しているが、かかる例に限定されない。例えば、情報処理端末70は、デスクトップ型のPC、スマートフォンなどの携帯電話、タブレット端末、PDA(Personal Digital Assistant)、デジタルカメラ、メガネ型コンピュータ、またはゲーム機などであってもよい。
 [3-1-2.投影装置80]
 投影装置80は、発光により画像を投影する装置である。この投影装置80は、情報処理端末70から画像データを受信する受信部と、受信された画像データに従って形成される画像を発光により投影する投影部と、を備える。なお、変形例として、投影装置80および情報処理端末70は、一体的に構成されてもよい。
 [3-1-3.投影面90]
 投影面90は、本開示における画像表示面の別の例である。投影面90は、投影装置80により投影された画像を映し出す平面である。この投影面90は、例えばマットスクリーンなどの各種のスクリーン、建物の壁、または建物内の天井などであってもよい。
 この変形例1によれば、情報処理端末70は、利用者2の位置と、利用者2の視線方向に基づいて投影面90における特定点の位置との間の視線距離を算出し、そして、算出された視線距離に応じて、投影面90に投影されるメニュー画像40のサイズを決定する。このため、情報処理端末70は、視線距離の大きさに応じてメニュー画像40のサイズを決定するので、投影面90に投影されるメニュー画像40の視認性を確保することができる。例えば、利用者2が視線の向きを変化させたとしても、利用者2には、投影面90に投影されるメニュー画像40の大きさが同程度に感じられ、視認性が維持される。
 また、変形例1によれば、投影装置80および投影面90には、例えば市販されているような安価な製品を用いることが可能であり、かつ、本実施形態による情報処理装置10のような、大型のディスプレイは不要である。このため、変形例1による情報処理システムは、本実施形態による情報処理システムよりも安価に構成することが可能である。
 <3-2.変形例2>
 また、上記の説明では、本開示の実施形態による、例えば視線距離算出部106や表示制御部110などの、制御部100に含まれる各構成要素が情報処理装置10に備えられる例について説明したが、本開示はかかる例に限定されない。上述した制御部100に含まれる各構成要素は、情報処理装置10に備えられる代わりに、例えばサーバ装置などの、情報処理装置10と通信可能な通信装置に備えられてもよい。また、上述した制御部100に含まれる各構成要素と同等の機能を発揮させるためのコンピュータプログラムは、情報処理装置10に記憶される代わりに、上記の通信装置に記憶されてもよい。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、
 前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部と、
を備える、情報処理装置。
(2)
 前記情報処理装置は、前記利用者の位置および前記利用者の視線方向に基づいて、前記画像表示面における前記利用者の目視位置を、前記画像表示面において特定される点の位置として算出する目視位置算出部をさらに備える、前記(1)に記載の情報処理装置。
(3)
 前記表示制御部は、前記目視位置算出部により算出された目視位置に前記表示画像を表示させる、前記(2)に記載の情報処理装置。
(4)
 前記情報処理装置は、前記表示画像に含まれる文字のサイズを前記視線距離に応じて算出する文字サイズ算出部をさらに備え、
 前記表示制御部は、前記文字サイズ算出部により算出された文字のサイズに応じて前記表示画像のサイズを決定する、前記(2)または(3)に記載の情報処理装置。
(5)
 前記表示制御部は、前記文字サイズ算出部により算出された文字のサイズが大きいほど、前記表示画像のサイズをより大きな値に決定する、前記(4)に記載の情報処理装置。
(6)
 前記文字サイズ算出部は、前記視線距離が大きいほど、前記表示画像に含まれる文字のサイズをより大きく算出する、前記(4)または(5)に記載の情報処理装置。
(7)
 前記情報処理装置は、前記利用者の位置、および前記利用者の視線方向を特定する視線特定部をさらに備え、
 前記目視位置算出部は、前記視線特定部による特定の結果に基づいて前記画像表示面における前記目視位置を算出する、前記(2)~(6)のいずれか一項に記載の情報処理装置。
(8)
 前記表示制御部は、さらに、利用者に通知するための通知情報を前記画像表示面に表示させ、
 前記表示制御部は、前記目視位置の変化に応じて、前記通知情報の表示位置を移動させる、前記(2)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記情報処理装置は、利用者による入力情報を取得する取得部と、
 前記画像表示面における前記表示画像の表示領域の中に、前記目視位置算出部により算出された目視位置が含まれるか否かに基づいて、前記取得部により取得された入力情報が示す入力の内容を判断する入力判断部と、をさらに備える、前記(2)~(8)のいずれか一項に記載の情報処理装置。
(10)
 前記入力判断部は、前記入力情報の取得時に、前記表示画像の表示領域の中に前記目視位置が含まれる場合には、前記入力情報が示す入力の内容が決定操作であると判断し、
 前記入力判断部は、前記入力情報の取得時に、前記表示画像の表示領域の中に前記目視位置が含まれない場合には、前記入力情報が示す入力の内容が中止操作であると判断する、前記(9)に記載の情報処理装置。
(11)
 利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出することと、
 算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズをプロセッサにより決定することと、
を備える、情報処理方法。
(12)
 コンピュータを、
 利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、
 前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部、
として機能させるための、プログラム。
2 利用者
10 情報処理装置
20 カメラ
70 情報処理端末
80 投影装置
90 投影面
100 制御部
102 視線特定部
104 目視位置算出部
106 視線距離算出部
108 文字サイズ算出部
110 表示制御部
112 入力判断部
120 通信部
122 入力部
124 表示部
150 CPU
152 ROM
154 RAM
156 内部バス
158 インターフェース
160 入力装置
162 出力装置
164 ストレージ装置
166 通信装置

Claims (12)

  1.  利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、
     前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部と、
    を備える、情報処理装置。
  2.  前記情報処理装置は、前記利用者の位置および前記利用者の視線方向に基づいて、前記画像表示面における前記利用者の目視位置を、前記画像表示面において特定される点の位置として算出する目視位置算出部をさらに備える、請求項1に記載の情報処理装置。
  3.  前記表示制御部は、前記目視位置算出部により算出された目視位置に前記表示画像を表示させる、請求項2に記載の情報処理装置。
  4.  前記情報処理装置は、前記表示画像に含まれる文字のサイズを前記視線距離に応じて算出する文字サイズ算出部をさらに備え、
     前記表示制御部は、前記文字サイズ算出部により算出された文字のサイズに応じて前記表示画像のサイズを決定する、請求項2に記載の情報処理装置。
  5.  前記表示制御部は、前記文字サイズ算出部により算出された文字のサイズが大きいほど、前記表示画像のサイズをより大きな値に決定する、請求項4に記載の情報処理装置。
  6.  前記文字サイズ算出部は、前記視線距離が大きいほど、前記表示画像に含まれる文字のサイズをより大きく算出する、請求項4に記載の情報処理装置。
  7.  前記情報処理装置は、前記利用者の位置、および前記利用者の視線方向を特定する視線特定部をさらに備え、
     前記目視位置算出部は、前記視線特定部による特定の結果に基づいて前記画像表示面における前記目視位置を算出する、請求項2に記載の情報処理装置。
  8.  前記表示制御部は、さらに、利用者に通知するための通知情報を前記画像表示面に表示させ、
     前記表示制御部は、前記目視位置の変化に応じて、前記通知情報の表示位置を移動させる、請求項2に記載の情報処理装置。
  9.  前記情報処理装置は、利用者による入力情報を取得する取得部と、
     前記画像表示面における前記表示画像の表示領域の中に、前記目視位置算出部により算出された目視位置が含まれるか否かに基づいて、前記取得部により取得された入力情報が示す入力の内容を判断する入力判断部と、をさらに備える、請求項2に記載の情報処理装置。
  10.  前記入力判断部は、前記入力情報の取得時に、前記表示画像の表示領域の中に前記目視位置が含まれる場合には、前記入力情報が示す入力の内容が決定操作であると判断し、
     前記入力判断部は、前記入力情報の取得時に、前記表示画像の表示領域の中に前記目視位置が含まれない場合には、前記入力情報が示す入力の内容が中止操作であると判断する、請求項9に記載の情報処理装置。
  11.  利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出することと、
     算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズをプロセッサにより決定することと、
    を備える、情報処理方法。
  12.  コンピュータを、
     利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、
     前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部、
    として機能させるための、プログラム。
PCT/JP2014/066201 2013-09-02 2014-06-18 情報処理装置、情報処理方法、及びプログラム WO2015029554A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015534048A JP6421754B2 (ja) 2013-09-02 2014-06-18 情報処理装置、情報処理方法、及びプログラム
US14/915,634 US10379610B2 (en) 2013-09-02 2014-06-18 Information processing device and information processing method
CN201480046926.2A CN105474303B (zh) 2013-09-02 2014-06-18 信息处理装置、信息处理方法及程序
EP14840503.8A EP3043343A4 (en) 2013-09-02 2014-06-18 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013181227 2013-09-02
JP2013-181227 2013-09-02

Publications (1)

Publication Number Publication Date
WO2015029554A1 true WO2015029554A1 (ja) 2015-03-05

Family

ID=52586133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/066201 WO2015029554A1 (ja) 2013-09-02 2014-06-18 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US10379610B2 (ja)
EP (1) EP3043343A4 (ja)
JP (1) JP6421754B2 (ja)
CN (1) CN105474303B (ja)
WO (1) WO2015029554A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186007A1 (ja) * 2017-04-05 2018-10-11 シャープ株式会社 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体
KR20190019136A (ko) * 2016-07-14 2019-02-26 삼성전자주식회사 강화된 컬러 및 콘트라스트를 가진 투영 시스템
KR20190063690A (ko) * 2017-11-30 2019-06-10 주식회사 꿀비 동공 추적을 이용한 온라인 강의의 수강태도 감독 시스템
JP2020149336A (ja) * 2019-03-13 2020-09-17 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
JP2022115480A (ja) * 2021-01-28 2022-08-09 独立行政法人国立高等専門学校機構 視線入力装置、および視線入力方法
JP2023081010A (ja) * 2021-11-30 2023-06-09 株式会社ドワンゴ アラート表示システム、アラート表示方法、およびアラート表示プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016163150A (ja) * 2015-02-27 2016-09-05 株式会社リコー 通信端末、面談システム、通信方法及びプログラム
WO2018123266A1 (ja) * 2016-12-28 2018-07-05 株式会社Jvcケンウッド 視機能検査装置、視機能検査方法、及びコンピュータプログラム
WO2018205055A1 (zh) * 2017-05-07 2018-11-15 深圳市卓希科技有限公司 一种图像处理方法和系统
CN108989571B (zh) * 2018-08-15 2020-06-19 浙江大学滨海产业技术研究院 一种针对手机文字阅读的自适应字体调整方法及装置
US11259081B2 (en) * 2020-02-28 2022-02-22 Rovi Guides, Inc. Systems and methods for adaptively modifying presentation of media content
US11914646B1 (en) * 2021-09-24 2024-02-27 Apple Inc. Generating textual content based on an expected viewing angle
CN117075740B (zh) * 2023-10-16 2024-05-24 深圳市宝视达光电有限公司 一种电子白板版面自动调整方法、装置和系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2002062863A (ja) * 2000-08-18 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> 文書表示方法、装置、および文書表示プログラムを記録した記録媒体
JP2008096776A (ja) 2006-10-13 2008-04-24 Konami Digital Entertainment:Kk 表示装置、表示方法、ならびに、プログラム
JP2009031368A (ja) * 2007-07-24 2009-02-12 Nec Corp 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
WO2009125481A1 (ja) 2008-04-10 2009-10-15 パイオニア株式会社 画面表示システム及び画面表示プログラム
WO2010089989A1 (ja) * 2009-02-05 2010-08-12 パナソニック株式会社 情報表示装置及び情報表示方法
JP2011510364A (ja) * 2007-12-20 2011-03-31 ソニー エリクソン モバイル コミュニケーションズ, エービー 表示を動的に変更するシステム及び方法
WO2011158511A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
JP2013120347A (ja) * 2011-12-08 2013-06-17 Samsung Yokohama Research Institute Co Ltd 画像表示システム及び画像表示方法
WO2014084193A1 (ja) * 2012-11-28 2014-06-05 京セラ株式会社 電子機器及び制御プログラム並びに表示制御方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199090A (ja) * 1990-11-29 1992-07-20 Hitachi Ltd 高精細ディスプレイ装置
JPH09274144A (ja) * 1996-04-02 1997-10-21 Canon Inc 画像表示装置
US7345684B2 (en) * 1998-06-25 2008-03-18 Intel Corporation Perceptually based display
US6392657B1 (en) * 1998-11-13 2002-05-21 E-Color, Inc. Method and apparatus for characterizing an optimal viewing angle of flat display
EP1426919A1 (en) * 2002-12-02 2004-06-09 Sony International (Europe) GmbH Method for operating a display device
JP2006030615A (ja) * 2004-07-16 2006-02-02 Mitsubishi Motors Corp 車載モニタ表示装置,車両用文字情報提供装置及びそれらから成る車両用文字情報表示システム
JP4795149B2 (ja) * 2005-08-15 2011-10-19 キヤノン株式会社 情報処理装置及び情報処理方法及びプログラム及び記憶媒体
US7591558B2 (en) * 2006-05-31 2009-09-22 Sony Ericsson Mobile Communications Ab Display based on eye information
JP4310330B2 (ja) * 2006-09-26 2009-08-05 キヤノン株式会社 表示制御装置及び表示制御方法
JP4970122B2 (ja) * 2007-04-20 2012-07-04 株式会社ニデック 視力検査装置
JP2008306509A (ja) * 2007-06-08 2008-12-18 Sharp Corp 表示装置
JP2009042187A (ja) * 2007-08-10 2009-02-26 Aisin Aw Co Ltd ナビゲーション装置、及びナビゲーションプログラム
US8115877B2 (en) * 2008-01-04 2012-02-14 International Business Machines Corporation System and method of adjusting viewing angle for display based on viewer positions and lighting conditions
US20090239591A1 (en) * 2008-03-19 2009-09-24 Motorola Inc Wireless communication device and method with an orientation detector
JP5423183B2 (ja) * 2009-07-03 2014-02-19 ソニー株式会社 表示制御装置および表示制御方法
US8762846B2 (en) * 2009-11-16 2014-06-24 Broadcom Corporation Method and system for adaptive viewport for a mobile device based on viewing angle
JP2015039052A (ja) * 2009-12-29 2015-02-26 シャープ株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN103207664B (zh) * 2012-01-16 2016-04-27 联想(北京)有限公司 一种图像处理方法和设备
US9423870B2 (en) * 2012-05-08 2016-08-23 Google Inc. Input determination method
CN102830796B (zh) * 2012-06-29 2016-08-03 广东威创视讯科技股份有限公司 在显示设备中动态确定窗口位置的方法及装置
US20140247208A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Invoking and waking a computing device from stand-by mode based on gaze detection
US9348411B2 (en) * 2013-05-24 2016-05-24 Microsoft Technology Licensing, Llc Object display with visual verisimilitude

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2002062863A (ja) * 2000-08-18 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> 文書表示方法、装置、および文書表示プログラムを記録した記録媒体
JP2008096776A (ja) 2006-10-13 2008-04-24 Konami Digital Entertainment:Kk 表示装置、表示方法、ならびに、プログラム
JP2009031368A (ja) * 2007-07-24 2009-02-12 Nec Corp 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
JP2011510364A (ja) * 2007-12-20 2011-03-31 ソニー エリクソン モバイル コミュニケーションズ, エービー 表示を動的に変更するシステム及び方法
WO2009125481A1 (ja) 2008-04-10 2009-10-15 パイオニア株式会社 画面表示システム及び画面表示プログラム
WO2010089989A1 (ja) * 2009-02-05 2010-08-12 パナソニック株式会社 情報表示装置及び情報表示方法
WO2011158511A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
JP2013120347A (ja) * 2011-12-08 2013-06-17 Samsung Yokohama Research Institute Co Ltd 画像表示システム及び画像表示方法
WO2014084193A1 (ja) * 2012-11-28 2014-06-05 京セラ株式会社 電子機器及び制御プログラム並びに表示制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3043343A4

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102420103B1 (ko) * 2016-07-14 2022-07-13 삼성전자주식회사 강화된 컬러 및 콘트라스트를 가진 투영 시스템
KR20190019136A (ko) * 2016-07-14 2019-02-26 삼성전자주식회사 강화된 컬러 및 콘트라스트를 가진 투영 시스템
JP2019525234A (ja) * 2016-07-14 2019-09-05 サムスン エレクトロニクス カンパニー リミテッド 強化されたカラー及びコントラストを有する投影システム
JP2018180684A (ja) * 2017-04-05 2018-11-15 シャープ株式会社 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体
WO2018186007A1 (ja) * 2017-04-05 2018-10-11 シャープ株式会社 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体
KR20190063690A (ko) * 2017-11-30 2019-06-10 주식회사 꿀비 동공 추적을 이용한 온라인 강의의 수강태도 감독 시스템
KR102011887B1 (ko) * 2017-11-30 2019-08-20 주식회사 꿀비 동공 추적을 이용한 온라인 강의의 수강태도 감독 시스템
JP2020149336A (ja) * 2019-03-13 2020-09-17 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
JP7215254B2 (ja) 2019-03-13 2023-01-31 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
JP2023033559A (ja) * 2019-03-13 2023-03-10 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
JP2022115480A (ja) * 2021-01-28 2022-08-09 独立行政法人国立高等専門学校機構 視線入力装置、および視線入力方法
JP7296069B2 (ja) 2021-01-28 2023-06-22 独立行政法人国立高等専門学校機構 視線入力装置、および視線入力方法
JP2023081010A (ja) * 2021-11-30 2023-06-09 株式会社ドワンゴ アラート表示システム、アラート表示方法、およびアラート表示プログラム
JP7316344B2 (ja) 2021-11-30 2023-07-27 株式会社ドワンゴ アラート表示システム、アラート表示方法、およびアラート表示プログラム

Also Published As

Publication number Publication date
US20160231809A1 (en) 2016-08-11
EP3043343A1 (en) 2016-07-13
CN105474303A (zh) 2016-04-06
JP6421754B2 (ja) 2018-11-14
JPWO2015029554A1 (ja) 2017-03-02
US10379610B2 (en) 2019-08-13
CN105474303B (zh) 2018-05-18
EP3043343A4 (en) 2017-04-05

Similar Documents

Publication Publication Date Title
JP6421754B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10762876B2 (en) Information processing apparatus and control method
US11315336B2 (en) Method and device for editing virtual scene, and non-transitory computer-readable storage medium
CN113055629B (zh) 显示装置及其控制方法
CN110100251B (zh) 用于处理文档的设备、方法和计算机可读存储介质
AU2013205535B2 (en) Apparatus and method of controlling mobile terminal based on analysis of user&#39;s face
US20150146078A1 (en) Shift camera focus based on speaker position
KR102061867B1 (ko) 이미지 생성 장치 및 그 방법
US20180240213A1 (en) Information processing system, information processing method, and program
JP2012023595A (ja) 会議システム
WO2016192325A1 (zh) 视频文件的标识处理方法及装置
US20120139827A1 (en) Method and apparatus for interacting with projected displays using shadows
JP6946684B2 (ja) 電子情報ボードシステム、画像処理装置、及びプログラム
WO2020190547A1 (en) Intelligent video presentation system
US20200042105A1 (en) Information processing apparatus, information processing method, and recording medium
US20170371524A1 (en) Information processing apparatus, picture processing method, and program
US11023050B2 (en) Display control device, display control method, and computer program
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
JP2017182109A (ja) 表示システム、情報処理装置、プロジェクター及び情報処理方法
CN110086921B (zh) 终端性能状态的检测方法、装置、便携式终端和存储介质
TW201337644A (zh) 資訊處理裝置、資訊處理方法、及記錄媒體
KR102435737B1 (ko) 화상 처리 장치 및 화상 처리 방법
JP2004289779A (ja) 移動体撮像方法、移動体撮像システム
JP6737968B1 (ja) 歩行者信号識別装置
CN108540726B (zh) 连拍图像的处理方法、装置、存储介质及终端

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480046926.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14840503

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015534048

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014840503

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014840503

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14915634

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE