WO2016035621A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2016035621A1
WO2016035621A1 PCT/JP2015/073909 JP2015073909W WO2016035621A1 WO 2016035621 A1 WO2016035621 A1 WO 2016035621A1 JP 2015073909 W JP2015073909 W JP 2015073909W WO 2016035621 A1 WO2016035621 A1 WO 2016035621A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
user
display object
information
control unit
Prior art date
Application number
PCT/JP2015/073909
Other languages
English (en)
French (fr)
Inventor
裕士 瀧本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/325,154 priority Critical patent/US10466799B2/en
Publication of WO2016035621A1 publication Critical patent/WO2016035621A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Definitions

  • This disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 discloses an invention relating to an information processing apparatus that recognizes a user's hand gesture based on learned three-dimensional model data of a human body. According to the invention of Patent Document 1, it is possible to detect a pointing operation based on a recognized gesture of a user's hand and specify a position specified by the detected pointing operation.
  • the pointing operation is generally performed on a display object displayable area (hereinafter also referred to as a display area) that is larger than the user, a plurality of users performing the pointing operation may be performed. Can exist. For this reason, a plurality of display objects related to the pointing operation in the display area may be generated, and the visibility of display in the display area may be reduced.
  • a display object displayable area hereinafter also referred to as a display area
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of controlling the display in the display area while suppressing a decrease in display visibility in the display area.
  • a detection unit that detects an operation that displays a display object related to an application or changes a display range of the display object, and the operation is performed when the operation is detected.
  • An information processing apparatus includes a determination unit that determines an operating user and a control unit that selects a display object on which display control is performed based on information related to the operating user.
  • an operation for displaying a display object related to an application or changing a display range of the display object is detected, and the operation is performed when the operation is detected.
  • an information processing method including determining a performed operation user and selecting a display object on which display control is performed based on information related to the operation user.
  • a detection function for detecting an operation for displaying a display object related to an application or changing a display range of the display object, and the operation when the operation is detected.
  • a program for causing a computer to realize a determination function for determining an operating user who has performed a control function and a control function for selecting a display object on which display control is performed based on information related to the operating user.
  • an information processing apparatus an information processing method, and a program capable of controlling display in a display area while suppressing a decrease in display visibility in the display area are provided.
  • the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
  • FIG. 2 is a block diagram illustrating a schematic functional configuration of an information processing apparatus according to a first embodiment of the present disclosure.
  • FIG. It is a figure which shows the example of the display change in a display area by the process of the information processing apparatus which concerns on this embodiment.
  • It is a flowchart which shows notionally the process of the information processing apparatus in this embodiment.
  • FIG. 1 is a diagram for describing an overview of an information processing apparatus according to an embodiment of the present disclosure.
  • the information processing apparatus 100 has an operation detection function and a display control function.
  • the operation detection function is a function for recognizing a user gesture and detecting an operation corresponding to the gesture. In particular, a pointing operation in the display area is detected by the operation detection function.
  • the display control function is a function for controlling the contents displayed on the display device or the like in accordance with an operation. For this reason, the information processing apparatus 100 can change the display content in accordance with the pointing operation detected from the user's gesture. Note that the information processing apparatus 100 can incorporate a display device or the like.
  • the information processing apparatus 100 has a projection function for projecting display contents, and projects the display contents onto the display area 1 as shown in FIG.
  • the imaging device 200 is arranged so as to be able to image a user who performs an operation or the like toward the display area 1, and provides the information processing device 100 with an image obtained by imaging.
  • the information processing apparatus 100 detects an operation corresponding to a gesture recognized by the user's gesture, for example, the posture of the user's arm and hand, for example, a pointing operation, based on the image provided from the imaging apparatus 200. Then, the information processing apparatus 100 can display a cursor indicating the pointing position 10 at a position (hereinafter also referred to as a pointing position) 10 designated by the detected pointing operation.
  • the information processing apparatus 100 detects an operation such as displaying a display object related to an application in the display area, and determines the user who performed the operation when the operation is detected. To do. Then, the information processing apparatus 100 selects a display object on which display control is performed based on information regarding the user who performed the operation.
  • the information processing apparatus 100 determines the user who performed the operation. Next, the information processing apparatus 100 selects one of display objects already displayed in the display area, for example, a window in the window system, based on the information related to the determined user. Then, the information processing apparatus 100 performs display control of the selected window, for example, movement of the window. Further, the information processing apparatus 100 performs the display control and displays the window of the application related to the activation operation in the display area.
  • the information processing apparatus 100 detects an operation such as displaying a display object related to an application in the display area, and the user who performed the operation when the operation is detected Determine. Then, the information processing apparatus 100 selects a display object on which display control is performed based on information regarding the user who performed the operation. For this reason, even when the display range of the display object on the display area is changed due to the operation, the display object related to the user who performed the operation is controlled to display the entire display area. The range is adjusted, and it is possible to suppress a decrease in visibility in the display area.
  • the information processing device 100 may be a display device such as a display or a television, or a smartphone connected to the display device, It may be a device such as a tablet terminal, personal computer or server. Further, for convenience of explanation, each of the information processing apparatuses 100 according to the first to third embodiments is denoted by a number corresponding to the embodiment at the end like the information processing apparatus 100-1 and the information processing apparatus 100-2. It distinguishes by attaching.
  • First Embodiment Display Control Based on Information of User Performing Display Generation Operation
  • the information processing apparatus 100-1 selects a display object on which display control is performed based on information regarding the user who performed the operation.
  • FIG. 2 is a block diagram illustrating a schematic functional configuration of the information processing apparatus 100-1 according to the first embodiment of the present disclosure.
  • the information processing apparatus 100-1 includes a detection unit 102, a determination unit 104, a control unit 106, and a projection unit 108 as shown in FIG. Note that the information processing apparatus 100-1 is connected to the imaging apparatus 200 via communication or the like.
  • the detecting unit 102 detects a user operation. Specifically, the detection unit 102 detects an operation (hereinafter also referred to as a display generation operation) for displaying a display object related to the application in the display area. More specifically, the detection unit 102 detects a display generation operation among operations performed based on a pointing position related to a pointing operation performed toward the display area. Below, the process of the detection part 102 is demonstrated in detail.
  • the detection unit 102 detects a direction (hereinafter also referred to as a pointing direction) indicated by the user's posture based on an image provided from the imaging device 200 or the like. Furthermore, the detection unit 102 detects a pointing position based on the pointing direction.
  • a direction hereinafter also referred to as a pointing direction
  • the detection unit 102 issues an imaging request to the imaging device 200, and the three-dimensional human body stored in an image provided from the imaging device 200 as a response to the imaging request and the storage unit separately provided in the information processing device 100-1.
  • a pointing direction is detected based on model information or the like.
  • the detecting unit 102 detects an intersection point between the detected pointing direction and the surface on which the display content is projected by the projecting unit 108 as a pointing position.
  • a technique using information obtained from a motion sensor or other general pointing technique as well as a technique using an image analysis technique can be used.
  • the pointing position may be a position actually pointed to by the user, or may be a position specified based on the position pointed to by the user. For example, when a plurality of positions indicated by the user are estimated, the pointing position may be the center of a circle including each estimated position. The detection of the pointing position can be performed at a predetermined time interval.
  • the detection unit 102 detects a display generation operation among operations executed based on the detected pointing position. For example, a processing object such as an application activation icon is selected based on the detected pointing position. Then, when a display object, for example, a window is generated when the application is activated by selecting the icon, the detection unit 102 detects the icon selection operation as a display generation operation.
  • the determination unit 104 determines the user who performed the operation. Specifically, when the display generation operation is detected by the detection unit 102, the determination unit 104 determines a user who has performed the display generation operation. For example, first, when the display generation operation is detected by the detection unit 102, the determination unit 104 acquires information such as an image used in the detection process of the detection unit 102. Then, the determination unit 104 determines the user who has performed the display generation operation based on the information such as the acquired image and the user information for specifying the user stored in the storage unit included in the information processing apparatus 100-1. Identify. For example, the determination unit 104 specifies a user by using a face recognition technique that performs matching between face information extracted from image information and user face information stored in advance. Note that user information for specifying a user may be acquired from outside the information processing apparatus 100-1.
  • the control unit 106 controls display to be projected on the projection unit 108. Specifically, the control unit 106 selects a display object for which display control is to be performed based on information related to the user determined by the determination unit 104. More specifically, the information relating to the user includes information (hereinafter also referred to as association information) in which the user is associated with a display object having a predetermined relationship with the user. Based on the association information, a display object on which display control is performed is selected. Further, the processing of the control unit 106 will be described in detail with reference to FIG. FIG. 3 is a diagram illustrating an example of a display change in the display area by the processing of the information processing apparatus 100-1 according to the present embodiment.
  • control unit 106 displays a display object in the display area. For example, the control unit 106 displays windows A1 and A2 based on the display generation operation of the user 20A and B1 based on the display generation operation of the user 20B as illustrated in the left diagram of FIG.
  • the control part 106 will select the display object which performs display control based on matching information, if display production
  • the association information includes information associating the window generation user with the window. Therefore, the control unit 106 identifies the windows A1 and A2 in which the user 20A determined by the determination unit 104 is the generation user from the acquired association information. And control part 106 chooses window A1 whose elapsed time from generation is longer than other windows A2 among specified windows A1 and A2.
  • control unit 106 changes the priority of the selected display object. For example, the control unit 106 can maintain and manage the priority for each display object. And the control part 106 reduces the priority of the display object selected, for example, window A1.
  • the control unit 106 changes the display position of the display object whose priority is lower than that of other display objects. And the control part 106 displays the display object which concerns on display production
  • association information is generated and updated by the control unit 106. For example, when the display generation operation is detected, the control unit 106 generates information that associates the user who performed the operation determined by the determination unit 104 with the display object generated by the display generation operation, Store in the storage unit.
  • the projection unit 108 projects the display content based on an instruction from the control unit 106. Specifically, the projection unit 108 projects an image or video generated by the control unit 106 in the projection direction.
  • the projection unit 108 may be a projector using a CRT (Cathode Ray Tube) or a liquid crystal.
  • the projection unit 108 may be a display unit such as a display using liquid crystal or organic EL (Electroluminescence).
  • the imaging apparatus 200 performs imaging in response to a request from the information processing apparatus 100-1. Specifically, when receiving an imaging request from the detection unit 102, the imaging apparatus 200 performs imaging according to the imaging request and provides an image obtained by imaging to the information processing apparatus 100-1.
  • the imaging apparatus 200 includes two or more imaging units and performs imaging in each imaging unit. Note that a plurality of imaging apparatuses 200 may be installed, and each imaging apparatus 200 may be connected to the information processing apparatus 100-1.
  • the installation location of the imaging device 200 is not limited to the lower side of the display area 1 as illustrated in FIG. Can be installed in either.
  • FIG. 4 is a flowchart conceptually showing processing of the information processing apparatus 100-1 in the present embodiment.
  • the information processing apparatus 100-1 waits until a display generation operation is detected (step S302). Specifically, the detection unit 102 detects a display generation operation based on a user's pointing operation.
  • the information processing apparatus 100-1 determines the user who has performed the display generation operation (step S304). Specifically, when the detection unit 102 determines that a display generation operation has been detected, the determination unit 104 acquires information about an image in which the user who performed the display generation operation is captured from the detection unit 102. Then, the determination unit 104 determines the user who performed the display generation operation based on the acquired image information.
  • the information processing apparatus 100-1 determines whether there is a display object generated by the determined user (step S306). Specifically, the control unit 106 acquires association information from a storage unit or the like, and determines whether the acquired association information includes a display object generated by the user determined by the determination unit 104. To do.
  • the information processing apparatus 100-1 changes the priority of the display object having a longer elapsed time than the generation of the other display objects (step S308). . Specifically, when it is determined that the display information generated by the user who performed the display generation operation is included in the association information, the control unit 106 includes the display objects indicated in the association information, A display object whose elapsed time from generation is longer than other display objects is selected. Then, the control unit 106 reduces the priority of the display object. Note that the priority change may be determined in combination with the presence / absence of an operation on a display object, which will be described later, or an operation characteristic of an application related to the display object.
  • the information processing apparatus 100-1 changes the display of a display object having a lower priority than other display objects (step S310). Specifically, the control unit 106 moves a display object having a lower priority than other display objects among the display objects associated with the user who performed the display generation operation. A plurality of display objects may be selected as display control targets.
  • the information processing apparatus 100-1 displays a display object related to the display generation operation (step S312). Specifically, the control unit 106 displays the display object related to the display generation operation at a place where the display object can be displayed by the movement of the display object.
  • the information processing apparatus 100-1 detects an operation for displaying a display object in the display area, and performs the operation when the operation is detected. The operating user is determined. Then, in the information processing apparatus 100-1, the control unit 106 selects a display object on which display control is performed based on information related to the operation user. For this reason, even when the display range of the display object on the display area is changed due to the operation, the display object related to the user who performed the operation is controlled to display the entire display area. The range is adjusted, and it is possible to suppress a decrease in visibility in the display area.
  • the information related to the operation user includes association information in which the user and a display object having a predetermined relationship with the user are associated, and the control unit 106 performs display control based on the association information. Select the display object on which is performed. For this reason, the possibility of affecting the display of display objects related to other users is reduced, and the visibility of display objects related to other users can be maintained.
  • the association information includes information that associates the user who generated the display object with the display object, and the control unit 106 generates the display object among the display objects generated by the user who performed the display generation operation.
  • a display object whose elapsed time is longer than other display objects is selected. For this reason, it is possible to further reduce the possibility of affecting the display of display objects related to other users by selecting display objects that may involve the user who performed the display generation operation It becomes.
  • control unit 106 changes the display position of the selected display object. For this reason, it becomes possible to suppress that a user's convenience falls by not deleting a display object.
  • the information processing apparatus 100-1 may select a display object on which display control is performed based on the position of the user with respect to the display area.
  • the association information includes information indicating a positional relationship between the display object associated with the user and the user (hereinafter also referred to as positional relationship information), and the control unit 106 performs a display generation operation.
  • a display object on which display control is performed is selected based on the positional relationship information regarding the selected user.
  • FIG. 5 is a diagram illustrating an example of a display change in the display area by the processing of the information processing apparatus 100-1 according to the first modification of the present embodiment. Note that description of processing that is substantially the same as processing in the first embodiment is omitted.
  • control unit 106 displays a display object in the display area. For example, the control unit 106 displays windows A1 and A2 associated with the user 20A and B1 associated with the user 20B as shown in the left diagram of FIG.
  • the control unit 106 selects a display object for which display control is performed based on the positional relationship information of the user who has performed the display generation operation. For example, the control unit 106 acquires the association information when the detection unit 102 detects the display generation operation for the window A3 by the user 20A. And the control part 106 acquires the positional relationship information of the user who performed the said display production
  • the positional relationship information includes information indicating the distance between the display object associated with the user and the user. Therefore, the control unit 106 specifies the distance between each of the windows A1 and A2 associated with the user 20A and the user 20A.
  • control part 106 chooses window A1 whose distance from user 20A is farther than other windows among windows A1 and A2.
  • the positional relationship information may be detected by a process such as image analysis of the detection unit 102, or may be acquired using a distance sensor or the like provided separately in the information processing apparatus 100-1. Further, the positional relationship information may be acquired from an external device of the information processing apparatus 100-1.
  • control unit 106 changes the priority of the display object to be selected, and moves the display object having a lower priority than other display objects. And the control part 106 displays the display object which concerns on display production
  • the association information includes positional relationship information indicating the positional relationship between the display object associated with the user and the user, and the control unit 106 displays A display object on which display control is performed is selected based on the positional relationship information about the user who performed the generation operation. For this reason, by selecting a display object based on information in which the usage state of the display object is easily reflected, it is possible to suppress a decrease in user convenience due to display control.
  • the positional relationship information includes information indicating the distance between the display object associated with the user and the user, and the control unit 106 includes the display object associated with the user who performed the display generation operation. Select a display object to be identified based on distance. For this reason, it becomes possible to further suppress a decrease in convenience for the user by selecting a display object based on information on which the usage state is estimated more accurately.
  • the positional relationship information indicates the position of the display object and the user with respect to the display area. May include information indicating an angle formed by a line segment connecting the two.
  • the control unit 106 acquires angle information indicating an angle formed between the display surface of the display area and a line segment from the display object associated with the user determined by the determination unit 104 to the position of the user. Then, the control unit 106 selects a display object whose angle indicated by the acquired angle information is smaller than other display objects. In this case, it is possible to reduce the possibility that the user's convenience is reduced by estimating the usage state that is difficult to estimate depending on the distance between the user and the display object.
  • the information processing apparatus 100-1 may select a display object on which display control is performed based on the user's aspect.
  • the association information includes information (hereinafter also referred to as user aspect information) indicating the user's aspect with respect to the display object associated with the user, and the control unit 106 determines the user who performed the display generation operation.
  • a display object on which display control is performed may be selected based on the user mode information.
  • FIG. 6 is a diagram for describing an example of a display change in the display area due to processing by the information processing apparatus 100-1 according to the second modification of the present embodiment. Note that description of processing that is substantially the same as processing in the first embodiment is omitted.
  • control unit 106 displays a display object in the display area. For example, the control unit 106 displays windows A1 and A2 associated with the user 20A and B1 associated with the user 20B as illustrated in the left diagram of FIG.
  • the control unit 106 selects a display object for which display control is performed based on the user mode information of the user who has performed the display generation operation. For example, when the operation for displaying the window A3 is detected by the detection unit 102, the control unit 106 acquires the association information. And the control part 106 acquires the user aspect information of the user 20A who performed the said operation from the acquired matching information.
  • the user mode information includes information indicating the presence / absence of the user's action on the display object associated with the user. Therefore, the control unit 106 specifies the operation of the user 20A regarding the windows A1 and A2 associated with the user 20A, for example, whether or not the window is watched.
  • control unit 106 selects a window A2 that is not watched as shown in the left diagram of FIG.
  • the information indicating the presence / absence of the user's action on the display object may be detected by processing such as image analysis of the detection unit 102 or may be acquired from an external device of the information processing apparatus 100-1.
  • control unit 106 changes the priority of the display object to be selected, and moves the display object having a lower priority than other display objects. And the control part 106 displays the display object which concerns on display production
  • the association information includes user aspect information indicating the user aspect with respect to the display object associated with the user, and the control unit 106 performs the display generation operation.
  • a display object on which display control is performed is selected based on the user mode information about the performed user. For this reason, a display object is selected based on the usage state of a display object that is difficult to estimate depending on the positional relationship between the user and the display object, thereby further reducing the possibility of affecting the user through display control. It becomes possible.
  • the user mode information includes information indicating whether or not the user's action is performed on the display object associated with the user, and the control unit 106 displays the action of the display object associated with the user who performed the display generation operation.
  • a display object specified based on the presence or absence is selected. For this reason, it is possible to improve the accuracy of the selection process by selecting the display object based on information that more clearly estimates whether the user is interested in the display object.
  • the user mode information has been described as an example including information indicating the presence or absence of the user's gaze on the display object associated with the user.
  • the user mode information is information indicating the presence or absence of the user's operation on the display object. May be included.
  • the control unit 106 selects a display object that has not been operated for a predetermined time among display objects associated with the user who performed the display generation operation. In this case, it is possible to organize the display objects while maintaining the convenience of the user by moving the display object that is estimated to have lost the user's interest. Note that display objects that are not operated may be excluded from processing.
  • the information processing apparatus 100-1 may select a display object on which display control is performed even when an operation other than the display generation operation is detected. Specifically, when an operation for changing the display range of the display object is performed in the display area, the control unit 106 selects a display object on which display control is performed based on information regarding the user who performed the operation. .
  • the detection unit 102 detects an operation for changing the display size of the display object or an operation for ending the display of the display object, and the determination unit 104 determines a user who has performed the detected operation. Then, the control unit 106 refers to the association information and selects a display object associated with the determined user.
  • control unit 106 may select a display object for which display control is performed based on information related to the user who performed the operation.
  • the control unit 106 when an operation for changing the display range of the display object or an operation for moving the display object is performed in the display area, the control unit 106 performs the operation.
  • a display object on which display control is performed is selected based on the information relating to the performed user. For this reason, display control can be performed for all operations that can affect the visibility of the display object displayed in the display area, thereby making it easy to suppress a reduction in visibility.
  • the display object may be automatically selected.
  • the control unit 106 can execute a display object selection process.
  • Second Embodiment Display Control Based on User Information Different from Display Generation Operation User
  • the information processing apparatus 100-1 according to the first embodiment of the present disclosure has been described above.
  • the information processing apparatus 100-2 according to the second embodiment of the present disclosure will be described.
  • the information processing apparatus 100-2 selects a display object on which display control is performed based on information relating to a user different from the user who performed the display generation operation.
  • the functional configuration of the information processing apparatus 100-2 is substantially the same as the functional configuration according to the first embodiment, but the function of the control unit 106 is partially different. Note that description of functions that are substantially the same as the functions of the first embodiment will be omitted.
  • the control unit 106 updates the association information. Specifically, the control unit 106 instructs the detection unit 102 to detect the user mode at predetermined time intervals, and updates the association information based on information indicating the detected user mode.
  • the association information may have information for each relationship between the user and the display object.
  • the association information includes, for example, not only information indicating the association with the generation user of the display object but also information indicating the association with a user having a predetermined relationship with another display object, such as an operation user or a browsing user. Including. Then, when the detected user mode indicates a relationship related to the association with the display object, for example, the operation of the display object, the control unit 106 associates the association information with the display object having the user as the operation user. Add a date.
  • control unit 106 selects a display object on which display control is performed based on association information about the user who performed the display generation operation and another user different from the user.
  • association information includes information indicating user characteristics (hereinafter also referred to as user characteristic information), and the control unit 106 selects a display object on which display control is performed based on the user characteristic information.
  • user characteristic information information indicating user characteristics
  • FIG. 7 is a diagram showing an example of a display change in the display area by the processing of the information processing apparatus 100-2 according to the present embodiment.
  • control unit 106 displays a display object in the display area.
  • the control unit 106 displays windows A1, B1, and C1 associated with the users 20A, 20B, and 20C, respectively, as shown in the left diagram of FIG.
  • the control unit 106 selects a display object that performs display control based on the user characteristic information of the user associated with the display object. For example, when the display generation operation for the window A2 by the user 20A is detected, the control unit 106 acquires the association information. And the control part 106 acquires the user characteristic information of the user matched with a display object from the acquired matching information.
  • the user characteristic information includes information indicating the physical characteristics of the user, for example, height. Therefore, the control part 106 specifies the user whose height among the specified users is higher than other users.
  • control unit 106 acquires information indicating the heights of the users 20A to 20C associated with the windows A1 to C1, respectively, and identifies the user 20C related to information whose height indicated by the acquired information is higher than that of other users Can do. Then, the control unit 106 selects the window C1 associated with the identified user 20C.
  • the user characteristic information may be acquired by the detection unit 102 or may be acquired from an external device of the information processing apparatus 100-2.
  • control unit 106 changes the priority of the display object to be selected, and moves the display object having a lower priority than other display objects. And the control part 106 displays the display object which concerns on display production
  • the user characteristic information is information indicating height as a physical feature.
  • the user characteristic information may be information indicating a user's age, sex, eyesight, or the like.
  • FIG. 8 is a flowchart conceptually showing processing of the information processing apparatus 100-2 in the present embodiment. Note that description of processing that is substantially the same as the processing of the first embodiment is omitted.
  • the information processing apparatus 100-2 waits until a display generation operation is detected (step S402).
  • step S404 it is determined whether there is a display object associated with the user. Specifically, the control unit 106 acquires association information when a display generation operation is detected by the detection unit 102. Then, the control unit 106 determines whether there is a display object associated with the user in the acquired association information.
  • the information processing apparatus 100-2 identifies the user associated with the display object (step S406). Specifically, when it is determined that the display information associated with the user exists in the association information, the control unit 106 refers to the association information and identifies the user associated with the display object.
  • a user who satisfies a predetermined characteristic condition is specified (step S408).
  • the control unit 106 acquires user characteristic information of the identified user from the acquired association information, and identifies a user whose physical characteristics indicated by the acquired user characteristic information satisfy a predetermined condition. To do.
  • a plurality of users may be specified.
  • step S410 the priority of the display object associated with the specified user is changed. Specifically, the control unit 106 selects a display object associated with the specified user, and lowers the priority of the selected display object.
  • step S412 the display of a display object having a lower priority than other display objects is changed (step S412), and the display object related to the display generation operation is displayed (step S414).
  • the information processing apparatus 100-2 performs display control based on the association information about the user who performed the display generation operation and another user different from the user. Select the display object on which is performed. For this reason, it is possible to further suppress the influence of the display control on the user by expanding the display control target and selecting a display object suitable for the display control.
  • association information includes user characteristic information
  • the control unit 106 selects a display object on which display control is performed based on the user characteristic information. For this reason, display control can be stabilized by performing display control based on information that is unlikely to change during user use.
  • the user characteristic information includes information indicating the physical characteristics of the user, and the control unit 106 selects a display object specified based on the physical characteristics of the user among display objects associated with the user. To do. For this reason,
  • control unit 106 has selected the display object to be controlled based on the user characteristic information. However, the control unit 106 is based on the positional relationship between the display area and the user. A display object may be selected. For example, the control unit 106 selects a display object based on the distance between the user and the display area.
  • control unit 106 may select a display object based on the operation state of the display object. For example, when the operating user associated with the display object is not detected continuously for a predetermined time, the control unit 106 selects the display object. On the other hand, when there are a plurality of display object operating users, the control unit 106 may increase the priority of the display object and make the display object less likely to be a display control target.
  • the control unit 106 may select the display object based on the positional relationship between the user and the display object associated with the user, as in the first modification of the first embodiment, or the first Similarly to the second modification, a display object may be selected based on user mode information.
  • the information processing apparatus 100-1 may perform display control other than change of the display position of the display object, that is, movement.
  • the control unit 106 changes the size of the display object.
  • the control unit 106 can reduce or enlarge the size of the window according to the priority of the window.
  • the control unit 106 may end the display of the display object.
  • the control unit 106 can close a window having a lower priority than other windows.
  • control unit 106 may reduce the size of a display object that is closer to the associated user than other display objects. Further, the control unit 106 may reduce the size of the display object associated with the user whose distance from the display area is closer than that of other users. In these cases, since the user is close to the display object, the degree of reduction in visibility is small even if the user is reduced, and the influence on the user is small.
  • the control unit 106 may reduce the size of the display object.
  • the user since the user may be an expert user or a dexterous user, the operability is hardly lowered even if the display object is reduced.
  • the control unit 106 reduces the size of the display object, Alternatively, the display of the display object may be terminated. In these cases, since there is a possibility that the user's interest in the display object is reduced, there is a low possibility that the user is inconvenienced even if the display object is reduced or terminated.
  • the control unit 106 may perform display control on a display object having a higher priority than other display objects.
  • the control unit 106 can increase the size of a display object having a higher priority than other display objects. In this case, it is possible to improve the visibility of a display object having a high priority.
  • control unit 106 may change the degree of change of the display object according to the user associated with the display object. For example, the control unit 106 displays based on information related to a user associated with a display object selected as a display control target, for example, information such as operation frequency, operation time, or the number or type of display objects associated with the display object.
  • the display change amount of the object for example, the movement amount, the reduction rate, or the enlargement rate can be changed. Further, the control unit 106 may change the display change amount depending on whether the user is a specific person.
  • control unit 106 changes the size of the display object to be selected. For this reason, since the display object does not need to be moved, it is possible to suppress the degree of reduction in the visibility of the display object.
  • control unit 106 ends the display of the selected display object. For this reason, when the display of the display object with a low priority is terminated, it is possible to effectively use the computational resources related to the display in the display area and reduce the processing load.
  • control unit 106 changes the degree of change according to the user associated with the display object. For this reason, the display control suitable for each user can be performed, so that the convenience of each user can be improved.
  • the information processing apparatus 100-2 according to the second embodiment of the present disclosure has been described above.
  • an information processing apparatus 100-3 according to the third embodiment of the present disclosure will be described.
  • the information processing apparatus 100-3 selects a display object on which display control is performed based on information about the display object.
  • the functional configuration of the information processing apparatus 100-3 is substantially the same as the functional configuration according to the first embodiment, but the function of the control unit 106 is partially different. Note that description of functions that are substantially the same as the functions of the first and second embodiments is omitted.
  • the control unit 106 selects a display object on which display control is performed based on application characteristic information indicating characteristics of an application related to the display object. Specifically, the control unit 106 selects a display object related to an application in which the operation characteristics of the application satisfy a predetermined condition.
  • the control unit 106 acquires information indicating the operation characteristics of the application related to the display object (hereinafter also referred to as operation characteristic information). Then, the control unit 106 selects a display object related to an application whose operation request accuracy indicated by the acquired operation characteristic information is lower than other applications. And the control part 106 reduces the priority of the display object selected, and performs display control about the display object whose priority is lower than another display object.
  • the operation characteristic information can be stored in advance in the storage unit.
  • the operation request accuracy may be a category or a numerical value
  • the control unit 106 selects a display object related to the application having the operation request accuracy when the operation request accuracy is equal to or higher than a predetermined category or threshold. May be.
  • FIG. 9 is a flowchart conceptually showing processing of the information processing apparatus 100-3 in the present embodiment. Note that description of processing that is substantially the same as the processing of the first and second embodiments is omitted.
  • the information processing apparatus 100-3 waits until a display generation operation is detected (step S502).
  • the information processing apparatus 100-3 determines whether a display object exists (step S504). Specifically, the control unit 106 determines whether at least one display object is displayed in the display area.
  • the information processing apparatus 100-3 acquires the operation characteristic information of the display object (step S506). Specifically, when it is determined that a display object is displayed, the control unit 106 acquires operation characteristic information from the storage unit for each display object.
  • the information processing apparatus 100-3 changes the priority of the display object selected based on the acquired operation characteristic information (step S508). Specifically, the control unit 106 selects a display object whose operation request accuracy of the application indicated by the acquired operation characteristic information is lower than other display objects. And the control part 106 reduces the priority of the display object selected.
  • the information processing apparatus 100-3 changes the display of the display object having a lower priority than other display objects (step S510), and displays the display object related to the display generation operation (step S512).
  • the display object on which display control is performed is selected based on the application characteristic information indicating the characteristic of the application related to the display object. For this reason, it is possible to suppress a decrease in operability by selecting a display object based on application information closely related to the operation of the display object.
  • control unit 106 selects a display object related to an application in which the operation characteristics of the application satisfy a predetermined condition. For this reason, it is possible to further suppress a decrease in operability by performing display control according to the operation characteristics, among the characteristics of the application.
  • control unit 106 selects the display object based on the operation characteristics of the application related to the display object. However, the control unit 106 displays based on the presence / absence of the operation request of the application related to the display object. An object may be selected.
  • the control unit 106 selects the display object.
  • the control unit 106 may select a display object related to an application with few operation requests, for example, a moving image playback application or the like that has fewer GUIs related to operation of buttons or the like than other applications. Then, the control unit 106 can reduce the size of the display object.
  • the control unit 106 may select a display object based only on whether the display object is related to a predetermined application such as a moving image playback application.
  • the control unit 106 can select a display object based on attribute information, meta information, or content of content related to the display object.
  • the information processing apparatus 100-3 may select a display object on which display control is performed based on information indicating a display mode of the display object.
  • the control unit 106 selects a display object on which display control is performed based on the display position of the display object.
  • the control unit 106 acquires the display position of the display object when a display generation operation is detected. Then, when the display position of the acquired display object is a predetermined position, the control unit 106 selects the display object.
  • the predetermined position may be a position close to the end of the display area, a position where the recognition degree of the operation due to the characteristics of hardware is lower than the other positions, or the like.
  • the control unit 106 may select a display object on which display control is performed based on the display state of the display object. For example, when the display generation operation is detected, the control unit 106 acquires the display position of the display object and the range to be displayed, and specifies the display range actually displayed in the display area of the display object. Then, when the displayed display range is equal to or less than a predetermined ratio, the control unit 106 displays, for example, a display object at the edge of the display area and a part of the display area. If not, the display object is selected.
  • the control unit 106 selects a display object on which display control is performed based on information indicating the display mode of the display object. For this reason, it becomes possible to suppress the influence on a user by display control by selecting a display object based on a user's degree of interest to a display object presumed from a display mode of a display object.
  • FIG. 10 is an explanatory diagram showing a hardware configuration of the information processing apparatus 100 according to the present disclosure.
  • the information processing apparatus 100 includes a CPU (Central Processing Unit) 132, a ROM (Read Only Memory) 134, a RAM (Random Access Memory) 136, a bridge 138, a bus 140, and an interface. 142, an input device 144, an output device 146, a storage device 148, a drive 150, a connection port 152, and a communication device 154.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 132 functions as an arithmetic processing unit and a control unit, and realizes operations of the detection unit 102, the determination unit 104, and the control unit 106 in the information processing apparatus 100 in cooperation with various programs.
  • the CPU 132 may be a microprocessor.
  • the ROM 134 stores programs or calculation parameters used by the CPU 132.
  • the RAM 136 temporarily stores programs used in the execution of the CPU 132 or parameters that change as appropriate during the execution.
  • the ROM 134 and the RAM 136 realize part of the storage unit in the information processing apparatus 100.
  • the CPU 132, the ROM 134, and the RAM 136 are connected to each other by an internal bus including a CPU bus.
  • the input device 144 is an input means for a user to input information, such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 132. Etc. A user of the information processing apparatus 100 can input various data to the information processing apparatus 100 and instruct a processing operation by operating the input device 144.
  • the output device 146 performs output to a device such as a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, or a lamp as an example of the projection unit 108 of the information processing device 100. Further, the output device 146 may output sound such as a speaker and headphones.
  • a device such as a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, or a lamp as an example of the projection unit 108 of the information processing device 100. Further, the output device 146 may output sound such as a speaker and headphones.
  • LCD liquid crystal display
  • OLED Organic Light Emitting Diode
  • the storage device 148 is a device for storing data.
  • the storage device 148 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 148 stores programs executed by the CPU 132 and various data.
  • the drive 150 is a reader / writer for a storage medium, and is built in or externally attached to the information processing apparatus 100.
  • the drive 150 reads information stored in a mounted removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory and outputs the information to the RAM 134.
  • the drive 150 can also write information to a removable storage medium.
  • connection port 152 is, for example, a bus for connecting to an information processing apparatus outside the information processing apparatus 100 or a peripheral device.
  • the connection port 152 may be a USB (Universal Serial Bus).
  • the communication device 154 is, for example, a communication interface configured with a communication device for connecting to a network.
  • the communication device 154 performs wired communication regardless of whether it is an infrared communication compatible device, a wireless LAN (Local Area Network) compatible communication device, or an LTE (Long Term Evolution) compatible communication device. It may be a wire communication device.
  • the display object related to the user who performed the operation is controlled by the display control.
  • the display range of the entire display area is adjusted, and it is possible to suppress a decrease in visibility in the display area.
  • the second embodiment of the present disclosure it is possible to further suppress the influence of the display control on the user by expanding the display control target and selecting a display object suitable for the display control. Become.
  • the third embodiment of the present disclosure it is possible to suppress a decrease in operability by selecting a display object based on application information that is closely related to the operation of the display object. .
  • the control unit 106 reduces the priority of the display object to be selected and performs display control for a display object whose priority is lower than other display objects. It is not limited to.
  • the control unit 106 may perform display control for the selected display object. In this case, display control of the display object is performed without going through the priority processing, so that the processing speed can be increased and the calculation resources can be reduced. In the case of processing based on priority, display control is performed for display objects with lower priority among the display objects to be selected, so that the results of selection processing of a plurality of display objects can be combined.
  • control unit 106 combines the result of the selection process based on the elapsed time since the generation of the display object and the result of the selection process based on whether or not the display object is operated or the result of the selection process based on the operation characteristics of the display object. Can change the priority.
  • the detection unit 102 may detect an operation based on another gesture operation.
  • control unit 106 selects a display object when a display generation operation or the like is detected.
  • the control unit 106 performs display control when a display generation operation or the like is detected. Whether to execute or not may be determined. For example, when the display generation operation is detected by the detection unit 102, the control unit 106 performs display control based on the display status of the display area, for example, the size of the area where the display object is not displayed, the number of display objects, or the like. It is determined whether or not display object selection processing to be performed is performed. In this case, it is possible to prevent a decrease in visibility due to frequent display control by performing the display object selection process only when appropriate.
  • the determination unit 104 may perform user determination using other methods. For example, when the user holds a tag having information that can identify the user or an item to which a QR code (registered trademark) or barcode is attached, the determination unit 104 acquires information from the tag and acquires the tag. The user is determined based on the information to be processed. In this case, the speed of the user determination process can be increased.
  • QR code registered trademark
  • barcode barcode
  • the display object can be arranged at an arbitrary position on the display area.
  • the display object may be displayed at a fixed position.
  • the display area can be divided in a predetermined range, and the display object can be arranged in any of the specified predetermined ranges.
  • a display object is already arranged, it can be replaced with the display object.
  • the display area is rectangular.
  • the display area may have other shapes such as a polygon, a circle, or an ellipse.
  • the information processing apparatus 100 is an apparatus including the projection unit 108.
  • the information processing apparatus 100 may be an information processing apparatus connected to a separate projection apparatus.
  • the information processing apparatus 100 may be a server including the detection unit 102, the determination unit 104, and the control unit 106, and may be installed in a remote place with respect to the imaging device 200 and a separate projection device.
  • a detection unit that detects an operation for displaying a display object related to an application or changing a display range of the display object in the display area, and an operation user who performs the operation when the operation is detected
  • a control unit that selects a display object on which display control is performed based on information related to the operating user
  • An information processing apparatus comprising: (2) The information regarding the operating user includes association information in which the user and a display object having a predetermined relationship with the user are associated, and the control unit performs display control based on the association information.
  • the information processing apparatus according to (1), wherein a display object to be performed is selected.
  • the association information includes information associating a user who has generated a display object with a display object, and the control unit may include an elapsed time from the generation among the display objects generated by the operating user.
  • the information processing apparatus according to (2) wherein a display object longer than the display object is selected.
  • the association information includes positional relationship information indicating a positional relationship between the display object associated with the user and the user, and the control unit displays based on the positional relationship information about the operating user.
  • the information processing apparatus according to (2) wherein a display object to be controlled is selected.
  • the positional relationship information includes information indicating a distance between the display object associated with the user and the user, and the control unit includes information indicating the distance among the display objects associated with the operation user.
  • the information processing apparatus according to (4), wherein a display object specified based on the selection is selected.
  • the association information includes user aspect information indicating a user aspect with respect to a display object associated with the user, and the control unit performs display control based on the user aspect information about the operating user.
  • the information processing apparatus according to (2), wherein a display object to be displayed is selected.
  • the user mode information includes information indicating presence / absence of a user's motion with respect to a display object associated with the user, and the control unit determines whether the motion among the display objects associated with the operating user is present.
  • the information processing apparatus according to (6), wherein a display object specified based on the selection is selected.
  • the control unit selects a display object on which display control is performed based on the association information about the operating user and another user different from the operating user. (2) to (7) The information processing apparatus according to any one of claims.
  • the association information includes user characteristic information indicating a user characteristic, and the control unit selects a display object on which display control is performed based on the user characteristic information.
  • Information processing device. The user characteristic information includes information indicating physical characteristics of the user, and the control unit selects a display object specified based on the physical characteristics of the user among display objects associated with the user.
  • the control unit further selects any one of the display objects on which display control is performed based on application characteristic information indicating characteristics of the application related to the display object.
  • the application characteristic information includes information indicating an operation characteristic of an application, and the control unit selects a display object related to the application in which the operation characteristic satisfies a predetermined condition.
  • Information processing device (13) The information processing apparatus according to any one of (1) to (12), wherein the control unit changes a display position of a display object to be selected. (14) The information processing apparatus according to any one of (1) to (12), wherein the control unit changes a size of a display object to be selected. (15) The information processing apparatus according to (13) or (14), wherein the control unit changes a degree of change according to a user associated with a display object. (16) The information processing apparatus according to any one of (1) to (12), wherein the control unit ends display of the selected display object.
  • a display object related to an application is displayed or an operation for changing a display range of the display object is detected, and an operation user who has performed the operation when the operation is detected is displayed.
  • An information processing method including determining and selecting a display object on which display control is performed based on information related to the operating user.
  • a detection function for detecting an operation for displaying a display object related to an application or changing a display range of the display object in the display area, and an operation user who has performed the operation when the operation is detected And a control function for selecting a display object on which display control is performed based on information related to the operating user.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示領域における表示の視認性の低下を抑制しながら、表示領域における表示を制御することが可能な情報処理装置、情報処理方法およびプログラムを提供する。 【解決手段】表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出する検出部と、前記操作が検出された際に、前記操作を行った操作ユーザを判定する判定部と、前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する制御部と、を備える情報処理装置。

Description

情報処理装置、情報処理方法およびプログラム
 本開示は、情報処理装置、情報処理方法およびプログラムに関する。
 近年、人の姿勢または動き(以下、ジェスチャとも称する。)を検出する技術の発展に伴い、ユーザのジェスチャに基づいて機器等を操作する技術が開発されている。特に、ユーザの姿勢によって位置を指定する操作(以下、ポインティング操作とも称する。)を認識し、認識されるポインティング操作に基づいて機器の動作を制御する技術が一般に知られている。
 例えば、特許文献1では、学習された人体の三次元モデルデータに基づいてユーザの手のジェスチャを認識する情報処理装置に係る発明が開示されている。特許文献1の発明によれば、認識されるユーザの手のジェスチャに基づいてポインティング操作を検出し、検出されるポインティング操作により指定される位置を特定することが可能である。
特開2013-205983号公報
 ここで、一般的に、ポインティング操作は、ユーザに比べて大きい、表示オブジェクトの表示可能な領域(以下、表示領域とも称する。)に対して行われることが多いため、ポインティング操作を行うユーザは複数存在し得る。そのため、表示領域におけるポインティング操作に係る表示オブジェクトも複数発生し得るので、表示領域における表示の視認性が低下する場合がある。
 そこで、本開示では、表示領域における表示の視認性の低下を抑制しながら、表示領域における表示を制御することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
 本開示によれば、表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出する検出部と、前記操作が検出された際に、前記操作を行った操作ユーザを判定する判定部と、前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する制御部と、を備える情報処理装置が提供される。
 また、本開示によれば、表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出することと、前記操作が検出された際に、前記操作を行った操作ユーザを判定することと、前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択することと、を含む情報処理方法が提供される。
 また、本開示によれば、表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出する検出機能と、前記操作が検出された際に、前記操作を行った操作ユーザを判定する判定機能と、前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する制御機能と、をコンピュータに実現させるためのプログラムが提供される。
 以上説明したように本開示によれば、表示領域における表示の視認性の低下を抑制しながら、表示領域における表示を制御することが可能な情報処理装置、情報処理方法およびプログラムが提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理装置の概要を説明するための図である。 本開示の第1の実施形態に係る情報処理装置の概略的な機能構成を示すブロック図である。 本実施形態に係る情報処理装置の処理による、表示領域における表示変化の例を示す図である。 本実施形態における情報処理装置の処理を概念的に示すフローチャートである。 本実施形態の第1の変形例に係る情報処理装置の処理による、表示領域における表示変化の例を示す図である。 本実施形態の第2の変形例に係る情報処理装置に処理による、表示領域における表示変化の例を説明するための図である。 本開示の第2の実施形態に係る情報処理装置の処理による、表示領域における表示変化の例を示す図である。 本実施形態における情報処理装置の処理を概念的に示すフローチャートである。 本開示の第3実施形態における情報処理装置の処理を概念的に示すフローチャートである。 本開示に係る情報処理装置のハードウェア構成を示した説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の一実施形態に係る情報処理装置の概要
 2.第1の実施形態(表示生成操作を行うユーザの情報に基づく表示制御)
  2-1.情報処理装置の構成
  2-2.情報処理装置の処理
  2-3.変形例
 3.第2の実施形態(表示生成操作ユーザと異なるユーザの情報に基づく表示制御)
  3-1.情報処理装置の構成
  3-2.情報処理装置の処理
  3-3.変形例
 4.第3の実施形態(表示オブジェクトの情報に基づく表示制御)
  4-1.情報処理装置の構成
  4-2.情報処理装置の処理
  4-3.変形例
 5.本開示の一実施形態に係る情報処理装置のハードウェア構成
 6.むすび
 <1.本開示の一実施形態に係る情報処理装置の概要>
 まず、図1を参照して、本開示の一実施形態に係る情報処理装置の概要について説明する。図1は、本開示の一実施形態に係る情報処理装置の概要を説明するための図である。
 本開示の一実施形態に係る情報処理装置100は、操作検出機能および表示制御機能を有する。操作検出機能は、ユーザのジェスチャを認識し、当該ジェスチャに対応する操作を検出する機能である。特に、操作検出機能によって、表示領域におけるポインティング操作が検出される。また、表示制御機能は、操作に応じて、表示装置等に表示させる内容を制御する機能である。このため、情報処理装置100は、ユーザのジェスチャから検出されるポインティング操作に応じて、表示内容を変更することが可能である。なお、情報処理装置100は、表示装置等を内蔵し得る。
 例えば、情報処理装置100は、表示内容を投影する投影機能を有し、図1に示したように、表示領域1に表示内容を投影する。また、撮像装置200は、表示領域1に向かって操作等を行うユーザを撮像可能に配置され、撮像により得られる画像を情報処理装置100に提供する。情報処理装置100は、撮像装置200から提供される画像に基づいてユーザのジェスチャ、例えばユーザの腕および手の姿勢から認識されるジェスチャに対応する操作、例えばポインティング操作を検出する。そして、情報処理装置100は、検出されるポインティング操作によって指定される位置(以下、ポインティング位置とも称する。)10に当該ポインティング位置10を示すカーソルを表示させ得る。
 ここで、一般的に、ポインティング操作は、ユーザに比べて大きい表示領域に対して行われることが多いため、ポインティング操作を行うユーザは複数存在し得る。そのため、表示領域におけるポインティング操作に係る表示オブジェクトも複数発生し得るので、個々の表示オブジェクトが個別的に表示制御されると、表示領域における視認性が低下し得る。そこで、本開示の一実施形態に係る情報処理装置100は、表示領域におけるアプリケーションに係る表示オブジェクトを表示させる等の操作を検出し、当該操作が検出された際に当該操作を行ったユーザを判定する。そして、情報処理装置100は、当該操作を行ったユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する。
 例えば、情報処理装置100は、ユーザのアプリケーションの起動操作を検出すると、当該操作を行ったユーザを判定する。次に、情報処理装置100は、判定されるユーザに係る情報に基づいて、既に表示領域に表示されている表示オブジェクト、例えばウィンドウシステムにおけるウィンドウ等のうちのいずれかを選択する。そして、情報処理装置100は、選択されるウィンドウの表示制御、例えばウィンドウの移動等を行う。また、情報処理装置100は、当該表示制御を行うと共に、当該起動操作に係るアプリケーションのウィンドウを表示領域に表示させる。
 このように、本開示の一実施形態に係る情報処理装置100は、表示領域におけるアプリケーションに係る表示オブジェクトを表示させる等の操作を検出し、当該操作が検出された際に当該操作を行ったユーザを判定する。そして、情報処理装置100は、当該操作を行ったユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、操作を起因として表示領域上の表示オブジェクトの表示範囲が変化される場合であっても、当該操作を行ったユーザに係る表示オブジェクトが表示制御されることにより、表示領域全体としての表示範囲が調整され、表示領域における視認性の低下を抑制することが可能となる。なお、図1においては情報処理装置100の一例として投影装置を示しているが、情報処理装置100は、ディスプレイまたはテレビジョン等の表示装置であってもよく、また表示装置と接続されるスマートフォン、タブレット端末、パーソナルコンピュータまたはサーバ等の装置であってもよい。また、説明の便宜上、第1~第3の実施形態に係る情報処理装置100の各々を、情報処理装置100-1、情報処理装置100-2のように、末尾に実施形態に対応する番号を付することにより区別する。
 <2.第1の実施形態(表示生成操作を行うユーザの情報に基づく表示制御)>
 以上、本開示の一実施形態に係る情報処理装置100の概要について説明した。次に、本開示の第1の実施形態に係る情報処理装置100-1について説明する。情報処理装置100-1は、表示オブジェクトを表示させる操作が行われた際に、当該操作を行ったユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する。
  <2-1.情報処理装置の構成>
 まず、図2を参照して、本開示の第1の実施形態に係る情報処理装置100-1の構成について説明する。図2は、本開示の第1の実施形態に係る情報処理装置100-1の概略的な機能構成を示すブロック図である。
 情報処理装置100-1は、図2に示したように、検出部102、判定部104、制御部106および投影部108を備える。なお、情報処理装置100-1は撮像装置200と通信等を介して接続される。
 検出部102は、ユーザ操作を検出する。具体的には、検出部102は、表示領域において、アプリケーションに係る表示オブジェクトを表示させる操作(以下、表示生成操作とも称する。)を検出する。より具体的には、検出部102は、表示領域に向かって行われるポインティング操作に係るポインティング位置に基づいて実行される操作のうちの表示生成操作を検出する。以下に、検出部102の処理についてさらに詳細に説明する。
 まず、検出部102は、撮像装置200から提供される画像等に基づいて、ユーザの姿勢によって指し示される方向(以下、ポインティング方向とも称する。)を検出する。さらに、検出部102は、当該ポインティング方向に基づいて、ポインティング位置を検出する。
 例えば、検出部102は、撮像装置200に撮像要求を行い、撮像要求への応答として撮像装置200から提供される画像および情報処理装置100-1の別途備える記憶部に記憶される人体の三次元モデル情報等に基づいて、ポインティング方向を検出する。そして、検出部102は、検出されるポインティング方向と、投影部108によって表示内容が投影される面との交点をポインティング位置として検出する。例えば、ポインティング方向およびポインティング位置の検出には、画像解析技術を用いた技術のほか、モーションセンサ等から得られる情報を用いた技術またはその他一般的なポインティング技術が用いられ得る。
 なお、ポインティング位置は、ユーザによって実際に指し示される位置であってもよく、ユーザによって指し示される位置に基づいて特定される位置であってもよい。例えば、ポインティング位置は、ユーザによって指し示される位置が複数推定される場合、その推定される各位置を含む円の中心等であり得る。また、ポインティング位置の検出は、所定の時間間隔で行われ得る。
 そして、検出部102は、検出されるポインティング位置に基づいて実行される操作のうちの表示生成操作を検出する。例えば、検出されるポインティング位置に基づいて処理オブジェクト、例えばアプリケーションの起動アイコン等が選択される。そして、検出部102は、当該アイコンの選択によってアプリケーションが起動される際に、表示オブジェクト、例えばウィンドウが生成される場合、当該アイコンの選択操作を表示生成操作として検出する。
 判定部104は、操作を行ったユーザを判定する。具体的には、判定部104は、検出部102によって表示生成操作が検出される場合、当該表示生成操作を行ったユーザを判定する。例えば、まず、判定部104は、検出部102によって表示生成操作が検出される場合、検出部102の検出処理において用いられた画像等の情報を取得する。そして、判定部104は、取得される画像等の情報と情報処理装置100-1の備える記憶部に記憶されるユーザを特定するためのユーザ情報とに基づいて当該表示生成操作を行ったユーザを特定する。例えば、判定部104は、画像情報から抽出される顔情報と予め記憶されるユーザの顔情報とのマッチング等を行う顔認識技術等を用いてユーザを特定する。なお、ユーザを特定するためのユーザ情報は、情報処理装置100-1の外部から取得されてもよい。
 制御部106は、投影部108に投影させる表示の制御を行う。具体的には、制御部106は、判定部104によって判定されるユーザに係る情報に基づいて、表示制御を行う表示オブジェクトを選択する。より具体的には、ユーザに係る情報は、ユーザと、当該ユーザと所定の関係にある表示オブジェクトとが対応付けられる情報(以下、対応付け情報とも称する。)を含み、制御部106は、当該対応付け情報に基づいて、表示制御が行われる表示オブジェクトを選択する。さらに、図3を参照して制御部106の処理について詳細に説明する。図3は、本実施形態に係る情報処理装置100-1の処理による、表示領域における表示変化の例を示す図である。
 まず、制御部106は、表示領域に表示オブジェクトを表示させる。例えば、制御部106は、図3の左図に示したような、ユーザ20Aの表示生成操作に基づいてウィンドウA1およびA2、ならびにユーザ20Bの表示生成操作に基づいてB1を表示させる。
 そして、制御部106は、表示生成操作が検出されると、対応付け情報に基づいて表示制御を行う表示オブジェクトを選択する。例えば、制御部106は、検出部102によって表示生成操作、例えばウィンドウA3を表示させる操作が検出されると、対応付け情報を取得する。ここで、対応付け情報は、ウィンドウの生成ユーザと当該ウィンドウとが対応付けられる情報を含む。そのため、制御部106は、取得される対応付け情報から、判定部104によって判定されるユーザ20Aが生成ユーザであるウィンドウA1およびA2を特定する。そして、制御部106は、特定されるウィンドウA1およびA2のうち、生成からの経過時間が他のウィンドウA2よりも長いウィンドウA1を選択する。
 次に、制御部106は、選択される表示オブジェクトの優先度を変更する。例えば、制御部106は、表示オブジェクト毎に優先度を保持し、管理し得る。そして、制御部106は、選択される表示オブジェクト、例えばウィンドウA1の優先度を低下させる。
 次に、制御部106は、優先度が他の表示オブジェクトよりも低い表示オブジェクトの表示位置を変更させる。そして、制御部106は、表示生成操作に係る表示オブジェクトを表示させる。例えば、制御部106は、優先度が低下されるウィンドウA1を表示制御対象として選択し、表示生成操作に係るウィンドウA3を表示させる場所を確保するために、図3の左図および右図に示したように、選択されるウィンドウA1を移動させる。そして、制御部106は、図3の右図に示したように、表示生成操作に係るウィンドウA3を空いた場所に表示させる。
 なお、対応付け情報は、制御部106によって生成され、更新される。例えば、制御部106は、表示生成操作が検出されると、判定部104によって判定される当該操作を行ったユーザと当該表示生成操作によって生成される表示オブジェクトとが対応付けられる情報を生成し、記憶部に記憶させる。
 ここで図2に戻ると、投影部108は、制御部106の指示に基づいて表示内容を投影する。具体的には、投影部108は、制御部106によって生成される画像または映像等を投影方向に向けて投影する。例えば、投影部108は、CRT(Cathode Ray Tube)または液晶を用いたプロジェクタ等であり得る。なお、投影部108は、液晶または有機EL(Electroluminescence)を用いたディスプレイ等の表示部であってもよい。
 また、撮像装置200は、情報処理装置100-1の要求に応じて撮像を行う。具体的には、撮像装置200は、検出部102から撮像要求を受けると、撮像要求に応じた撮像を行い、撮像により得られる画像を情報処理装置100-1に提供する。例えば、撮像装置200は、2以上の撮像部を有し、各撮像部において撮像を行う。なお、撮像装置200は複数設置されてもよく、各撮像装置200は情報処理装置100-1に接続され得る。また、撮像装置200の設置場所は、図1に示したような表示領域1の下方に限定されず、撮像装置200は、表示領域1に向かって操作を行うユーザを被写体として撮像可能な位置のいずれかに設置され得る。
  <2-2.情報処理装置の処理>
 次に、図4を参照して、本実施形態における情報処理装置100-1の処理について説明する。図4は、本実施形態における情報処理装置100-1の処理を概念的に示すフローチャートである。
 まず、情報処理装置100-1は、表示生成操作が検出されるまで待機する(ステップS302)。具体的には、検出部102は、ユーザのポインティング操作に基づいて表示生成操作の検出を行う。
 表示生成操作が検出されたと判定される場合、情報処理装置100-1は、当該表示生成操作を行ったユーザを判定する(ステップS304)。具体的には、判定部104は、検出部102によって表示生成操作が検出されたと判定される場合、検出部102から表示生成操作を行ったユーザが写されている画像の情報を取得する。そして、判定部104は、取得される画像の情報に基づいて当該表示生成操作を行ったユーザを判定する。
 次に、情報処理装置100-1は、判定されるユーザの生成した表示オブジェクトが存在するかを判定する(ステップS306)。具体的には、制御部106は、対応付け情報を記憶部等から取得し、取得される対応付け情報に、判定部104によって判定されるユーザによって生成された表示オブジェクトが含まれているかを判定する。
 判定されるユーザの生成した表示オブジェクトが存在すると判定される場合、情報処理装置100-1は、他の表示オブジェクトよりも生成からの経過時間が長い表示オブジェクトの優先度を変更させる(ステップS308)。具体的には、制御部106は、表示生成操作を行ったユーザによって生成された表示オブジェクトが対応付け情報に含まれていると判定される場合、当該対応付け情報に示される表示オブジェクトのうち、他の表示オブジェクトよりも生成からの経過時間が長い表示オブジェクトを選択する。そして、制御部106は、当該表示オブジェクトの優先度を低下させる。なお、優先度の変更は、後述する表示オブジェクトに対する操作の有無または表示オブジェクトに係るアプリケーションの操作特性等と組み合わせて判断されてもよい。
 次に、情報処理装置100-1は、優先度が他の表示オブジェクトよりも低い表示オブジェクトの表示を変更する(ステップS310)。具体的には、制御部106は、表示生成操作を行ったユーザに対応付けられる表示オブジェクトのうち、優先度が他の表示オブジェクトよりも低い表示オブジェクトを移動させる。なお、表示制御対象として選択される表示オブジェクトは複数であってもよい。
 次に、情報処理装置100-1は、表示生成操作に係る表示オブジェクトを表示させる(ステップS312)。具体的には、制御部106は、表示オブジェクトの移動によって表示可能となる場所に表示生成操作に係る表示オブジェクトを表示させる。
 このように、本開示の第1の実施形態によれば、情報処理装置100-1は、表示領域において表示オブジェクトを表示させる操作を検出し、当該操作が検出された際に、当該操作を行った操作ユーザを判定する。そして、情報処理装置100-1は、制御部106によって、当該操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、操作を起因として表示領域上の表示オブジェクトの表示範囲が変化される場合であっても、当該操作を行ったユーザに係る表示オブジェクトが表示制御されることにより、表示領域全体としての表示範囲が調整され、表示領域における視認性の低下を抑制することが可能となる。
 また、上記の操作ユーザに係る情報は、ユーザと、当該ユーザと所定の関係にある表示オブジェクトとが対応付けられる対応付け情報を含み、制御部106は、当該対応付け情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、他のユーザに係る表示オブジェクトの表示に影響を与える可能性が低下され、他のユーザに係る表示オブジェクトの視認性を維持することが可能となる。
 また、上記の対応付け情報は、表示オブジェクトを生成したユーザと当該表示オブジェクトとが対応付けられる情報を含み、制御部106は、表示生成操作を行ったユーザが生成した表示オブジェクトのうち、生成からの経過時間が他の表示オブジェクトよりも長い表示オブジェクトを選択する。このため、表示生成操作を行ったユーザが関与している可能性のある表示オブジェクトが選択されることにより、他のユーザに係る表示オブジェクトの表示に影響を与える可能性をさらに低下させることが可能となる。
 また、制御部106は、選択される表示オブジェクトの表示位置を変更させる。このため、表示オブジェクトが消去されないことにより、ユーザの利便性が低下することを抑制することが可能となる。
  <2-3.変形例>
 以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の第1~第4の変形例について説明する。
   (第1の変形例)
 本実施形態の第1の変形例として、情報処理装置100-1は、表示領域に対するユーザの位置に基づいて、表示制御が行われる表示オブジェクトを選択してもよい。具体的には、対応付け情報は、ユーザに対応付けられる表示オブジェクトと当該ユーザとの位置関係を示す情報(以下、位置関係情報とも称する。)を含み、制御部106は、表示生成操作を行ったユーザについての位置関係情報に基づいて、表示制御が行われる表示オブジェクトを選択する。さらに、図5を参照して本変形例の処理について詳細に説明する。図5は、本実施形態の第1の変形例に係る情報処理装置100-1の処理による、表示領域における表示変化の例を示す図である。なお、第1の実施形態における処理と実質的に同一である処理については説明を省略する。
 まず、制御部106は、表示領域に表示オブジェクトを表示させる。例えば、制御部106は、図5の左図に示したような、ユーザ20Aと対応付けられるウィンドウA1およびA2、ならびにユーザ20Bと対応付けられるB1を表示させる。
 そして、制御部106は、表示生成操作が検出されると、当該表示生成操作を行ったユーザの位置関係情報に基づいて、表示制御を行う表示オブジェクトを選択する。例えば、制御部106は、検出部102によってユーザ20AによるウィンドウA3についての表示生成操作が検出されると、対応付け情報を取得する。そして、制御部106は、取得される対応付け情報から、判定部104によって判定される、当該表示生成操作を行ったユーザの位置関係情報を取得する。ここで、位置関係情報は、ユーザに対応付けられる表示オブジェクトと当該ユーザとの距離を示す情報を含む。そのため、制御部106は、ユーザ20Aと対応付けられるウィンドウA1およびA2の各々とユーザ20Aとの距離を特定する。そして、制御部106は、ウィンドウA1およびA2のうち、ユーザ20Aからの距離が他のウィンドウよりも遠いウィンドウA1を選択する。なお、位置関係情報は、検出部102の画像解析等の処理によって検出されてもよく、情報処理装置100-1が別途備える距離センサ等を用いて取得されてもよい。また、位置関係情報は、情報処理装置100-1の外部装置から取得されてもよい。
 次に、制御部106は、選択される表示オブジェクトの優先度を変更し、優先度が他の表示オブジェクトよりも低い表示オブジェクトを移動させる。そして、制御部106は、表示生成操作に係る表示オブジェクトを表示させる。例えば、制御部106は、選択されるウィンドウA1の優先度を低下させ、図5の左図および右図に示したように、優先度が低下された当該ウィンドウA1を移動させる。そして、制御部106は、表示生成操作に係るウィンドウA3を空いた場所に表示させる。
 このように、本実施形態の第1の変形例によれば、対応付け情報は、ユーザに対応付けられる表示オブジェクトと当該ユーザとの位置関係を示す位置関係情報を含み、制御部106は、表示生成操作を行ったユーザについての位置関係情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、表示オブジェクトの利用状態が反映されやすい情報に基づいて表示オブジェクトが選択されることにより、表示制御によるユーザの利便性の低下を抑制することが可能となる。
 また、上記の位置関係情報は、ユーザに対応付けられる表示オブジェクトと当該ユーザとの距離を示す情報を含み、制御部106は、表示生成操作を行ったユーザに対応付けられる表示オブジェクトのうちの当該距離に基づいて特定される表示オブジェクトを選択する。このため、より正確に利用状態が推定される情報に基づいて表示オブジェクトが選択されることにより、ユーザの利便性の低下をさらに抑制することが可能となる。
 なお、上記では、位置関係情報は、ユーザに対応付けられる表示オブジェクトと当該ユーザとの距離を示す情報を含む例を説明したが、位置関係情報は、表示領域に対し、表示オブジェクトとユーザの位置とを結ぶ線分がなす角度を示す情報を含んでもよい。例えば、制御部106は、表示領域の表示面と、判定部104によって判定されるユーザに対応付けられる表示オブジェクトから当該ユーザの位置までの線分とのなす角度を示す角度情報を取得する。そして、制御部106は、取得される角度情報の示す角度が他の表示オブジェクトよりも小さい表示オブジェクトを選択する。この場合、ユーザと表示オブジェクトと間の距離によっては推定が困難な利用状態が推定されることにより、ユーザの利便性の低下が発生する可能性を低下させることが可能となる。
   (第2の変形例)
 本実施形態の第2の変形例として、情報処理装置100-1は、ユーザの態様に基づいて、表示制御が行われる表示オブジェクトを選択してもよい。具体的には、対応付け情報は、ユーザに対応付けられる表示オブジェクトに対するユーザの態様を示す情報(以下、ユーザ態様情報とも称する。)を含み、制御部106は、表示生成操作を行ったユーザについてのユーザ態様情報に基づいて、表示制御が行われる表示オブジェクトを選択してもよい。さらに、図6を参照して本変形例の処理について詳細に説明する。図6は、本実施形態の第2の変形例に係る情報処理装置100-1に処理による、表示領域における表示変化の例を説明するための図である。なお、第1の実施形態における処理と実質的に同一である処理については説明を省略する。
 まず、制御部106は、表示領域に表示オブジェクトを表示させる。例えば、制御部106は、図6の左図に示したような、ユーザ20Aに対応付けられるウィンドウA1およびA2、ならびにユーザ20Bに対応付けられるB1を表示させる。
 そして、制御部106は、表示生成操作が検出されると、当該表示生成操作を行ったユーザのユーザ態様情報に基づいて、表示制御を行う表示オブジェクトを選択する。例えば、制御部106は、検出部102によってウィンドウA3を表示させる操作が検出されると、対応付け情報を取得する。そして、制御部106は、取得される対応付け情報から、当該操作を行ったユーザ20Aのユーザ態様情報を取得する。ここで、ユーザ態様情報は、ユーザに対応付けられる表示オブジェクトに対する当該ユーザの動作の有無を示す情報を含む。そのため、制御部106は、ユーザ20Aと対応付けられるウィンドウA1およびA2についてのユーザ20Aの動作、例えばウィンドウの注視の有無を特定する。そして、制御部106は、図6の左図に示したような、注視されていないウィンドウA2を選択する。なお、表示オブジェクトに対するユーザの動作の有無を示す情報は、検出部102の画像解析等の処理によって検出されてもよく、情報処理装置100-1の外部装置から取得されてもよい。
 次に、制御部106は、選択される表示オブジェクトの優先度を変更し、優先度が他の表示オブジェクトよりも低い表示オブジェクトを移動させる。そして、制御部106は、表示生成操作に係る表示オブジェクトを表示させる。例えば、制御部106は、選択されるウィンドウA2の優先度を低下させ、図6の左図および右図に示したように、当該ウィンドウA2を移動させる。そして、制御部106は、表示生成操作に係るウィンドウA3を空いた場所に表示させる。
 このように、本実施形態の第2の変形例によれば、対応付け情報は、ユーザに対応付けられる表示オブジェクトに対するユーザの態様を示すユーザ態様情報を含み、制御部106は、表示生成操作を行ったユーザについてのユーザ態様情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、ユーザと表示オブジェクトとの位置関係によっては推定が困難な表示オブジェクトの利用状態に基づいて表示オブジェクトが選択されることにより、表示制御によってユーザに影響を与える可能性をさらに低下させることが可能となる。
 また、ユーザ態様情報は、ユーザに対応付けられる表示オブジェクトに対するユーザの動作の有無を示す情報を含み、制御部106は、表示生成操作を行ったユーザに対応付けられる表示オブジェクトのうちの当該動作の有無に基づいて特定される表示オブジェクトを選択する。このため、表示オブジェクトへのユーザの関心の有無がより明確に推定される情報に基づいて表示オブジェクトが選択されることにより、当該選択処理の正確性を向上させることが可能となる。
 なお、上記では、ユーザ態様情報は、ユーザに対応付けられる表示オブジェクトに対するユーザの注視の有無を示す情報を含む例を説明したが、ユーザ態様情報は、表示オブジェクトに対するユーザの操作の有無を示す情報を含んでもよい。例えば、制御部106は、表示生成操作が行われると、当該表示生成操作を行ったユーザに対応付けられる表示オブジェクトのうち、所定の時間、操作が行われていない表示オブジェクトを選択する。この場合、ユーザの関心が薄れたと推定される表示オブジェクトが移動されることにより、ユーザの利便性を維持しながら、表示オブジェクトを整理することが可能となる。なお、操作が行われることがない表示オブジェクトは処理対象外とされてもよい。
   (第3の変形例)
 本実施形態の第3の変形例として、情報処理装置100-1は、表示生成操作以外の操作を検出する場合にも、表示制御が行われる表示オブジェクトを選択してもよい。具体的には、制御部106は、表示領域において表示オブジェクトの表示範囲を変化させる操作が行われる場合、当該操作を行ったユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する。
 例えば、検出部102は、表示オブジェクトの表示サイズを変更する操作、または表示オブジェクトの表示を終了させる操作等を検出し、判定部104は、検出される操作を行ったユーザを判定する。そして、制御部106は、対応付け情報を参照して、判定されるユーザと対応付けられる表示オブジェクトを選択する。
 また、制御部106は、表示オブジェクトを移動させる操作が行われる場合、当該操作を行ったユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択してもよい。
 このように、本実施形態の第3の変形例によれば、制御部106は、表示領域において表示オブジェクトの表示範囲を変化させる操作、または表示オブジェクトを移動させる操作が行われる場合、当該操作を行ったユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、表示領域に表示される表示オブジェクトの視認性に影響を与え得る操作全般について表示制御が行われ得ることにより、視認性の低下を抑制し易くすることが可能となる。
 なお、上記では、ユーザによる操作が行われる場合に表示オブジェクトが選択される例を説明したが、自動的に表示オブジェクトが選択されてもよい。例えば、所定の時間間隔、または所定のイベント発生の際に、制御部106は、表示オブジェクトの選択処理を実行し得る。
 <3.第2の実施形態(表示生成操作ユーザと異なるユーザ情報に基づく表示制御)>
 以上、本開示の第1の実施形態に係る情報処理装置100-1について説明した。次に、本開示の第2の実施形態に係る情報処理装置100-2について説明する。情報処理装置100-2は、表示生成操作を行ったユーザと異なるユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する。
  <3-1.情報処理装置の構成>
 情報処理装置100-2の機能構成は第1の実施形態に係る機能構成と実質的に同一であるが、制御部106の機能が一部異なる。なお、第1の実施形態の機能と実質的に同一である機能については説明を省略する。
 制御部106は、対応付け情報を更新する。具体的には、制御部106は、所定の時間間隔で、ユーザの態様の検出を検出部102に指示し、検出されるユーザの態様を示す情報に基づいて対応付け情報を更新する。例えば、対応付け情報は、ユーザと表示オブジェクトとの関係毎に情報を有し得る。対応付け情報は、例えば、表示オブジェクトの生成ユーザとの対応付けを示す情報だけでなく、その他の表示オブジェクトと所定の関係にあるユーザ、例えば操作ユーザまたは閲覧ユーザ等との対応付けを示す情報を含む。そして、制御部106は、検出されるユーザの態様が表示オブジェクトとの対応付けに係る関係、例えば表示オブジェクトの操作等を示す場合、対応付け情報に当該ユーザを操作ユーザとする表示オブジェクトとの対応付けを追加する。
 また、制御部106は、表示生成操作を行ったユーザおよび当該ユーザと異なる他のユーザについての対応付け情報に基づいて、表示制御が行われる表示オブジェクトを選択する。具体的には、対応付け情報は、ユーザの特性を示す情報(以下、ユーザ特性情報とも称する。)を含み、制御部106は、ユーザ特性情報に基づいて、表示制御が行われる表示オブジェクトを選択する。さらに、図7を参照して本実施形態の制御部106の処理について詳細に説明する。図7は、本実施形態に係る情報処理装置100-2の処理による、表示領域における表示変化の例を示す図である。
 まず、制御部106は、表示領域に表示オブジェクトを表示させる。例えば、制御部106は、図7の左図に示したような、ユーザ20A、20Bおよび20Cとそれぞれ対応付けられるウィンドウA1、B1およびC1を表示させる。
 そして、制御部106は、表示生成操作が検出されると、表示オブジェクトに対応付けられるユーザのユーザ特性情報に基づいて表示制御を行う表示オブジェクトを選択する。例えば、制御部106は、ユーザ20AによるウィンドウA2についての表示生成操作が検出されると、対応付け情報を取得する。そして、制御部106は、取得される対応付け情報から、表示オブジェクトに対応付けられるユーザのユーザ特性情報を取得する。ここで、ユーザ特性情報は、ユーザの身体的特徴、例えば身長を示す情報を含む。そのため、制御部106は、特定されるユーザのうちの身長が他のユーザよりも高いユーザを特定する。例えば、制御部106は、ウィンドウA1~C1にそれぞれ対応付けられるユーザ20A~20Cの身長を示す情報を取得し、取得される情報の示す身長が他のユーザよりも高い情報に係るユーザ20Cを特定し得る。そして、制御部106は、特定されるユーザ20Cに対応付けられるウィンドウC1を選択する。なお、ユーザ特性情報は、検出部102によって取得されてもよく、情報処理装置100-2の外部装置から取得されてもよい。
 次に、制御部106は、選択される表示オブジェクトの優先度を変更し、優先度が他の表示オブジェクトよりも低い表示オブジェクトを移動させる。そして、制御部106は、表示生成操作に係る表示オブジェクトを表示させる。例えば、制御部106は、選択されるウィンドウC1の優先度を低下させ、図7の左図および右図に示したように、当該ウィンドウC1を移動させる。そして、制御部106は、表示生成操作に係るウィンドウA2を空いた場所に表示させる。
 なお、上記の例では、ユーザ特性情報は、身体的特徴として身長を示す情報である例を説明したが、ユーザ特性情報は、ユーザの年齢、性別または視力等を示す情報であってもよい。
  <3-2.情報処理装置の処理>
 次に、図8を参照して、本実施形態における情報処理装置100-2の処理について説明する。図8は、本実施形態における情報処理装置100-2の処理を概念的に示すフローチャートである。なお、第1の実施形態の処理と実質的に同一である処理については説明を省略する。
 まず、情報処理装置100-2は、表示生成操作を検出するまで待機する(ステップS402)。
 表示生成操作が検出される場合、ユーザに対応付けられる表示オブジェクトが存在するかを判定する(ステップS404)。具体的には、制御部106は、検出部102によって表示生成操作が検出される場合、対応付け情報を取得する。そして、制御部106は、取得される対応付け情報に、ユーザと対応付けられる表示オブジェクトが存在するかを判定する。
 ユーザに対応付けられる表示オブジェクトが存在すると判定される場合、情報処理装置100-2は、表示オブジェクトに対応付けられるユーザを特定する(ステップS406)。具体的には、制御部106は、対応付け情報に、ユーザと対応付けられる表示オブジェクトが存在すると判定される場合、当該対応付け情報を参照して、表示オブジェクトに対応付けられるユーザを特定する。
 次に、特定されるユーザのうち、所定の特性条件を満たすユーザを特定する(ステップS408)。具体的には、制御部106は、取得される対応付け情報から、特定されるユーザのユーザ特性情報を取得し、取得されるユーザ特性情報が示す身体的特徴が所定の条件を満たすユーザを特定する。なお、特定されるユーザの数は複数であってもよい。
 次に、特定されるユーザに対応付けられる表示オブジェクトの優先度を変更する(ステップS410)。具体的には、制御部106は、特定されるユーザに対応付けられる表示オブジェクトを選択し、選択される表示オブジェクトの優先度を低下させる。
 次に、優先度が他の表示オブジェクトよりも低い表示オブジェクトの表示を変更し(ステップS412)、表示生成操作に係る表示オブジェクトを表示させる(ステップS414)。
 このように、本開示の第2の実施形態によれば、情報処理装置100-2は、表示生成操作を行ったユーザおよび当該ユーザと異なる他のユーザについての対応付け情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、表示制御対象が広げられ、表示制御に適した表示オブジェクトが選択されることにより、表示制御によるユーザへの影響をさらに抑制することが可能となる。
 また、上記の対応付け情報は、ユーザ特性情報を含み、制御部106は、当該ユーザ特性情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、ユーザの利用中に変動しにくい情報に基づいて表示制御が行われることにより、表示制御を安定させることが可能となる。
 また、上記のユーザ特性情報は、ユーザの身体的特徴を示す情報を含み、制御部106は、ユーザに対応付けられる表示オブジェクトのうちのユーザの身体的特徴に基づいて特定される表示オブジェクトを選択する。このため、
 なお、上記の例では、制御部106は、ユーザ特性情報に基づいて表示制御が行われる表示オブジェクトを選択する例を説明したが、制御部106は、表示領域とユーザとの位置関係に基づいて表示オブジェクトを選択してもよい。例えば、制御部106は、ユーザと表示領域との距離に基づいて表示オブジェクトを選択する。
 また、制御部106は、表示オブジェクトの操作状態に基づいて表示オブジェクトを選択してもよい。例えば、制御部106は、表示オブジェクトに対応付けられる操作ユーザが所定の時間継続して検出されない場合、当該表示オブジェクトを選択する。また一方で、制御部106は、表示オブジェクトの操作ユーザの数が複数である場合、当該表示オブジェクトの優先度を上昇させ、当該表示オブジェクトが表示制御対象となりにくくしてもよい。
 また、制御部106は、第1の実施形態の第1の変形例と同様に、ユーザと当該ユーザに対応付けられる表示オブジェクトとの位置関係に基づいて表示オブジェクトを選択してもよく、または第2の変形例と同様に、ユーザの態様情報に基づいて表示オブジェクトを選択してもよい。
  <3-3.変形例>
 以上、本開示の第2の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
 本実施形態の変形例として、情報処理装置100-1は、表示オブジェクトの表示位置の変更、すなわち移動以外の表示制御を行ってもよい。具体的には、制御部106は、表示オブジェクトの大きさを変更させる。例えば、制御部106は、ウィンドウの優先度に応じて当該ウィンドウの大きさを縮小し、または拡大し得る。また、制御部106は、表示オブジェクトの表示を終了させてもよい。例えば、制御部106は、優先度が他のウィンドウよりも低いウィンドウを閉じ得る。
 例えば、制御部106は、対応付けられるユーザとの距離が他の表示オブジェクトよりも近い表示オブジェクトの大きさを縮小させてもよい。また、制御部106は、表示領域との距離が他のユーザよりも近いユーザに対応付けられる表示オブジェクトの大きさを縮小させてもよい。これらの場合、ユーザが表示オブジェクトに近いため、縮小されても視認性の低下の程度は小さく、ユーザに与える影響は小さい。
 また、例えば、制御部106は、表示オブジェクトに対応付けられるユーザの操作の成功率が閾値以上である場合、当該表示オブジェクトの大きさを縮小させてもよい。この場合、当該ユーザは熟練ユーザまたは器用なユーザである可能性があるため、表示オブジェクトが縮小されても操作性が低下しにくい。
 また、例えば、制御部106は、表示オブジェクトに対応付けられる生成ユーザが所定の時間検出されない場合、または表示オブジェクトに対する操作もしくは視線が所定の時間検出されない場合、当該表示オブジェクトの大きさを縮小させ、または当該表示オブジェクトの表示を終了させてもよい。これらの場合、表示オブジェクトについてのユーザの関心が低下している可能性があるため、当該表示オブジェクトが縮小され、または終了されてもユーザに不便を与える可能性が低い。
 また、例えば、制御部106は、表示オブジェクトの表示の終了操作または表示オブジェクトの縮小操作が行われる場合、優先度が他の表示オブジェクトよりも高い表示オブジェクトについて表示制御を行ってもよい。例えば、制御部106は、優先度が他の表示オブジェクトよりも高い表示オブジェクトの大きさを拡大させ得る。この場合、優先度が高い表示オブジェクトの視認性を向上させることが可能となる。
 さらに、制御部106は、表示オブジェクトに対応付けられるユーザに応じて表示オブジェクトの変更の度合を変えてもよい。例えば、制御部106は、表示制御対象として選択される表示オブジェクトに対応付けられるユーザに係る情報、例えば操作頻度、操作時間、または対応付けられる表示オブジェクトの数もしくは種類等の情報に基づいて、表示オブジェクトの表示変更量、例えば移動量または縮小率もしくは拡大率を変更させ得る。また、制御部106は、ユーザが特定の人であるかに応じて表示変更量を変更させてもよい。
 このように、本実施形態の変形例によれば、制御部106は、選択される表示オブジェクトの大きさを変更させる。このため、表示オブジェクトが移動されずに済むことにより、当該表示オブジェクトについての視認性が低下の程度を抑えることが可能となる。
 また、制御部106は、選択される表示オブジェクトの表示を終了させる。このため、優先度の低い表示オブジェクトの表示が終了されることにより、表示領域における表示に係る計算資源の有効活用および処理負荷の低減が可能となる。
 また、制御部106は、表示オブジェクトに対応付けられるユーザに応じて変更の度合を変える。このため、ユーザ毎に適した表示制御が行われ得ることにより、個々のユーザの利便性を向上させることが可能となる。
 <4.第3の実施形態(表示オブジェクトの情報に基づく表示制御)>
 以上、本開示の第2の実施形態に係る情報処理装置100-2について説明した。次に、本開示の第3の実施形態に係る情報処理装置100-3について説明する。情報処理装置100-3は、表示オブジェクトに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する。
  <4-1.情報処理装置の構成>
 情報処理装置100-3の機能構成は第1の実施形態に係る機能構成と実質的に同一であるが、制御部106の機能が一部異なる。なお、第1および第2の実施形態の機能と実質的に同一である機能については説明を省略する。
 制御部106は、表示オブジェクトに係るアプリケーションの特性を示すアプリケーション特性情報に基づいて、表示制御が行われる表示オブジェクトを選択する。具体的には、制御部106は、アプリケーションの操作特性が所定の条件を満たすアプリケーションに係る表示オブジェクトを選択する。
 例えば、制御部106は、表示生成操作が検出されると、表示オブジェクトに係るアプリケーションの操作特性を示す情報(以下、操作特性情報とも称する。)を取得する。そして、制御部106は、取得される操作特性情報の示す操作要求精度が他のアプリケーションよりも低いアプリケーションに係る表示オブジェクトを選択する。そして、制御部106は、選択される表示オブジェクトの優先度を低下させ、優先度が他の表示オブジェクトよりも低い表示オブジェクトについて表示制御を行う。例えば、操作特性情報は記憶部に予め記憶され得る。
 なお、操作要求精度は区分または数値であってもよく、制御部106は、操作要求精度が所定の区分または閾値以上である場合等に、当該操作要求精度であるアプリケーションに係る表示オブジェクトを選択してもよい。
  <4-2.情報処理装置の処理>
 次に、図9を参照して、本実施形態における情報処理装置100-3の処理について説明する。図9は、本実施形態における情報処理装置100-3の処理を概念的に示すフローチャートである。なお、第1および第2の実施形態の処理と実質的に同一である処理については説明を省略する。
 まず、情報処理装置100-3は、表示生成操作を検出するまで待機する(ステップS502)。
 表示生成操作が検出される場合、情報処理装置100-3は、表示オブジェクトが存在するかを判定する(ステップS504)。具体的には、制御部106は、表示領域に少なくとも1つ以上の表示オブジェクトが表示されているかを判定する。
 表示オブジェクトが存在すると判定される場合、情報処理装置100-3は、表示オブジェクトの操作特性情報を取得する(ステップS506)。具体的には、制御部106は、表示オブジェクトが表示されていると判定される場合、当該表示オブジェクトの各々について、記憶部から操作特性情報を取得する。
 次に、情報処理装置100-3は、取得される操作特性情報に基づいて選択される表示オブジェクトの優先度を変更する(ステップS508)。具体的には、制御部106は、取得される操作特性情報の示すアプリケーションの操作要求精度が他の表示オブジェクトよりも低い表示オブジェクトを選択する。そして、制御部106は、選択される表示オブジェクトの優先度を低下させる。
 次に、情報処理装置100-3は、優先度が他の表示オブジェクトよりも低い表示オブジェクトの表示を変更し(ステップS510)、表示生成操作に係る表示オブジェクトを表示させる(ステップS512)。
 このように、本開示の第3の実施形態によれば、表示オブジェクトに係るアプリケーションの特性を示すアプリケーション特性情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、表示オブジェクトの操作に密接に関連するアプリケーションの情報に基づいて表示オブジェクトが選択されることにより、操作性の低下を抑制することが可能となる。
 また、制御部106は、アプリケーションの操作特性が所定の条件を満たすアプリケーションに係る表示オブジェクトを選択する。このため、アプリケーションの特性のうちの特に操作特性に応じて表示制御が行われることにより、操作性の低下をさらに抑制することが可能となる。
 なお、上記では、制御部106は、表示オブジェクトに係るアプリケーションの操作特性に基づいて表示オブジェクトを選択する例を説明したが、制御部106は、表示オブジェクトに係るアプリケーションの操作要求有無に基づいて表示オブジェクトを選択してもよい。
 例えば、制御部106は、表示オブジェクトに係るアプリケーションが操作を要求しないアプリケーションである場合、当該表示オブジェクトを選択する。また、制御部106は、操作要求が少ないアプリケーション、例えばボタン等の操作に係るGUIが他のアプリケーションと比較して少ない動画再生アプリケーション等に係る表示オブジェクトを選択してもよい。そして、制御部106は、表示オブジェクトの大きさを縮小し得る。制御部106は、動画再生アプリケーション等の所定のアプリケーションに係る表示オブジェクトであるかのみに基づいて、表示オブジェクトを選択してもよい。
 これらの場合、操作が行われにくいアプリケーションに係る表示オブジェクトが選択されることにより、操作性の低下を抑制しながら、表示領域における表示の視認性を向上させることが可能となる。
 また、上記では、表示オブジェクトに係るアプリケーションの特性情報が利用される例を説明したが、表示オブジェクトに係るコンテンツの特性等が利用されてもよい。例えば、制御部106は、表示オブジェクトに係るコンテンツの属性情報、メタ情報または内容等に基づいて、表示オブジェクトを選択し得る。
  <4-3.変形例>
 以上、本開示の第3の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
 本実施形態の変形として、情報処理装置100-3は、表示オブジェクトの表示態様を示す情報に基づいて、表示制御が行われる表示オブジェクトを選択してもよい。具体的には、制御部106は、表示オブジェクトの表示位置に基づいて、表示制御が行われる表示オブジェクトを選択する。
   (表示オブジェクトの表示位置に基づく処理)
 例えば、制御部106は、表示生成操作が検出された際に、表示オブジェクトの表示位置を取得する。そして、制御部106は、取得される表示オブジェクトの表示位置が所定の位置である場合、当該表示オブジェクトを選択する。例えば、所定の位置は、表示領域の端に近接する位置、またはハードウェアの特性による操作の認識度が他の位置よりも低い位置等であり得る。
   (表示オブジェクトの表示状態に基づく処理)
 また、制御部106は、表示オブジェクトの表示状態に基づいて、表示制御が行われる表示オブジェクトを選択してもよい。例えば、制御部106は、表示生成操作が検出された際に、表示オブジェクトの表示位置および表示されるべき範囲を取得し、表示オブジェクトの表示領域に実際に表示されている表示範囲を特定する。そして、制御部106は、表示されている表示範囲が表示されるべき範囲に対して所定の割合以下である場合、例えば表示オブジェクトが表示領域の端に表示され、一部が表示領域に収まっていない状態である場合、当該表示オブジェクトを選択する。
 このように、本実施形態の変形例によれば、制御部106は、表示オブジェクトの表示態様を示す情報に基づいて、表示制御が行われる表示オブジェクトを選択する。このため、表示オブジェクトの表示態様から推定される、表示オブジェクトに対するユーザの関心の程度に基づいて表示オブジェクトが選択されることにより、表示制御によるユーザへの影響を抑制することが可能となる。
 <5.本開示の一実施形態に係る情報処理装置のハードウェア構成>
 以上、本開示の実施形態を説明した。上述した情報処理装置100の処理は、ソフトウェアと、以下に説明する情報処理装置100のハードウェアとの協働により実現される。
 図10は、本開示に係る情報処理装置100のハードウェア構成を示した説明図である。図10に示したように、情報処理装置100は、CPU(Central Processing Unit)132と、ROM(Read Only Memory)134と、RAM(Random Access Memory)136と、ブリッジ138と、バス140と、インターフェース142と、入力装置144と、出力装置146と、ストレージ装置148と、ドライブ150と、接続ポート152と、通信装置154とを備える。
 CPU132は、演算処理部および制御部として機能し、各種プログラムと協働して情報処理装置100内の検出部102、判定部104および制御部106の動作を実現する。また、CPU132は、マイクロプロセッサであってもよい。ROM134は、CPU132が使用するプログラムまたは演算パラメータ等を記憶する。RAM136は、CPU132の実行にいて使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。ROM134およびRAM136により、情報処理装置100内の記憶部の一部を実現する。CPU132、ROM134およびRAM136は、CPUバスなどから構成される内部バスにより相互に接続されている。
 入力装置144は、マウス、キーボード、タッチパネル、ボタン、マイクロホン、スイッチおよびレバーなどユーザが情報を入力するための入力手段、ならびにユーザによる入力に基づいて入力信号を生成し、CPU132に出力する入力制御回路などから構成されている。情報処理装置100のユーザは、入力装置144を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置146は、例えば、情報処理装置100の投影部108の一例として、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの装置への出力を行う。さらに、出力装置146は、スピーカおよびヘッドフォンなどの音声出力を行ってもよい。
 ストレージ装置148は、データ格納用の装置である。ストレージ装置148は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置148は、CPU132が実行するプログラムや各種データを格納する。
 ドライブ150は、記憶媒体用リーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ150は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記憶されている情報を読み出して、RAM134に出力する。また、ドライブ150は、リムーバブル記憶媒体に情報を書込むこともできる。
 接続ポート152は、例えば、情報処理装置100の外部の情報処理装置または周辺機器と接続するためのバスである。また、接続ポート152は、USB(Universal Serial Bus)であってもよい。
 通信装置154は、例えば、ネットワークに接続するための通信デバイスで構成された通信インターフェースである。また、通信装置154は、赤外線通信対応装置であっても、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
 <6.むすび>
 以上、本開示の第1の実施形態によれば、操作を起因として表示領域上の表示オブジェクトの表示範囲が変化される場合であっても、当該操作を行ったユーザに係る表示オブジェクトが表示制御されることにより、表示領域全体としての表示範囲が調整され、表示領域における視認性の低下を抑制することが可能となる。また、本開示の第2の実施形態によれば、表示制御対象が広げられ、表示制御に適した表示オブジェクトが選択されることにより、表示制御によるユーザへの影響をさらに抑制することが可能となる。また、本開示の第3の実施形態によれば、表示オブジェクトの操作に密接に関連するアプリケーションの情報に基づいて表示オブジェクトが選択されることにより、操作性の低下を抑制することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、制御部106は、選択される表示オブジェクトの優先度を低下させ、優先度が他の表示オブジェクトよりも低い表示オブジェクトについて表示制御を行うとしたが、本開示はかかる例に限定されない。例えば、制御部106は、選択される表示オブジェクトについて表示制御を行ってもよい。この場合、優先度の処理を介することなく表示オブジェクトの表示制御が行われることにより、処理の高速化および計算資源の低減が可能となる。なお、優先度による処理の場合、選択される表示オブジェクトのうちのさらに優先度の低い表示オブジェクトについて表示制御が行われるため、複数の表示オブジェクトの選択処理の結果を組み合わせることが可能である。例えば、制御部106は、表示オブジェクトの生成からの経過時間に基づく選択処理の結果と、表示オブジェクトの操作の有無に基づく選択処理の結果または表示オブジェクトの操作特性に基づく選択処理の結果とを組み合わせて優先度を変更し得る。
 また、上記実施形態では、検出部102は、ポインティング操作に基づいて操作を検出する例を説明したが、検出部102は、他のジェスチャ操作に基づいて操作を検出してもよい。
 また、上記実施形態では、制御部106は、表示生成操作等が検出されると、表示オブジェクトを選択する例を説明したが、制御部106は、表示生成操作等が検出されると、表示制御の実行有無を判定してもよい。例えば、制御部106は、検出部102によって表示生成操作が検出されると、表示領域の表示状況、例えば表示オブジェクトが未表示である領域の広さ、または表示オブジェクト数等に基づいて表示制御が行われる表示オブジェクトの選択処理の実行有無を判定する。この場合、表示オブジェクトの選択処理が適当な場合にのみ行われることにより、頻繁な表示制御による視認性の低下を防止することが可能となる。
 また、上記実施形態では、判定部104は、画像情報に基づいてユーザの判定を行う例を説明したが、判定部104は、他の方法を用いてユーザの判定を行ってもよい。例えば、ユーザを識別可能な情報を有するタグまたはQRコード(登録商標)もしくはバーコード等を付される物をユーザが保持している場合、判定部104は、当該タグから情報を取得し、取得される情報に基づいてユーザの判定を行う。この場合、ユーザの判定処理が高速化され得る。
 また、上記実施形態では、表示オブジェクトは表示領域上に任意の位置に配置され得る例を説明したが、表示オブジェクトは固定の位置に表示されてもよい。例えば、表示領域が所定の範囲で分割され、表示オブジェクトは指定される所定の範囲のいずれかに配置され得る。なお、既に表示オブジェクトが配置されている場合、当該表示オブジェクトと入れ替えられ得る。
 また、上記実施形態では、表示領域が矩形である例を説明したが、表示領域はその他の多角形、円形または楕円形等の様々な形状であってもよい。
 また、上記実施形態では、情報処理装置100は、投影部108を備える装置である例を説明したが、情報処理装置100は、別体の投影装置と接続される情報処理装置であってもよい。例えば、情報処理装置100は、検出部102、判定部104および制御部106を備えるサーバであってもよく、撮像装置200および別体の投影装置に対して遠隔地に設置されてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出する検出部と、前記操作が検出された際に、前記操作を行った操作ユーザを判定する判定部と、前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する制御部と、
 を備える情報処理装置。
(2)前記操作ユーザに係る情報は、ユーザと、ユーザと所定の関係にある表示オブジェクトとが対応付けられる対応付け情報を含み、前記制御部は、前記対応付け情報に基づいて、表示制御が行われる表示オブジェクトを選択する、前記(1)に記載の情報処理装置。
(3)前記対応付け情報は、表示オブジェクトを生成したユーザと表示オブジェクトとが対応付けられる情報を含み、前記制御部は、前記操作ユーザが生成した表示オブジェクトのうち、生成からの経過時間が他の表示オブジェクトよりも長い表示オブジェクトを選択する、前記(2)に記載の情報処理装置。
(4)前記対応付け情報は、ユーザに対応付けられる表示オブジェクトと前記ユーザとの位置関係を示す位置関係情報を含み、前記制御部は、前記操作ユーザについての前記位置関係情報に基づいて、表示制御が行われる表示オブジェクトを選択する、前記(2)に記載の情報処理装置。
(5)前記位置関係情報は、ユーザに対応付けられる表示オブジェクトとユーザとの距離を示す情報を含み、前記制御部は、前記操作ユーザに対応付けられる表示オブジェクトのうちの前記距離を示す情報に基づいて特定される表示オブジェクトを選択する、前記(4)に記載の情報処理装置。
(6)前記対応付け情報は、ユーザに対応付けられる表示オブジェクトに対するユーザの態様を示すユーザ態様情報を含み、前記制御部は、前記操作ユーザについての前記ユーザ態様情報に基づいて、表示制御が行われる表示オブジェクトを選択する、前記(2)に記載の情報処理装置。
(7)前記ユーザ態様情報は、ユーザに対応付けられる表示オブジェクトに対するユーザの動作の有無を示す情報を含み、前記制御部は、前記操作ユーザに対応付けられる表示オブジェクトのうちの前記動作の有無に基づいて特定される表示オブジェクトを選択する、前記(6)に記載の情報処理装置。
(8)前記制御部は、前記操作ユーザおよび前記操作ユーザと異なる他のユーザについての前記対応付け情報に基づいて、表示制御が行われる表示オブジェクトを選択する、前記(2)~(7)のいずれか1項に記載の情報処理装置。
(9)前記対応付け情報は、ユーザの特性を示すユーザ特性情報を含み、前記制御部は、前記ユーザ特性情報に基づいて、表示制御が行われる表示オブジェクトを選択する、前記(8)に記載の情報処理装置。
(10)前記ユーザ特性情報は、ユーザの身体的特徴を示す情報を含み、前記制御部は、ユーザに対応付けられる表示オブジェクトのうちのユーザの身体的特徴に基づいて特定される表示オブジェクトを選択する、前記(9)に記載の情報処理装置。
(11)前記制御部は、さらに、表示オブジェクトに係るアプリケーションの特性を示すアプリケーション特性情報に基づいて、表示制御が行われる表示オブジェクトを選択する、前記(1)~(10)のいずれか1項に記載の情報処理装置。
(12)前記アプリケーション特性情報は、アプリケーションの操作特性を示す情報を含み、前記制御部は、前記操作特性が所定の条件を満たす前記アプリケーションに係る表示オブジェクトを選択する、前記(11)に記載の情報処理装置。
(13)前記制御部は、選択される表示オブジェクトの表示位置を変更させる、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)前記制御部は、選択される表示オブジェクトの大きさを変更させる、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(15)前記制御部は、表示オブジェクトに対応付けられるユーザに応じて変更の度合を変える、前記(13)または(14)に記載の情報処理装置。
(16)前記制御部は、選択される表示オブジェクトの表示を終了させる、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(17)表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出することと、前記操作が検出された際に、前記操作を行った操作ユーザを判定することと、前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択することと、を含む情報処理方法。
(18)表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出する検出機能と、前記操作が検出された際に、前記操作を行った操作ユーザを判定する判定機能と、前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する制御機能と、をコンピュータに実現させるためのプログラム。
 100  情報処理装置
 102  検出部
 104  判定部
 106  制御部
 108  投影部
 200  撮像装置

Claims (18)

  1.  表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出する検出部と、
     前記操作が検出された際に、前記操作を行った操作ユーザを判定する判定部と、
     前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する制御部と、
     を備える情報処理装置。
  2.  前記操作ユーザに係る情報は、ユーザと、ユーザと所定の関係にある表示オブジェクトとが対応付けられる対応付け情報を含み、
     前記制御部は、前記対応付け情報に基づいて、表示制御が行われる表示オブジェクトを選択する、請求項1に記載の情報処理装置。
  3.  前記対応付け情報は、表示オブジェクトを生成したユーザと表示オブジェクトとが対応付けられる情報を含み、
     前記制御部は、前記操作ユーザが生成した表示オブジェクトのうち、生成からの経過時間が他の表示オブジェクトよりも長い表示オブジェクトを選択する、請求項2に記載の情報処理装置。
  4.  前記対応付け情報は、ユーザに対応付けられる表示オブジェクトと前記ユーザとの位置関係を示す位置関係情報を含み、
     前記制御部は、前記操作ユーザについての前記位置関係情報に基づいて、表示制御が行われる表示オブジェクトを選択する、請求項2に記載の情報処理装置。
  5.  前記位置関係情報は、ユーザに対応付けられる表示オブジェクトとユーザとの距離を示す情報を含み、
     前記制御部は、前記操作ユーザに対応付けられる表示オブジェクトのうちの前記距離を示す情報に基づいて特定される表示オブジェクトを選択する、請求項4に記載の情報処理装置。
  6.  前記対応付け情報は、ユーザに対応付けられる表示オブジェクトに対するユーザの態様を示すユーザ態様情報を含み、
     前記制御部は、前記操作ユーザについての前記ユーザ態様情報に基づいて、表示制御が行われる表示オブジェクトを選択する、請求項2に記載の情報処理装置。
  7.  前記ユーザ態様情報は、ユーザに対応付けられる表示オブジェクトに対するユーザの動作の有無を示す情報を含み、
     前記制御部は、前記操作ユーザに対応付けられる表示オブジェクトのうちの前記動作の有無に基づいて特定される表示オブジェクトを選択する、請求項6に記載の情報処理装置。
  8.  前記制御部は、前記操作ユーザおよび前記操作ユーザと異なる他のユーザについての前記対応付け情報に基づいて、表示制御が行われる表示オブジェクトを選択する、請求項2に記載の情報処理装置。
  9.  前記対応付け情報は、ユーザの特性を示すユーザ特性情報を含み、
     前記制御部は、前記ユーザ特性情報に基づいて、表示制御が行われる表示オブジェクトを選択する、請求項8に記載の情報処理装置。
  10.  前記ユーザ特性情報は、ユーザの身体的特徴を示す情報を含み、
     前記制御部は、ユーザに対応付けられる表示オブジェクトのうちのユーザの身体的特徴に基づいて特定される表示オブジェクトを選択する、請求項9に記載の情報処理装置。
  11.  前記制御部は、さらに、表示オブジェクトに係るアプリケーションの特性を示すアプリケーション特性情報に基づいて、表示制御が行われる表示オブジェクトを選択する、請求項1に記載の情報処理装置。
  12.  前記アプリケーション特性情報は、アプリケーションの操作特性を示す情報を含み、
     前記制御部は、前記操作特性が所定の条件を満たす前記アプリケーションに係る表示オブジェクトを選択する、請求項11に記載の情報処理装置。
  13.  前記制御部は、選択される表示オブジェクトの表示位置を変更させる、請求項1に記載の情報処理装置。
  14.  前記制御部は、選択される表示オブジェクトの大きさを変更させる、請求項1に記載の情報処理装置。
  15.  前記制御部は、表示オブジェクトに対応付けられるユーザに応じて変更の度合を変える、請求項13に記載の情報処理装置。
  16.  前記制御部は、選択される表示オブジェクトの表示を終了させる、請求項1に記載の情報処理装置。
  17.  表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出することと、
     前記操作が検出された際に、前記操作を行った操作ユーザを判定することと、
     前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択することと、
     を含む情報処理方法。
  18.  表示領域において、アプリケーションに係る表示オブジェクトを表示させ、または前記表示オブジェクトの表示範囲を変化させる操作を検出する検出機能と、
     前記操作が検出された際に、前記操作を行った操作ユーザを判定する判定機能と、
     前記操作ユーザに係る情報に基づいて、表示制御が行われる表示オブジェクトを選択する制御機能と、
     をコンピュータに実現させるためのプログラム。
PCT/JP2015/073909 2014-09-02 2015-08-25 情報処理装置、情報処理方法およびプログラム WO2016035621A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/325,154 US10466799B2 (en) 2014-09-02 2015-08-25 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-178593 2014-09-02
JP2014178593A JP2016053769A (ja) 2014-09-02 2014-09-02 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2016035621A1 true WO2016035621A1 (ja) 2016-03-10

Family

ID=55439687

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/073909 WO2016035621A1 (ja) 2014-09-02 2015-08-25 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US10466799B2 (ja)
JP (1) JP2016053769A (ja)
WO (1) WO2016035621A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019077897A1 (ja) 2017-10-17 2019-04-25 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040544A (ja) * 2006-08-01 2008-02-21 Canon Inc 座標入力装置付き表示装置、表示方法、及びプログラム
JP2009087026A (ja) * 2007-09-28 2009-04-23 Panasonic Corp 映像表示装置
JP2010026327A (ja) * 2008-07-22 2010-02-04 Canon Inc 表示装置の制御装置、制御方法、及びコンピュータプログラム
JP2013130915A (ja) * 2011-12-20 2013-07-04 Seiko Epson Corp 表示装置、プロジェクター、画像表示方法及び表示システム
JP2014178933A (ja) * 2013-03-15 2014-09-25 Konica Minolta Inc オブジェクト表示装置及び操作制御方法並びに操作制御プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009035705A1 (en) * 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
US8451216B2 (en) * 2008-09-29 2013-05-28 Panasonic Corporation User interface device, user interface method, and recording medium
US8473862B1 (en) * 2009-05-21 2013-06-25 Perceptive Pixel Inc. Organizational tools on a multi-touch display device
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP2015127897A (ja) * 2013-12-27 2015-07-09 ソニー株式会社 表示制御装置、表示制御システム、表示制御方法、およびプログラム
KR102194923B1 (ko) * 2014-07-22 2020-12-24 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040544A (ja) * 2006-08-01 2008-02-21 Canon Inc 座標入力装置付き表示装置、表示方法、及びプログラム
JP2009087026A (ja) * 2007-09-28 2009-04-23 Panasonic Corp 映像表示装置
JP2010026327A (ja) * 2008-07-22 2010-02-04 Canon Inc 表示装置の制御装置、制御方法、及びコンピュータプログラム
JP2013130915A (ja) * 2011-12-20 2013-07-04 Seiko Epson Corp 表示装置、プロジェクター、画像表示方法及び表示システム
JP2014178933A (ja) * 2013-03-15 2014-09-25 Konica Minolta Inc オブジェクト表示装置及び操作制御方法並びに操作制御プログラム

Also Published As

Publication number Publication date
US10466799B2 (en) 2019-11-05
JP2016053769A (ja) 2016-04-14
US20170185158A1 (en) 2017-06-29

Similar Documents

Publication Publication Date Title
US11314804B2 (en) Information search method and device and computer readable recording medium thereof
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
US11937021B2 (en) Camera and visitor user interfaces
US9798443B1 (en) Approaches for seamlessly launching applications
KR102576654B1 (ko) 전자 장치 및 그의 제어 방법
CN106605187B (zh) 信息处理装置、信息处理方法以及程序
US9268407B1 (en) Interface elements for managing gesture control
US20150022468A1 (en) Method for processing input and electronic device thereof
US20110199299A1 (en) Information processing apparatus, information processing method, and program
US20120026105A1 (en) Electronic device and method thereof for transmitting data
JP2018516422A (ja) スマートホームのためのジェスチャ制御システム及び方法
US11055923B2 (en) System and method for head mounted device input
JP5887807B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
KR20160019043A (ko) 연속성
US20140362002A1 (en) Display control device, display control method, and computer program product
JP2015508211A (ja) カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
KR20160050682A (ko) 전자장치의 화면 표시 제어 방법 및 장치
CN113396378A (zh) 针对用于二维和三维环境的多用途输入装置的系统和方法
JPWO2013121807A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
KR102373170B1 (ko) 하나 이상의 아이템들을 동시에 표시하는 방법 및 이를 위한 전자 장치
JP2015114970A (ja) 情報処理装置および情報処理方法
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
KR20160035865A (ko) 오브젝트를 식별하는 전자 장치 및 방법
JP6245117B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2016035621A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15838582

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15325154

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15838582

Country of ref document: EP

Kind code of ref document: A1