WO2019220729A1 - 情報処理装置、情報処理方法、および記録媒体 - Google Patents

情報処理装置、情報処理方法、および記録媒体 Download PDF

Info

Publication number
WO2019220729A1
WO2019220729A1 PCT/JP2019/006586 JP2019006586W WO2019220729A1 WO 2019220729 A1 WO2019220729 A1 WO 2019220729A1 JP 2019006586 W JP2019006586 W JP 2019006586W WO 2019220729 A1 WO2019220729 A1 WO 2019220729A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
display
information processing
processing apparatus
projector
Prior art date
Application number
PCT/JP2019/006586
Other languages
English (en)
French (fr)
Inventor
脩 繁田
拓也 池田
文彦 飯田
龍一 鈴木
健太郎 井田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/055,352 priority Critical patent/US20210110790A1/en
Priority to CN201980031230.5A priority patent/CN112106016A/zh
Publication of WO2019220729A1 publication Critical patent/WO2019220729A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a recording medium.
  • a technology has also been proposed in which a mirror having a pan / tilt drive mechanism is arranged on the front of the projector and the image is projected to an arbitrary place by changing the reflection direction of the mirror.
  • Patent Document 1 describes a system that switches video output from one projector to another projector in a portion where the projection areas of a fixed projector and a drive projector overlap.
  • the driven projector when used by a plurality of people, even if there are users in use, the display location and display contents may be switched by the operation of another user performed later.
  • the present disclosure proposes an information processing apparatus, an information processing method, and a recording medium that can perform more appropriate display control in response to a display instruction from a user in a display system used by a plurality of people.
  • the display instruction from the user is handled according to the position of the user and a current display state that has already been performed for another user.
  • An information processing apparatus including a control unit that determines display control to be performed is proposed.
  • the processor detects a display instruction from a user
  • the display from the user is determined according to the position of the user and a current display situation that has already been performed for another user.
  • An information processing method including determining display control corresponding to an instruction is proposed.
  • the display from the user is determined according to the position of the user and a current display state that has already been performed for another user.
  • a recording medium in which a program for causing a function to function as a control unit that determines display control corresponding to an instruction is recorded is proposed.
  • FIG. 3 is a block diagram illustrating a functional configuration example of each device of an information processing system according to an embodiment of the present disclosure.
  • FIG. It is a flowchart which shows an example of the flow of a calculation process of the projection position by a 1st Example. It is a figure explaining the case where the viewing area is calculated and it is judged whether an image can be projected on the position which can be visually recognized by both users by 1st Example.
  • FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present disclosure.
  • the information processing system 1 according to the present embodiment is installed in a space such as a conference room or an individual room, and projects a video onto a wall, table, floor, ceiling, furniture, and the like, And an information processing apparatus 100 that controls driving of the driving projector 300 and video projection.
  • the driving projector 300 is equipped with a pan / tilt driving mechanism and can project an image to any place in the space. Further, the drive projector 300 is not limited to a drive mechanism that changes its orientation, such as a pan / tilt drive mechanism, and may have a mechanism that allows the drive projector 300 itself to move in the horizontal and vertical directions.
  • the projection position by the driving projector 300 is determined by, for example, an input device such as a voice (voice recognition such as “display here” and a user's face orientation), a gesture (pointing), or a pointing device. Can be specified.
  • the information processing apparatus 100 can also automatically determine the projection position by recognizing the position and orientation of the user.
  • the driving projector 300 includes a projector 310 that projects an image, and a sensor 320 that senses a user's position, gesture, speech sound, and the like.
  • the information processing system proposes a mechanism for performing more appropriate display control in response to a display instruction from a user in a display system used by a plurality of persons.
  • the display instruction is performed using an input device such as a speech voice, a gesture, or a controller, and includes, for example, information on a display position.
  • Information on the display position may be displayed at a position that can be visually recognized by the user in accordance with the user position on the system side, in addition to the explicit display position designation by the user (for example, designation by pointing, line of sight, or pointing device). Since it is possible, the information on the user position can also be included in the information on the display position.
  • the information processing system displays, for example, the image 20b in a divided manner. Also good.
  • FIG. 3 is a block diagram illustrating a functional configuration example of each device of the information processing system according to the embodiment of the present disclosure.
  • the information processing system according to the present embodiment includes an information processing apparatus 100 and a driving projector 300.
  • the information processing apparatus 100 includes an I / F (interface) unit 110, a three-dimensional space recognition unit 121, a projection position calculation unit 122, a control unit 120 that functions as a projector control unit 123, a spatial information storage unit 130, content Storage unit 140.
  • I / F interface
  • the information processing apparatus 100 includes an I / F (interface) unit 110, a three-dimensional space recognition unit 121, a projection position calculation unit 122, a control unit 120 that functions as a projector control unit 123, a spatial information storage unit 130, content Storage unit 140.
  • the I / F unit 110 is a connection device for connecting the information processing apparatus 100 and other devices.
  • the I / F unit 110 is realized by a USB (Universal Serial Bus) connector, for example, and inputs / outputs information to / from each component of the driving projector 300.
  • the I / F unit 110 may be a wireless / wired LAN (Local Area Network), DLNA (registered trademark) (Digital Living Network Alliance), Wi-Fi (registered trademark), Bluetooth (registered trademark), or other dedicated line.
  • the drive projector 300 is connected by, for example. Further, the I / F unit 110 may be connected to another device via the Internet or a home network.
  • the I / F unit 110 receives sensing data from various sensors included in the sensor 320 of the driving projector 300 from the driving projector 300. Further, the I / F unit 110 transmits a drive control signal and an output signal such as video and audio to the drive projector 300 according to the control of the projector control unit 123.
  • Control unit 120 The control unit 120 functions as an arithmetic processing unit and a control unit, and controls overall operations in the information processing apparatus 100 according to various programs.
  • the control unit 120 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example.
  • the control unit 120 may include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • control unit 120 functions as a three-dimensional space recognition unit 121, a projection position calculation unit 122, and a projector control unit 123, as shown in FIG.
  • the three-dimensional space recognition unit 121 detects sensing data (images captured by a camera or an overhead camera (visible light image, infrared image), depth information by a depth sensor, distance information by a distance measuring sensor) detected by various sensors provided in the sensor 320.
  • 3D shape of a projection environment space for example, a room in which the driving projector 300 is installed
  • a thermosensor for example, a thermosensor
  • audio information by a microphone etc.
  • 3D of an actual object existing in the projection environment space A shape, a three-dimensional position, a projectable area (a planar area having a predetermined area, etc.), a user's three-dimensional position, posture, gesture, speech voice, and the like are recognized.
  • the three-dimensional space recognition unit 121 can recognize a three-dimensional shape of the projection environment space and generate a projection environment space map.
  • the three-dimensional space recognition unit 121 may perform three-dimensional shape measurement by stereo matching using a distance measuring sensor or a plurality of cameras.
  • the three-dimensional space recognition unit 121 can also recognize the illuminance of the projection environment space, such as outside light or indoor lighting.
  • the various types of spatial information recognized by the three-dimensional space recognition unit 121 are stored in the spatial information storage unit 130.
  • Projection position calculation unit 122 The projection position calculation unit 122 appropriately calculates the projection position based on the recognition result by the three-dimensional space recognition unit 121 and the spatial information stored in the spatial information storage unit 130 and outputs the projection position to the projector control unit 123.
  • the projection position calculation unit 122 calculates the projection position according to a projection instruction (display instruction) by the user. It is assumed that the projection instruction by the user is given by using voice, a gesture, an input device, or the like. The projection position calculation unit 122 calculates the projection position according to the position of the user or the like when a projection instruction is given by the user.
  • the projection position calculation unit 122 calculates the projection position according to the voice recognition result of the voice data collected by the driving projector 300 or the microphone provided in the room. For example, the user utters a predetermined keyword, such as “display here”, “show calendar”, “[system name]!”, Change the display position, call a new screen, or name the agent. At this time, the projection position calculation unit 122 is appropriately selected according to the user's position, posture (including head and face orientation), line of sight, or gesture (pointing, hand or arm movement, head movement, etc.). A projection position (three-dimensional position coordinates) is calculated.
  • the appropriate projection position is, for example, a position where the direction in which the user is pointing and a projectable area (such as a wall) are orthogonal, a projectable area near the user (such as a table), a user's line-of-sight direction and a projectable area Are assumed to be orthogonal to each other.
  • the projection position calculation unit 122 observes a bright spot (a bright spot on a wall or a table) of light emitted from a light emitting unit such as an IR LED provided in a pointing device operated by a user, and observes infrared light or the like. It is good also as a projection position, detecting from the captured image acquired with the possible camera.
  • the camera may be an overhead camera capable of observing infrared light with a wide field of view.
  • the designation of the projection position is not limited to designation from a position away from the projectable area, and designation by a touch operation on the projectable area or the like is also possible.
  • the projection position calculation unit 122 can analyze information acquired from a depth camera or the like and detect a touch operation on the projectable area.
  • the projection position calculation unit 122 is not limited to the operation input by the pointing device provided with the IR LED, and can also recognize the designation of the projection position input from an information processing terminal such as a smartphone.
  • the user may operate the GUI including the up / down / left / right keys displayed on the screen of the smartphone to specify the projection position, or operate the whole sky image of the projection environment space displayed on the smartphone screen.
  • a projection position may be designated.
  • the projection position calculation unit 122 basically calculates the projection position in accordance with the projection instruction from the user, but when the driving projector 300 is already used by the first user (that is, already When the second user gives a projection instruction (when information is presented to the first user by the driving projector 300), the projection position calculation unit 122 responds to the situation such as the positions of both users. An appropriate projection position is calculated as appropriate. For example, when the first and second users share the field of view (that is, when there is a position where both can be visually recognized), the projection position calculation unit 122 calculates the visually recognizable position as the projection position. Details of the control processing when a projection instruction is given later by another user will be described in each embodiment described later.
  • the projection position calculation unit 122 calculates an appropriate projection position from the recognition result of the projection environment space (for example, a place that is easily noticed by the family such as near the TV), or according to the position or posture of the user. (For example, near the user or the user's line-of-sight direction).
  • Projector control unit 123 controls the driving projector 300 so as to project a predetermined image at the projection position calculated by the projection position calculation unit 122. Specifically, the projector control unit 123 performs drive control of the drive projector 300 (control of the drive angle, etc.), generation of an image projected from the drive projector 300, and generation of an audio signal output from the speaker 340. obtain.
  • the projector control unit 123 generates a drive control signal that indicates the position to drive, and transmits the drive control signal from the I / F unit 110 to the drive projector 300. Specifically, the projector control unit 123 generates a drive control signal that instructs driving to a position where an image can be projected onto the projection position calculated by the projection position calculation unit 122.
  • the projector control unit 123 generates an image projected from the projector 310 of the driving projector 300 and an audio signal output from the speaker 340 and transmits the generated image to the driving projector 300 from the I / F unit 110.
  • an agent image, agent sound, various contents responding to a user request, and the like are assumed.
  • the various contents are, for example, images (moving images, still images), music, sound, text, and the like, and may be acquired from the content storage unit 160 or acquired from the network via the I / F unit 110. Good.
  • the content may be various display screens generated by the information processing apparatus 100 or an application operating on a network.
  • the projector control unit 123 basically controls the output of various contents from the driving projector 300 in accordance with a projection instruction from the user.
  • a projection instruction ie, a new screen display instruction
  • the projector control unit 123 For example, by dividing the screen and displaying both contents, it is possible to perform more appropriate display control for a plurality of users.
  • the “new screen” is a screen different from the screen already displayed, and various screens such as a home menu, an arbitrary application screen, and an agent call screen are assumed. Details of the split display of the screen will be described in the embodiments described later.
  • the configuration of the information processing apparatus 100 according to the present embodiment has been specifically described above. Note that the configuration of the information processing apparatus 100 is not limited to the example illustrated in FIG. 3. For example, at least a part of the configuration of the information processing apparatus 100 may be realized by an external device such as a server.
  • the information processing apparatus 100 may be realized by a smart home terminal, a PC, a smartphone, a tablet terminal, a home server, an edge server, an intermediate server, a cloud server, or the like.
  • the driving projector 300 is equipped with a projector 310 and a speaker 340 as output units. Furthermore, an ultrasonic speaker with high directivity may be mounted. The ultrasonic speaker may be installed coaxially with the projection direction of the projector 310.
  • the driving projector 300 is provided with a sensor 320.
  • the driving projector 300 outputs information sensed by each sensor 320 to the information processing apparatus 100.
  • the sensor 320 may be, for example, a camera, an overhead camera, a depth sensor, a distance measuring sensor, a thermo sensor, a microphone, or the like.
  • a camera with a wide viewing angle is assumed as the overhead camera, and by this, after grasping the position and orientation of the user in the space, a camera that looks at a region with a narrower viewing angle than the overhead camera is used. It is also possible to grasp the user's situation more accurately.
  • the camera and the overhead camera may have a mode for performing zooming or changing the aperture.
  • the depth sensor, the distance measuring sensor, or the thermo sensor is used for 3D space recognition of the projection environment by the 3D space recognition unit 121.
  • the driving projector 300 includes a driving mechanism 330, and can change the orientation of the projector 310 and the sensor 320 so that it can project in an arbitrary direction or sense an arbitrary direction.
  • the drive projector 300 performs drive control by the drive mechanism 330 so as to project an image at a predetermined position received from the information processing apparatus 100.
  • a pan / tilt biaxial drive mechanism is assumed as an example.
  • the present invention is not limited to a drive mechanism that changes the direction, and may have a mechanism that can move, for example, right and left and up and down.
  • a mechanism for driving the drive projector 300 itself or at least the projector 310 and the sensor 320
  • a mirror drive mirror having a drive mechanism is installed in front of the projector 310 and the sensor 320. A device that changes the projection direction and the sensing direction by changing the direction of the mirror may be used.
  • the sensor 320 is mounted on the same axis as the projector 310, and the sensor 320 is driven simultaneously with the projector 310 by the drive mechanism 330.
  • the embodiment is not limited to this, and the sensor 320 and the projector 310 may be arranged at different positions. In this case, the positional relationship between the sensor 320 and the projector 310 is known.
  • the configuration of the driving projector 300 according to the present embodiment has been specifically described above. Note that the configuration of the driving projector 300 according to the present embodiment is not limited to the example illustrated in FIG. 3. For example, the sensor 320 and the speaker 340 may be separate from the driving projector 300.
  • FIG. 4 is a flowchart showing an example of the flow of projection position calculation processing according to this embodiment.
  • step S103 when an image is projected to the first user by the driving projector 300 (step S103), when a projection instruction by the second user is detected (step S106 / Yes), information is displayed.
  • the projection position calculation unit 122 of the processing apparatus 100 determines whether or not an image can be projected at a position that can be viewed by both the first and second users (step S109).
  • an image can be projected at a position where both the first and second users can visually recognize, for example, according to the current position, face direction, or line-of-sight direction of both users based on sensing data from the sensor 320. Can be judged.
  • a projection position is designated by an input device such as a pointing device, the determination is made based on the designated projection position.
  • the projection position calculation unit 122 may be an intersection of each user's face direction and a projectable area (a gazing point on the projectable area) (or a projection destination position first designated by the first user using the input device).
  • the image When the image can be projected in a range including all of the projection destination positions designated by the second user later by the input device, it is determined that the image can be projected at a position where both users can visually recognize.
  • the gaze point easily changes when the user slightly changes the orientation of the face or body, so if the predetermined ranges centered on the gaze points of both users overlap, the image is displayed at a position where both users can see May be projected.
  • the projection position calculation unit 122 may calculate a viewing area (that is, a field of view range) of a plurality of users and make a determination based on the overlap.
  • FIG. 5 is a diagram illustrating a case where a viewing area is calculated and it is determined whether an image can be projected at a position where both users can view.
  • the viewing area 200 based on the angle of view of the user with respect to the projectable area (right end angle (R), left end angle (L), upper end angle (T), lower end angle (B)),
  • R right end angle
  • L left end angle
  • T upper end angle
  • B lower end angle
  • a range including an overlapping area may be determined as the projection position 202.
  • the projection position calculation unit 122 may calculate a viewing frustum in a three-dimensional manner in calculating the viewing area, and may make a determination based on the overlap determination.
  • the human visual field is actually an irregularly shaped conical shape, for example, as shown in FIG. 6, a solid between the front clip surface (Near) and the rear clip surface (Far). (View frustum) may be calculated, and based on the overlap determination, it may be determined whether an image can be projected at a position where both users can view.
  • the projection position calculation unit 122 determines that the multiple users can share the view when there is an area where at least a part of the view range of the multiple users overlaps.
  • a range including such an overlapping area may be determined as the projection position.
  • the projection position calculation unit 122 is not limited to the (strict) overlap of the field of view range, and for example, whether or not the field of view can be shared based on the positions of a plurality of users in the space or the positions and orientations of the plurality of users. It is also possible to judge.
  • FIG. 7 is a diagram for explaining the calculation of the projection position based on the positions and orientations of a plurality of users in the room.
  • the direction V can be projected based on the position P1 of the first user and the direction V1 (face, head, or body) and the position P2 and the direction V2 of the second user.
  • the regions 221 and 222 intersecting the region overlap, it is determined that the image can be projected at a position where both users can visually recognize.
  • a range 223 including such an overlapping region is determined as the projection position.
  • the sizes of the regions 221 and 222 may be a predetermined size set in advance.
  • the projection position calculation unit 122 gives priority to the second user who has given a projection instruction later, and determines the region 226 as the projection position.
  • the projection position calculation unit 122 includes the projection destination position first designated by the first user using the input device and the projection destination position designated by the second user later using the input device in the same projectable area plane. If the two projection destination positions are within a predetermined distance, it may be determined that the projection is possible at a position where both users can visually recognize. One may designate the projection destination position using the input device, and the other may designate the projection destination position by voice or gesture.
  • the projection position calculation unit 122 gives priority to the second user who has given a projection instruction later, and the second The projection position is calculated in accordance with the user's projection instruction (step S112). That is, the projection position calculation unit 122 calculates an appropriate projection position according to the projection instruction of the second user without considering the situation of the first user.
  • the projection position calculation unit 122 calculates a projection position that can be viewed by both users (step S115). For example, as described above, a range including the overlapping region of the viewing ranges of both users may be determined as the projection position, or the gazing point of both users (or the current projection position and the projection destination position specified by the input device or the like) ) (For example, an intermediate position) may be determined as the projection position.
  • the projector control unit 123 of the information processing apparatus 100 controls to drive the driving projector 300 toward the calculated projection position (step S118). Thereby, an image is projected onto the calculated projection position (that is, the projection position of the image is changed).
  • the projection position calculation unit 122 of the information processing apparatus 100 may determine the designated position as the projection position for the second time.
  • the projection position may be forcibly specified using a specific gesture, a first keyword (magic word), or the like.
  • the second user later calls a new screen.
  • a projection instruction is given.
  • the projection instruction accompanied by a call for a new screen is a call for a screen different from the image 230, and for example, a call for an agent screen by calling for an agent name is assumed.
  • an input device such as a pointing device
  • an instruction whether to call a new screen or simply change the position of the currently projected image is performed by operating a button or switch provided on the input device, for example.
  • the sound may be input to a microphone provided in the input device.
  • the second user who has given an operation instruction later is given priority, and an image 234 that displays a new image called by the second user. Is displayed at the position designated by the second user.
  • FIG. 9 is a flowchart illustrating an example of the flow of display control processing that enables split display according to the present embodiment.
  • a projection instruction by the second user is detected (step S206 / Yes).
  • the projection position calculation unit 122 of the processing apparatus 100 determines whether an image can be projected at a position where both the first and second users can visually recognize (step S209).
  • the determination method is the same as in the first embodiment.
  • the projection instruction by the second user may be performed by using an input device such as an uttered voice, a gesture, or a pointing device, as in the first embodiment.
  • the projection position calculation unit 122 gives priority to the second user who has given a projection instruction later, and the second The projection position is calculated according to the projection instruction of the user (step S212).
  • the projector control unit 123 generates a drive control signal so that the drive projector 300 is directed to the calculated projection position, transmits the drive control signal from the I / F unit 110 to the drive projector 300, and performs projector drive control (step S215).
  • step S218 when the projection instruction by the second user is a projection instruction for a new screen (step S218 / Yes), the projector control unit 123 projects the new screen onto the projection position according to the instruction from the second user. Control (step S221).
  • the projector control unit 123 displays the original screen (the image already projected in step S203) on the second screen. Control is performed so as to project onto the projection position according to the user's instruction (step S224).
  • steps S212 to S215 and steps S218 to S224 are not limited to being processed in the order shown in FIG. 9, and may be processed in parallel or in reverse order. .
  • the projection position calculation unit 122 calculates a projection position that can be viewed by the first and second users (step S209). S227).
  • a specific example of the calculation method is the same as that of the first embodiment, for example.
  • the projector control unit 123 generates a drive control signal to direct the drive projector 300 to the calculated projection position, transmits the drive control signal from the I / F unit 110 to the drive projector 300, and performs projector drive control (step S230).
  • the projector control unit 123 projects the divided images including the new screen and the original screen into the projection positions where both can be visually recognized. (Step S236).
  • step S233 / No when the projection instruction by the second user is not a projection instruction for a new screen (step S233 / No), the projector control unit 123 visually recognizes the original screen (the image that has already been projected in step S203). Control is performed so as to project to a possible projection position (step S239).
  • steps S227 to S230 and steps S233 to S239 are not limited to being processed in the order shown in FIG. 9, and may be processed in parallel or in reverse order. .
  • the information processing apparatus 100 records the user's viewing history and the like when the user is viewing what content or when the screen has been moved by an operation by another user, and performs control to return the screen appropriately. Make it possible.
  • the information processing apparatus 100 is instructed to display the content screen that the first user has been looking at immediately before. Control to display at the selected position.
  • the screen since it may be assumed that the second user wants to see the screen, the screen may be restored when the display of the original screen is explicitly instructed. For example, a clear instruction such as “display the screen that was displayed a while ago” or an operation of a specific button on the pointing device is assumed.
  • the information processing apparatus 100 can automatically return the screen to the first user due to a timeout when the second user has not seen the screen for a certain period of time or has not performed an interaction.
  • the information processing apparatus 100 determines that the interrupting work is completed in a certain time according to the content of the content called by the second user and the instruction content, and returns the screen to the first user after a predetermined time has elapsed. May be. Specifically, in the case of specific contents such as weather forecasts and traffic information, it may be determined that the interrupting work is completed in a certain period of time, or a small amount of time such as “show a little time” or “show a little”.
  • the information processing apparatus 100 You may make it return a screen to a user.
  • the information processing apparatus 100 is not limited to the determination based on the viewing angle such as the field of view regarding the change of the projection position when a plurality of users can share the field of view, and may make the determination according to the position of the user. For example, as shown in FIG. 10, when the driving projector 300 projects the image 240 on the table, the projection position may be changed based on the positions of a plurality of users surrounding the table (for example, in the center).
  • the divided display is not limited to side by side as shown in FIG. 8.
  • the divided display when the driving projector 300 projects an image 242 on the table, the divided display is at the positions of a plurality of users surrounding the table. Accordingly, the image 242 may be arbitrarily divided. Further, the information processing apparatus 100 may consider the top and bottom of the image or the spatial positional relationship according to the position of the user.
  • the driving projector 300 is not limited to the one driven by pan / tilt, and a mirror for driving pan / tilt (hereinafter referred to as a driving mirror) can be installed in front of the projector, and the projection position can be arbitrarily changed. .
  • a driving mirror a mirror for driving pan / tilt
  • FIG. 12 is a diagram for explaining an example of split display using a plurality of drive mirrors according to this modification.
  • a plurality of drive mirrors 311a and 311b are arranged in front of the projector 310, and the respective mirror reflection areas 245a and 245b of the projection image 245 projected from the projector 310 are respectively reflected, so that they are located at different places.
  • Different projection images 245A and 245B can be displayed.
  • Each mirror reflection region 245a, 245b included in the projection image 245 is trapezoidally corrected according to the reflection of the drive mirror and the planar shape of the projection location.
  • the present modification is not limited to this, and three or more drive mirrors may be provided to appropriately project an image at an arbitrary position. . It is also possible to display different projected images at three or more locations by adjusting the number and arrangement of drive mirrors.
  • the first user who has previously used the driving projector 300 is given the authority to arbitrarily cancel the change of the projection position according to the projection instruction of the second user, so that the first user Makes it possible to prevent unintended display movement.
  • the information processing apparatus 100 determines whether or not to execute the cancel operation notification to the first user according to the situation of the first user. May not be performed.
  • the drive projector 300 can be driven and controlled quickly according to the instruction of the second user, and the waiting time for the cancel operation can be prevented. For example, if the person who has given the projection instruction later is the same person as the person who has previously given the projection instruction, the information processing apparatus 100 immediately drives the driving projector 300 without notifying the cancel operation. .
  • a cancel operation notification is sent. Without driving, the driving projector 300 is immediately driven.
  • FIG. 13 An example of the flow of cancel operation processing according to the present embodiment is shown in FIG. As shown in FIG. 13, first, when the information processing apparatus 100 receives a projection position change instruction from the user (step S303), the information processing apparatus 100 selects a projector (step S306). As described above, the projection position change instruction is input from the speech voice such as “display here”, “[agent name]!”, “Show the calendar”, a predetermined gesture, or a pointing device. Operation input by the device is assumed. Further, the information processing apparatus 100 selects a projector that can project to a position instructed by the user (for example, an angle of view, brightness, etc. are preferable). When there are a plurality of driving projectors 300, the information processing apparatus 100 selects one projector that can project to the position instructed by the user.
  • the projection position change instruction is input from the speech voice such as “display here”, “[agent name]!”, “Show the calendar”, a predetermined gesture, or a pointing device. Operation input by
  • the information processing apparatus 100 determines whether there is another user who is using the selected projector (step S309). Specifically, the information processing apparatus 100 is imaged by the camera of the sensor 320 as to whether or not there is a user who is viewing an image projected by the selected projector (the face direction or the line-of-sight direction is facing). Judgment is made based on the captured image or the like. Further, the information processing apparatus 100 is used based on whether or not there is a user near the image projected by the selected projector or whether or not a certain time has passed since the last operation. You may judge whether it is inside.
  • the information processing apparatus 100 performs control to present a cancellation notification screen to the other user in use.
  • the information processing apparatus 100 displays a cancel notification screen at the projection position currently being viewed by another user by the driving projector 300.
  • the information processing apparatus 100 pauses the movie content and displays a cancel notification screen on the movie content screen. It may be.
  • FIG. 14 shows an example of a cancel notification screen according to the present embodiment.
  • the cancellation notification screen may indicate a countdown until the end of cancellation reception.
  • a cancel operation (interrupt) by uttering a predetermined keyword (such as “Cancel!”) Or a gesture (such as hitting a desk or tapping a cancel notification screen). Canceling operation).
  • a predetermined keyword such as “Cancel!”
  • a gesture such as hitting a desk or tapping a cancel notification screen. Canceling operation).
  • the information processing apparatus 100 waits for acceptance of a cancel operation until a predetermined time elapses (until time out) (step S327).
  • step S315 / Yes when a cancel operation by another user is received (step S315 / Yes), the information processing apparatus 100 selects another candidate (projectable) projector because the selected projector cannot be used (step S318). .
  • step S318 / No the information processing apparatus 100 feeds back to the user that the projection position cannot be changed (step S321). If there is a projector display area at a position where the user can see, visual feedback may be performed, or if not, sound feedback may be performed. Further, when the user holds an input device such as a pointing device, feedback (sound, vibration, light, etc.) may be performed from the input device.
  • step S318 / Yes when there is another projector (step S318 / Yes), the information processing apparatus 100 feeds back to the user (instructed to change the projection position) that a cancel operation (by the current user) has occurred. At the same time (step S324), the next projector is selected (step S306), and the processes of steps S309 to S318 are repeated.
  • step S327 / Yes If the current user times out without performing the cancel operation (step S327 / Yes), the information processing apparatus 100 performs control to drive the selected projector according to the user's projection position change instruction (step S330).
  • the determination of no cancellation due to timeout is performed as an example, but this embodiment is not limited to this.
  • two options of Yes / No may be displayed on the cancellation notification screen to allow the user to select Good.
  • the configuration of the cancellation notification screen shown in FIG. 14 is an example, and the present embodiment is not limited to this, and another expression may be used.
  • FIG. 15 is a diagram for explaining feedback when priority is given to the predecessor.
  • FIG. 15 shows, in chronological order, the presence / absence of an operation, projector control, feedback (FB) to the first user (predecessor), and FB timing to the second user (follower).
  • FB feedback
  • first-priority priority means that a person who has previously operated (used) the projector can preferentially use the projector. If the information processing apparatus 100 is set to have precedence over the predecessor, the user (predecessor) preferentially drives the projector for a certain period of time after a user uses the drive projector 300 (for example, watching movie content). Make 300 available. Therefore, even if another user (follower) later performs an operation input (for example, a projection change instruction such as “show calendar here” or “show me here”), the operation is invalidated. To do. In this case, the follower may be confused without knowing why the operation is invalid. Therefore, as illustrated in FIG.
  • the information processing apparatus 100 feeds back to the user (follower: second user) who has operated later that the operation cannot be performed now.
  • visual feedback may be performed if there is another projector capable of projecting an image on the field of view of the second user, and if not, feedback is performed by sound.
  • feedback such as vibration, light, and sound may be performed from the input device.
  • an operation performed by another user may be fed back to the preceding person (first user).
  • first user since a projector is allocated to the first user, feedback may be provided by video from the projector, or feedback by sound may be performed.
  • the predecessor can discard and transfer the operation right, and can pass the operation right to the follower by a predetermined voice utterance, gesture, touch operation on the UI, button operation of the input device, or the like.
  • FIG. 16 is a diagram for explaining feedback when the follower priority is given.
  • FIG. 16 shows, in time series, the presence / absence of an operation, projector control, FB to the first user (preceding person), and FB to the second user (follower).
  • follower priority means that even if there is a person who has operated (utilized) the projector first, the person who performed the operation later can preferentially use the projector (operating authority is given). That can be acquired).
  • the information processing apparatus 100 is set to follower priority, even if a certain user uses the driving projector 300, and a projection destination change instruction is given later by another user, the projection destination is changed according to the instruction.
  • the driving of the driving projector 300 is controlled so as to make the change.
  • the driving projector 300 is driven according to the projection destination change instruction of the follower. It can be said that it is adopted.
  • the information processing apparatus 100 drives the projector according to the operation of the second user and presents an image to the second user. To do. At this time, the information processing apparatus 100 uses the projector, and the second user has operated the first user who has been taken by the second user, so that the display has moved. To be notified. Such notification may be presented to the first user at the projector before moving the display.
  • the second user may be notified that the first user has operated (used).
  • the notification to the second user may be presented by the projector after the display is moved.
  • FIG. 17 is a diagram illustrating feedback when sharing is prioritized.
  • FIG. 17 shows, in chronological order, the presence / absence of an operation, projector control, feedback (FB) to the first user (preceding person), and FB timing to the second user (follower).
  • FB feedback
  • sharing priority means that the projector is operated later in a situation where there is a person who has operated (used) the projector first, as described in the first and second embodiments. This means that when a person appears, an image is projected to a place where both users can see and the projector is shared.
  • the information processing apparatus 100 when the information processing apparatus 100 performs the display by the projector according to the operation of the first user, and there is an operation from the second user, the first and second users The projector is driven and controlled so that is displayed at a visually recognizable position. At this time, the information processing apparatus 100 notifies the first user that the second user has operated, and the second user has operated (used) the first user. To be notified. Any of these notifications can be presented by a projector after moving the display, for example.
  • the precedence of the predecessor, the priority of the follower, and the sharing priority have been described.
  • at least one of these priority rules may be determined in advance. However, it may be determined appropriately according to the situation.
  • the information processing apparatus 100 appropriately sets an appropriate priority rule according to the content viewed by the preceding person (content projected by the projector) or the content requested by the follower (calling a new screen). More specifically, for example, when the successor priority is usually set and the content such as a movie (content that it is not desirable for other users to easily obtain the operation right) is presented to the preceding person, the preceding person priority is given. Set to.
  • FIG. 18 is a flowchart illustrating an example of the flow of drive control processing according to the present embodiment.
  • the information processing apparatus 100 determines whether it is a forced projection destination change instruction (step S406).
  • the forced change of the projection destination can be performed by, for example, uttering a predetermined keyword (magic word), a specific gesture, a button of the input device, etc., and is an exception that forcibly moves the projector to a specified position. Refers to general operations.
  • the information processing apparatus 100 sets a priority rule (step S409). For example, the information processing apparatus 100 sets “first precedence” when a user who has previously used a projector presents content that is not preferable for other users, such as watching a movie, When other content is presented, “follower priority” or “sharing priority” is set. “Sharing priority” may be set, for example, when the follower's projection instruction is only a position change and not a new screen call (screen switching), or both are positioned relatively close to each other. It may be set in a situation where there is a high possibility that there is a projection position where both can visually recognize.
  • the information processing apparatus 100 may set “follower preference” when “precedent precedence” or “share priority” is not an appropriate situation. Further, the information processing apparatus 100 may set “follower priority” when it can be estimated that there is only one person using the projector, such as when there is only one person in the room (by the same person as the preceding person). Because it is an instruction and it is preferable to drive quickly).
  • step S409 when the “first-priority priority” is set (step S409 / first-priority priority), the information processing apparatus 100 notifies (feeds back) that the operation is canceled to the follower and ends the processing (step S412). ).
  • step S409 when “sharing priority” is set (step S409 / sharing priority), the information processing apparatus 100 determines whether or not both can be projected to a position where they can be visually recognized (step S415).
  • step S409 when “follower priority” is set (step S409 / follower priority), or when “sharing priority” is set but it is determined that both cannot be projected to a visible position (step S415 / No) ),
  • the information processing apparatus 100 calculates the projection position according to the instruction of the follower (step S418).
  • the information processing apparatus 100 similarly calculates the projection position according to the follower's instruction.
  • step S415 when it is determined that “sharing priority” is set and it is determined that both can be projected to a position where they can be visually recognized (step S415 / Yes), the information processing apparatus 100 calculates a projection position where both can be visually recognized (step S421). ).
  • the information processing apparatus 100 determines whether there is a projector capable of projecting at the calculated projection position (step S424).
  • the information processing apparatus 100 allows a person who is currently viewing a projection image by the selected projector (that is, a person who uses it). It is determined whether or not there is (step S427).
  • the determination process for determining whether or not there is a user is similar to the determination process shown in step S309 of FIG.
  • the information processing apparatus 100 determines whether or not to perform a cancel acceptance process for the user currently in use (Ste S430).
  • the cancel operation process is the same as that described with reference to the third embodiment, and the information processing apparatus 100 determines whether or not to give the preceding person time to cancel the display movement based on the operation by the follower. to decide.
  • the information processing apparatus 100 determines whether or not to perform a cancel reception process depending on the situation, for example. Specifically, for example, when it can be assumed that there is already some discussion about the projection change between the users, for example, when the users are adjacent to each other or close to each other, or the projection change agreement has already been reached between the users. If the user's conversation is recognized by voice recognition, or if the predecessor is a person who is not a predetermined target such as a child, the cancellation acceptance process is not performed, otherwise It may be determined that the cancel acceptance process is performed.
  • a cancel acceptance process may be performed in order to select an appropriate projector (a projector that projects content that the user is willing to cancel).
  • step S430 it is determined that a cancel acceptance process is to be performed (step S430 / Yes), a cancel notification screen is presented to the preceding person (see FIG. 14), and when a cancel operation is performed (step S433 / Yes), the information processing apparatus 100 Searches for other candidate projectors (step S436).
  • step S436 / No If there is no other candidate projector (step S436 / No), or if there is no projector that can be projected at the calculated projection position in step S424 (step S424 / No), the fact that the projection cannot be changed will be described later.
  • the bank is notified (step S439).
  • step S436 if there is another candidate projector (step S436 / Yes), the information processing apparatus 100 notifies the follower that the operation has been canceled (step S442), selects the next projector, and The processing after step S424 is repeated.
  • step S433 / No when the cancel operation is not accepted (that is, when the cancel operation by the preceding person is not performed) (step S433 / No), there is no person who is currently viewing the projection image by the projector selected in step S427.
  • step S427 / No or when it is determined in step S430 that the cancel acceptance process is not performed (step S430 / No), the information processing apparatus 100 is placed at the projection position calculated in steps S418 and S421, respectively. Control to drive the projector is performed (step S445).
  • image display using the drive projector 300 is described.
  • the present embodiment is not limited to this, and other display devices such as a glasses-type see-through HMD are used. You may apply to an image display.
  • the present embodiment is applied when an instruction to change the display position of the AR content is given in a situation in which a plurality of people wears the glasses-type see-through HMD and shares the AR content superimposed on the real space. Can do.
  • the first user who has previously used (operated, viewed, etc.) the AR content and the second user who made the change instruction You may make it move to the position (position suitable for two or more people, such as between two people) which a user can visually recognize.
  • a mobile robot with a display is also assumed.
  • the first user who has previously used (operated, viewed, etc.) the robot and the second user who has given the change instruction May be moved to a position (a position suitable for a plurality of persons, such as between two persons).
  • the speaker and the sound source localization position can be moved in accordance with the movement of the display position.
  • the speaker may be provided in the driving projector 300 or may be a separate body.
  • the speaker may be an ultrasonic speaker capable of localizing sound, and when the display position is moved to a position suitable for a plurality of persons, the sound can be localized at a position suitable for the plurality of persons. Is possible.
  • the projection position is determined according to the position of the user, but this embodiment is not limited to this.
  • a plurality of projection positions are determined in advance in advance, You may make it select from these several projection positions prepared beforehand according to a user's position etc.
  • a frequently used projection position may be determined according to the position of the user. For example, when the user is sitting on the sofa, the projection position is often on the TV.
  • the apparatus 100 determines the projection position on the television.
  • the information processing apparatus 100 may prompt the user to move and consequently display the video at a position suitable for the plurality of people.
  • the information processing apparatus 100 may move one person or, for example, display it in a place that can be easily seen by a plurality of people such as a dining table (for example, a place where the angle of view can be increased), You may be prompted to move to.
  • the information processing apparatus 100 may be configured such that a projection position designated by a person who operates later or a position where a plurality of persons can visually recognize is not suitable for projection (for example, a place that is too bright or a non-planar place, a door such as a door) If the projection environment is unfavorable, such as a certain place), it may be displayed avoiding that place.
  • a projection position designated by a person who operates later or a position where a plurality of persons can visually recognize is not suitable for projection (for example, a place that is too bright or a non-planar place, a door such as a door) If the projection environment is unfavorable, such as a certain place), it may be displayed avoiding that place.
  • the information processing apparatus 100 may change the split ratio according to the content. For example, if only the agent is called, the original content may be displayed larger and the agent image may be displayed smaller in the corner.
  • the information processing apparatus 100 displays the video on a display device other than the projector when the video cannot be displayed at a position suitable for a plurality of people or when a later designated person can use a display device other than the projector. It may be. For example, if there is a TV or smartphone near the person who instructed to change the projection position later, the content may be displayed on the display device (in this case, the projection position of the original content is changed). do not do).
  • the information processing apparatus 100 cancels the division and increases the ratio of content suitable for those who still remain. You may make it do.
  • screen division or full screen may be switched.
  • a weight may be given between users in advance. For example, for parents and children, the weight of the parent is increased, so that when there are adults and children, the image is projected to a position closer to the adult, or the adult is watching during split display It is possible to increase the division ratio of the content. Further, a target person who cannot be an operator of the projector, such as a small child or a visitor, may have a weight of 0, and the position and operation of these persons may not be reflected in the system.
  • the projection position may be instructed using an object (real object) that can be touched with a hand.
  • an object real object
  • the object may be displayed (projected) on the table (or near the object), or the user may hand the object to another person and place it in another place. If it is displayed, it may be displayed at the place where it is placed.
  • the original content may be displayed when it is returned to the original display position.
  • the processing may be changed as appropriate according to the attribute of the operator. For example, when an elderly person is using it, the cancellation waiting time (countdown) may be lengthened.
  • the processing may be changed as appropriate according to the state of the operator. For example, when the user does not direct his / her line of sight to the projected image (for example, when his eyes are slightly off), the waiting time for cancellation may be increased. In addition, in the case of a user who is used to the operation, the waiting time for cancellation may be shortened.
  • the predecessor priority rule may be applied to content other than movies. For example, when entering characters or making a call, such as entering a password or creating a message, the predecessor priority rule may be applied.
  • the predecessor priority rule may be applied.
  • the processing may be appropriately changed depending on the time zone. For example, in the case of night, an operation right may not be given to a child, or an adult priority rule that gives priority to an operation by an adult may be applied.
  • FIG. 19 is a diagram for explaining the case of using a projector that simultaneously projects images at a plurality of locations by a time division method using a drive mirror. As shown in FIG. 19, for example, by driving the drive mirrors 312a and 312b at high speed and switching the display image, it is possible to project different images on a plurality of locations such as a table and a wall.
  • the information processing apparatus 100 displays the image 250 for the first user, and the second user is instructed to change the projection position (display on the wall), the image 250 is displayed. May be controlled to gradually increase the brightness of the image 252 displayed to the second user (the brightness control can be adjusted by, for example, time division allocation). ).
  • the information processing apparatus 100 displays a cancel notification screen on the image 250 and displays the image 252 lightly for the second user during the waiting time for the cancel operation by the first user. Even during the waiting time, it becomes possible to present the feedback of the operation to the second user (that the projection position changing operation is properly recognized by the system side).
  • the cancel notification screen is displayed.
  • the present embodiment is not limited to this.
  • a projection change instruction is issued by the second user
  • a display image is displayed.
  • the first user who has been operating first may be notified of the countdown of the cancel operation by sound.
  • the cancellation notification sound may be localized at a display position before movement using, for example, a directional speaker.
  • the information processing apparatus 100 controls the projector to return the display image to the original position when a cancel operation is performed by voice, a gesture, or the like.
  • a computer-readable storage medium storing the computer program is also provided.
  • this technique can also take the following structures.
  • (1) When a display instruction from the user is detected, display control corresponding to the display instruction from the user is determined in accordance with the position of the user and the current display status that has already been performed for another user.
  • An information processing apparatus including a control unit.
  • (2) The information processing apparatus according to (1), wherein the current display status includes a display position or display content.
  • (3) The controller is When the display instruction from the user is the movement of the current display position, the control is performed to move the display position to an area where the user and the other user can visually recognize, (1) or (2 ).
  • the controller is The information processing apparatus according to (3), wherein the visible region is determined based on a position of the user and a position of the other user.
  • the controller is Furthermore, the information processing apparatus according to (4), wherein the visible region is determined in consideration of the orientation of the user and the orientation of the other user. (6) The controller is The information processing apparatus according to (3), wherein the visible region is determined based on an overlap between the user's view range and the other user's view range. (7) The controller is The information processing apparatus according to (2), wherein control is performed to move the display position between the current display position and a display position corresponding to a display instruction from the user.
  • the controller is When the display instruction from the user is a change of the current display content, the display position is moved to an area where the user and the other user can visually recognize, and the current display content and the user The information processing apparatus according to any one of (2) to (7), wherein control is performed to display a divided screen including display contents in accordance with a display instruction. (9) The controller is When there is no area that is visible to the user and the other user, the display position is moved to the display position according to the display instruction from the user and the display content according to the display instruction from the user is displayed. The information processing apparatus according to any one of (2) to (8), wherein control is performed.
  • the controller is Any one of the above (3) to (9), wherein after the display position and the display content are changed in accordance with the display instruction from the user, the display position and the display content are restored at a predetermined timing.
  • the controller is The information processing apparatus according to any one of (1) to (10), wherein when changing a display position according to a display instruction from the user, the other user is notified of a cancel operation.
  • the controller is The information processing apparatus according to (11), wherein when the cancel operation is performed by the other user, the change of the display position is stopped.
  • the controller is The information processing apparatus according to (12), wherein when the change of the display position is stopped, another display apparatus corresponding to the display instruction from the user is searched.
  • the controller is The information processing apparatus according to any one of (1) to (13), wherein when the display position is moved in accordance with a display instruction from the user, the other user is notified of the display movement. .
  • the control unit notifies the user that the operation cannot be accepted when the display is continued with priority given to the other user in response to the display instruction from the user.
  • the information processing apparatus according to any one of (13).
  • the controller is Display control to prioritize the user who has given instructions later; Display control to prioritize the other user who was watching first; Display control for giving priority to sharing between the user and the other users;
  • the information processing apparatus according to any one of (1) to (15), wherein at least one of the settings is set according to the current display status.
  • the controller is The information processing apparatus according to (16), wherein the setting is performed according to a content type of the current display content.
  • the controller is The information processing apparatus according to any one of (1) to (17), wherein display control is performed by a driving projector.
  • (20) Computer When a display instruction from the user is detected, display control corresponding to the display instruction from the user is determined in accordance with the position of the user and the current display status that has already been performed for another user.
  • a recording medium on which a program for functioning as a control unit is recorded.
  • An information processing apparatus including a control unit that notifies a cancel operation to another user who is viewing a display that has already been presented when a display instruction from the user is detected.
  • the controller is When the other user is not gazing at the display, or when the other user is not near the display, the cancel operation is not notified, and according to the display instruction from the user, The information processing apparatus according to (21), wherein the display position is moved.
  • the controller is The information processing apparatus according to (21), wherein when the other user does not perform a cancel operation, the display position is moved in accordance with the display instruction from the user.
  • the controller is The information processing according to (21), wherein when the other user performs a cancel operation, the display presentation to the other user is continued and the user is notified that the operation cannot be accepted. apparatus.
  • Information processing apparatus 110 I / F part 120 Control part 121 Three-dimensional space recognition part 122 Projection position calculation part 123 Projector control part 130 Spatial information storage part 140 Content storage part 300 Drive projector 310 Projector 320 Sensor 330 Drive mechanism 340 Speaker

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】複数人に利用される表示システムにおいて、ユーザからの表示指示に対し、より適切な表示制御を行うことが可能な情報処理装置、情報処理方法、および記録媒体を提供する。 【解決手段】ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して表示している現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定する制御部を備える、情報処理装置。

Description

情報処理装置、情報処理方法、および記録媒体
 本開示は、情報処理装置、情報処理方法、および記録媒体に関する。
 近年、壁やスクリーンに映像を投影するプロジェクタに関し、パン・チルト駆動機構を搭載した駆動型プロジェクタが開発されている。プロジェクタを駆動させることで、任意の場所へ映像を投影することが可能となる。
 プロジェクタ自体を駆動させる他、プロジェクタ前面にパン・チルト駆動機構を持つ鏡を配置し、鏡の反射方向を変えることで任意の場所へ映像を投影する技術も提案されている。
 また、レーザポインタなどのポインティングデバイスと、ポインティング位置を観測するカメラとを組み合わせて、ユーザがポインティングした場所へ映像を表示するようプロジェクタを駆動させることも可能である。例えば下記特許文献1には、固定型プロジェクタと駆動型プロジェクタの投影領域が重なる部分において、一方のプロジェクタから他方のプロジェクタに映像の出力を切り替えるシステムについて記載されている。
国際公開第2017/154609号
 しかしながら、駆動型プロジェクタが複数人に利用される場合、利用中のユーザが居ても、後から行われた他ユーザの操作により、表示場所や表示内容が切り替わってしまうことがある。
 そこで、本開示では、複数人に利用される表示システムにおいて、ユーザからの表示指示に対し、より適切な表示制御を行うことが可能な情報処理装置、情報処理方法、および記録媒体を提案する。
 本開示によれば、ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定する制御部を備える、情報処理装置を提案する。
 本開示によれば、プロセッサが、ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定することを含む、情報処理方法を提案する。
 本開示によれば、コンピュータを、ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定する制御部として機能させるためのプログラムが記録された、記録媒体を提案する。
 以上説明したように本開示によれば、複数人に利用される表示システムにおいて、ユーザからの表示指示に対し、より適切な表示制御を行うことが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 表示システムを複数人で利用する場合に生じ得る問題について説明する図である。 本開示の実施形態に係る情報処理システムの各装置の機能構成例を示すブロック図である。 第1の実施例による投影位置の算出処理の流れの一例を示すフローチャートである。 第1の実施例による、視聴領域を算出して、両ユーザが視認可能な位置に画像を投影できるか否かの判断を行う場合について説明する図である。 第1の実施例による、視錐台を用いて視聴領域を算出して、両ユーザが視認可能な位置に画像を投影できるか否かの判断を行う場合について説明する図である。 第1の実施例による部屋の中における複数ユーザの位置と向きに基づく投影位置の算出について説明する図である。 第2の実施例による分割表示の概要について説明する図である。 第2の実施例による分割表示を可能とする表示制御処理の流れの一例を示すフローチャートである。 第2の実施例の変形例による、テーブル上における投影位置の変更について説明する図である。 第2の実施例の変形例による、テーブル上における分割表示について説明する図である。 第2の実施例の変形例による複数の駆動ミラーを用いた分割表示の一例について説明する図である。 第3の実施例によるキャンセル操作処理の流れの一例を示すフローチャートである。 第3の実施例によるキャンセル通知画面の一例を示す図である。 第4の実施例による先行者優先時のフィードバックについて説明する図である。 第4の実施例による後行者優先時のフィードバックについて説明する図である。 第4の実施例による共有優先時のフィードバックについて説明する図である。 第5の実施例による駆動制御処理の流れの一例を示すフローチャートである。 本実施形態の応用例による駆動ミラーを用いて時分割方式により複数個所に同時に映像を投影するプロジェクタを用いた場合について説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成
  2-1.情報処理装置100の構成例
  2-2.駆動プロジェクタ300の構成例
 3.各実施例
  3-1.第1の実施例(投影位置の算出)
  3-2.第2の実施例(分割画像の表示)
  (変形例1:画面を戻す制御)
  (変形例2:テーブル上での表示変更)
  (変形例3:複数の駆動ミラーを用いた分割投影)
  3-3.第3の実施例(キャンセル操作)
  3-4.第4の実施例(フィードバック)
  3-5.第5の実施例(優先ルール設定)
 4.応用例
 5.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システム1は、会議室や個人の部屋などの空間に設置され、壁やテーブル、床、天井、家具等に映像を投影する駆動プロジェクタ300と、駆動プロジェクタ300の駆動や映像投影を制御する情報処理装置100と、を有する。
 駆動プロジェクタ300は、パン・チルト駆動機構を搭載し、空間内の任意の場所へ映像を投影することが可能である。また、駆動プロジェクタ300は、パン・チルト駆動機構のような向きを変える駆動機構に限定されず、駆動プロジェクタ300自体が左右上下等に移動することが可能な機構を併せ持ってもよい。駆動プロジェクタ300による投影位置は、例えばユーザにより、音声(「ここに表示して」等の音声認識とユーザの顔向き等)、ジェスチャ(指差し等)、若しくは、ポインティングデバイス等の入力装置を用いて指定することが可能である。また、情報処理装置100は、ユーザの位置や姿勢を認識して自動的に投影位置を決定することも可能である。駆動プロジェクタ300は、画像を投影するプロジェクタ310と、ユーザの位置やジェスチャ、発話音声等をセンシングするためのセンサ320と、を有する。
 (背景)
 ここで、駆動可能なプロジェクタを用いることで空間内の様々な位置に映像を投影することができるが、このようなプロジェクタを複数人で利用する際、以下のような問題が発生する。
 例えば、図2に示すように、駆動型のプロジェクタ500で第1のユーザが映像を視聴している際に、第2のユーザにより新規画面を呼び出す指示が行われると、プロジェクタ500は第2のユーザの指示に従って表示内容の切り替えや表示位置の変更を行うため、先に視聴していた第1のユーザの映像が突然消えてしまうという問題が発生する。
 そこで、このような事情を鑑み、本開示による情報処理システムは、複数人に利用される表示システムにおいて、ユーザからの表示指示に対し、より適切な表示制御を行う仕組みを提案する。
 例えば、本実施形態による情報処理システムは、第1のユーザが視聴中に、第2のユーザにより表示指示(「こっちにも見せて」と発話した場合等)が行われた際、両ユーザの位置に応じて、例えば図1に示すように、第1のユーザに提示していた画像20aを、両者にとって好適な位置に移動する(画像20b参照)。情報処理装置100は、表示位置が第2のユーザが指示した位置と多少ずれていたとしても、両者の視界内に表示することを優先し、両者にとって好適な表示制御を実現する。本明細書において、表示指示とは、発話音声、ジェスチャ、コントローラ等の入力装置を用いて行われ、例えば表示位置に関する情報が含まれる。表示位置に関する情報とは、ユーザによる明示的な表示位置の指定(例えば指差しや視線、ポインティングデバイスによる指定)の他、システム側においてユーザ位置に応じてユーザが視認可能な位置に表示させることも可能であるため、ユーザ位置の情報も、当該表示位置に関する情報に含まれ得る。
 また、表示位置のみならず、表示内容も変更する場合(第2のユーザにより新規画面の呼び出しが行われた場合)、本実施形態による情報処理システムは、例えば画像20bを分割表示するようにしてもよい。
 このように、本実施形態では、後から表示指示の操作が行われた場合も、複数ユーザの状況に応じて、より適切な表示制御を行うことを可能とする。
 以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる各装置の具体的な構成について図面を参照して説明する。
 <<2.構成例>>
 図3は、本開示の実施形態に係る情報処理システムの各装置の機能構成例を示すブロック図である。図3に示したように、本実施形態による情報処理システムは、情報処理装置100と、駆動プロジェクタ300と、を有する。
  <2-1.情報処理装置100の構成例>
 情報処理装置100は、I/F(interface)部110と、3次元空間認識部121、投影位置算出部122、およびプロジェクタ制御部123として機能する制御部120と、空間情報記憶部130と、コンテンツ記憶部140と、を有する。
 (I/F部110)
 I/F部110は、情報処理装置100と他の機器とを接続するための接続装置である。I/F部110は、例えばUSB(Universal Serial Bus)コネクタ等により実現され、駆動プロジェクタ300の各構成要素との間で情報の入出力を行う。また、例えばI/F部110は、無線/有線LAN(Local Area Network)、DLNA(登録商標)(Digital Living Network Alliance)、Wi-Fi(登録商標)、Bluetooth(登録商標)、又はその他専用線等により駆動プロジェクタ300と接続する。また、I/F部110は、インターネットやホームネットワークを介して他の機器と接続してもよい。
 例えばI/F部110は、駆動プロジェクタ300から、駆動プロジェクタ300のセンサ320に含まれる各種センサによるセンシングデータを受信する。また、I/F部110は、プロジェクタ制御部123の制御に従って、駆動制御信号や映像、音声等の出力信号を、駆動プロジェクタ300に送信する。
 (制御部120)
 制御部120は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。制御部120は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部120は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、制御部120は、図3に示すように、3次元空間認識部121、投影位置算出部122、およびプロジェクタ制御部123として機能する。
 ・3次元空間認識部121
 3次元空間認識部121は、センサ320に設けられた各種センサにより検出されたセンシングデータ(カメラや俯瞰カメラによる撮像画像(可視光画像、赤外線画像)、デプスセンサによる深度情報、測距センサによる距離情報、サーモセンサによる温度情報、マイクロホンによる音声情報等)に基づいて、投影環境空間(例えば、駆動プロジェクタ300が設置された部屋等)の3次元形状や、投影環境空間に存在する実物体の3次元形状や3次元位置、投影可能領域(所定の広さを有する平面領域など)、また、ユーザの3次元位置、姿勢、ジェスチャ、発話音声等を認識する。
 例えば本実施形態では、デプスセンサによるセンシングデータに基づいて投影環境空間の3次元形状を認識することを想定する。また、3次元空間認識部121は、投影環境空間の3次元形状を認識すると共に、投影環境の空間マップを生成し得る。また、3次元空間認識部121は、測距センサやカメラ複数台によるステレオマッチングによる3次元形状計測を行ってもよい。また、3次元空間認識部121は、外光や室内照明など、投影環境空間の照度を認識することも可能である。
 このように3次元空間認識部121により認識された各種空間情報は、空間情報記憶部130に記憶される。
 ・投影位置算出部122
 投影位置算出部122は、3次元空間認識部121による認識結果や、空間情報記憶部130に蓄積された空間情報に基づいて、投影位置を適宜算出し、プロジェクタ制御部123に出力する。
 例えば投影位置算出部122は、ユーザによる投影指示(表示指示)に応じて、投影位置を算出する。ユーザによる投影指示は、音声、ジェスチャ、入力装置の利用等により行われることが想定される。投影位置算出部122は、ユーザにより投影指示があった場合、ユーザの位置等に応じて投影位置を算出する。
 具体的には、例えば投影位置算出部122は、駆動プロジェクタ300や部屋に設けられたマイクロホンにより集音された音声データの音声認識結果に応じて、投影位置を算出する。例えば、ユーザが、「ここに表示して」、「カレンダーを見せて」、「[システム名]!」等、表示位置の変更や新規画面の呼び出し、また、エージェント名など所定のキーワードを発話した際、投影位置算出部122は、ユーザの位置、姿勢(頭部や顔の向きを含む)、視線、またはジェスチャ(指差し、手や腕の動き、頭の動き等)に応じて、適切な投影位置(3次元位置座標)を算出する。適切な投影位置とは、例えばユーザが指差している方向と投影可能領域(壁など)が直交する位置や、ユーザの近くの投影可能領域(テーブルなど)や、ユーザの視線方向と投影可能領域が直交する位置などが想定される。
 また、投影位置算出部122は、ユーザが操作するポインティングデバイスに設けられたIR LED等の発光部から発光された光の輝点(壁やテーブル上の輝点)を、赤外光等を観測可能なカメラにより取得した撮像画像から検出し、投影位置としてもよい。カメラは、広視野で赤外光を観測可能な俯瞰カメラであってもよい。
 なお、投影位置の指定は、投影可能領域から離れた位置からの指定に限定されず、投影可能領域へのタッチ操作などによる指定も可能である。投影位置算出部122は、デプスカメラ等から取得された情報を解析し、投影可能領域へのタッチ操作を検出し得る。
 また、投影位置算出部122は、IR LEDが設けられたポインティングデバイスによる操作入力に限定されず、例えばスマートフォン等の情報処理端末から入力された投影位置の指定を認識することも可能である。ユーザは、例えばスマートフォンの画面に表示された上下左右キーを含むGUIを操作して投影位置を指定してもよいし、スマートフォンの画面に表示された投影環境空間の全天周画像を操作して投影位置を指定してもよい。
 以上説明したように、投影位置算出部122は、基本的にはユーザからの投影指示に従って投影位置を算出するが、既に第1のユーザにより駆動プロジェクタ300が利用されている際に(すなわち、既に第1のユーザに対して駆動プロジェクタ300により情報提示を行っている際に)、第2のユーザにより投影指示があった場合、投影位置算出部122は、両ユーザの位置等の状況に応じて、適宜、適切な投影位置を算出する。例えば投影位置算出部122は、第1、第2のユーザが視界を共有する場合(すなわち両者が視認可能な位置がある場合)、当該視認可能な位置を投影位置として算出する。後から他ユーザにより投影指示が行われた場合における制御処理の詳細については、後述の各実施例で説明する。
 また、本実施形態による情報処理システムでは、ユーザからの明示的な投影指示が無い場合であっても、アラームや受信メッセージ、おすすめ情報、カレンダーの表示、またはエージェント画像の表示等、システムが自動的(自発的)に情報提示を行うことも想定される。この場合、投影位置算出部122は、投影環境空間の認識結果から適切な投影位置を算出したり(例えば、テレビの近くなど家族の目に留まり易い場所など)、ユーザの位置や姿勢等に応じて算出したりする(例えばユーザの近くやユーザの視線方向など)。
 ・プロジェクタ制御部123
 プロジェクタ制御部123は、投影位置算出部122により算出された投影位置に、所定の画像を投影するよう、駆動プロジェクタ300を制御する。具体的には、プロジェクタ制御部123は、駆動プロジェクタ300の駆動制御(駆動角度の制御など)と、駆動プロジェクタ300から投影する画像の生成と、スピーカ340から出力する音声信号の生成と、を行い得る。
 例えばプロジェクタ制御部123は、駆動する位置を指示する駆動制御信号を生成し、I/F部110から駆動プロジェクタ300に送信する。具体的には、プロジェクタ制御部123は、投影位置算出部122により算出された投影位置に画像を投影できる位置への駆動を指示する駆動制御信号を生成する。
 また、プロジェクタ制御部123は、駆動プロジェクタ300のプロジェクタ310から投影する画像や、スピーカ340から出力する音声信号を生成し、I/F部110から駆動プロジェクタ300に送信する。投影する画像、音声は、エージェント画像、エージェント音声、ユーザのリクエストに応答する各種コンテンツ等が想定される。各種コンテンツは、例えば、画像(動画、静止画)や音楽、音声、テキスト等であり、コンテンツ記憶部160から取得してもよいし、I/F部110を介してネットワーク上から取得してもよい。また、コンテンツは、情報処理装置100やネットワーク上で動作するアプリケーションにより生成される各種表示画面であってもよい。
 以上説明したように、プロジェクタ制御部123は、基本的には、ユーザからの投影指示に従って、駆動プロジェクタ300からの各種コンテンツの出力を制御する。ここで、例えば既に第1のユーザがコンテンツを視聴している際に、後から第2のユーザが異なるコンテンツの投影指示(すなわち新規画面の表示指示)を行った場合、プロジェクタ制御部123は、例えば画面を分割して両方のコンテンツを表示することで、複数ユーザに対してより適切な表示制御を行うことが可能となる。ここで、「新規画面」とは、既に表示している画面とは異なる画面であって、ホームメニューや、任意のアプリケーション画面、エージェントの呼び出し画面等、様々なものが想定される。画面の分割表示の詳細については、後述の実施例において説明する。
 以上、本実施形態による情報処理装置100の構成について具体的に説明した。なお、情報処理装置100の構成は、図3に示す例に限定されず、例えば、情報処理装置100の少なくとも一部の構成が、サーバ等の外部装置により実現されていてもよい。
 また、情報処理装置100は、スマートホーム端末、PC、スマートフォン、タブレット端末、ホームサーバ、エッジサーバ、中間サーバ、またはクラウドサーバ等により実現されてもよい。
  <2-2.駆動プロジェクタ300の構成例>
 続いて、本実施形態による駆動プロジェクタ300の構成例について説明する。
 駆動プロジェクタ300には、出力部として、プロジェクタ310と、スピーカ340とが搭載されている。また、さらに、指向性の高い超音波スピーカが搭載されていてもよい。超音波スピーカは、プロジェクタ310の投影方向と同軸上に設置するようにしてもよい。
 また、駆動プロジェクタ300には、センサ320が設けられている。駆動プロジェクタ300は、各センサ320によりセンシングした情報を、情報処理装置100に出力する。センサ320は、例えば、カメラ、俯瞰カメラ、デプスセンサ、測距センサ、サーモセンサ、およびマイクロホン等であってもよい。本実施形態では、俯瞰カメラとして、視野角の広いカメラを想定し、これにより空間内におけるユーザの位置や向きを把握した上で、さらに、俯瞰カメラよりも視野角の狭い領域を注視するカメラにより、より正確に、ユーザの状況を把握することも可能である。カメラおよび俯瞰カメラは、ズームを行ったり絞りを変更したりするモードを備えていてもよい。
 また、デプスセンサ、測距センサ、またはサーモセンサは、3次元空間認識部121による投影環境の3次元空間認識等に用いられることを想定する。
 また、駆動プロジェクタ300は、駆動機構330を備え、任意の方向に投影したり、任意の方向をセンシングしたりできるよう、プロジェクタ310やセンサ320の向きを変更することが可能である。例えば駆動プロジェクタ300は、情報処理装置100から受信した所定の位置に映像を投影するよう、駆動機構330による駆動制御を行う。なお、本実施形態では、一例としてパン・チルトの2軸駆動機構を想定しているが、向きを変える駆動機構に限定されず、例えば左右上下等に移動可能な機構を併せ持ってもよい。また、本実施形態では、駆動プロジェクタ300自体(若しくは、少なくともプロジェクタ310やセンサ320)を駆動させる機構を想定するが、駆動機構を持つ鏡(駆動ミラー)をプロジェクタ310やセンサ320の前に設置し、鏡の向きを変えることによって投影方向やセンシング方向を変える装置であってもよい。
 また、本実施形態では、図1に示すように、センサ320を、プロジェクタ310と同軸上に搭載し、かつ、駆動機構330により、プロジェクタ310と同時にセンサ320も駆動することを想定するが、本実施形態はこれに限定されず、センサ320とプロジェクタ310は異なる位置に配置されていてもよい。この場合、センサ320とプロジェクタ310との位置関係は既知である。
 以上、本実施形態による駆動プロジェクタ300の構成について具体的に説明した。なお、本実施形態による駆動プロジェクタ300の構成は、図3に示す例に限定されず、例えば、センサ320やスピーカ340が、駆動プロジェクタ300と別体であってもよい。
 <<3.各実施例>>
 続いて、本実施形態による情報処理システムについて、複数の実施例を用いて具体的に説明する。
  <3-1.第1の実施例(投影位置の算出)>
 まず、第1の実施例として、既に第1のユーザにより駆動プロジェクタ300が利用されている際に、第2のユーザから投影指示があった場合に、両ユーザの位置などに応じて、適切な投影位置を算出する場合について、図4~図7を参照して具体的に説明する。
 図4は、本実施例による投影位置の算出処理の流れの一例を示すフローチャートである。図4にしめすように、まず、駆動プロジェクタ300により第1のユーザに画像を投影している際に(ステップS103)、第2のユーザによる投影指示を検出した場合(ステップS106/Yes)、情報処理装置100の投影位置算出部122は、第1、第2の両ユーザが視認可能な位置に画像を投影できるか否かを判断する(ステップS109)。
 第1、第2の両ユーザが視認可能な位置に画像を投影できるか否かは、例えば、センサ320によるセンシングデータに基づく、現在の両ユーザの位置、顔向き、または視線方向等に応じて判断され得る。ポインティングデバイス等の入力装置によって投影位置が指定された場合は、当該指定された投影位置に基づいて判断する。例えば、投影位置算出部122は、各ユーザの顔向き方向と投影可能領域との交差点(投影可能領域上の注視点)(若しくは、第1のユーザが最初に入力装置によって指定した投影先位置と、第2のユーザが後から入力装置によって指定した投影先位置)を全て含む範囲に画像が投影出来る場合、両ユーザが視認可能な位置に画像を投影できると判断する。なお、ユーザが顔や身体の向きを多少変えることで注視点は容易に変化するため、両ユーザの注視点をそれぞれ中心とした所定範囲が重複する場合は、両ユーザが視認可能な位置に画像を投影できると判断してもよい。
 また、投影位置算出部122は、複数ユーザの視聴領域(すなわち視界範囲)を算出し、その重なりから判断を行ってもよい。図5は、視聴領域を算出して、両ユーザが視認可能な位置に画像を投影できるか否かの判断を行う場合について説明する図である。図5左に示すように、例えば投影可能領域に対するユーザの視界の角度(右端角度(R)、左端角度(L)、上端角度(T)、下端角度(B))に基づいて視聴領域200、201を算定し、重なっている場合は、両ユーザが視認可能な位置に画像を投影できると判断する。この場合、図5右に示すように、例えば重なっている領域を含む範囲を投影位置202として決定してもよい。
 また、投影位置算出部122は、視聴領域の算出において、3次元的に視錐台を算出し、その重なり判定に基づいて判断してもよい。人間の視野は、実際には不規則な形状の円錐形であることを考慮し、例えば図6に示すように、前方クリップ面(Near)と、後方クリップ面(Far)との間にある立体(視錐台)を算出し、その重なり判定に基づいて、両ユーザが視認可能な位置に画像を投影できるか否かを判断してもよい。
 このように、視界範囲の算出方法については様々手法があるが、投影位置算出部122は、複数ユーザの視界範囲の少なくとも一部が重なる領域がある場合、複数ユーザが視界を共有できると判断し、かかる重なり領域を含む範囲を投影位置に決定するようにしてもよい。
 また、投影位置算出部122は、(厳密な)視界範囲の重なりに限定されず、例えば空間内における複数ユーザの位置、または、複数ユーザの位置と向きに基づいて、視界を共有できるか否かを判断することも可能である。図7は、部屋の中における複数ユーザの位置と向きに基づく投影位置の算出について説明する図である。
 図7左に示すように、例えば第1のユーザの位置P1と(顔、頭、または身体の)向きV1、および、第2のユーザの位置P2と向きV2に基づいて、向きVが投影可能領域(壁など)と交差する領域221、222が重なる場合、両ユーザが視認可能な位置に画像を投影できると判断する。この場合、かかる重なり領域を含む範囲223を投影位置として決定される。なお、領域221、222の大きさは、予め設定した所定の大きさとしてもよい。一方、図7右に示す例では、領域225、226が重ならず、両ユーザが視認可能な位置に画像を投影することはできないと判断する。この場合、投影位置算出部122は、後述するように、後から投影指示を行った第2のユーザを優先し、領域226を投影位置に決定する。
 また、投影位置算出部122は、第1のユーザが最初に入力装置によって指定した投影先位置と、第2のユーザが後から入力装置によって指定した投影先位置が、同じ投影可能領域面に含まれる場合や、両投影先位置が所定の距離内の場合などは、両ユーザが視認可能な位置に投影可能と判断してもよい。なお、一方が入力装置を用いて投影先位置を指定し、他方が音声やジェスチャにより投影先位置を指定してもよい。
 次いで、両ユーザに視認可能な位置に画像が投影できないと判断した場合(ステップS109/No)、投影位置算出部122は、後から投影指示を行った第2のユーザを優先し、当該第2のユーザの投影指示に従って投影位置を算出する(ステップS112)。すなわち、投影位置算出部122は、第1のユーザの状況を考慮せず、第2のユーザの投影指示に従って適切な投影位置を算出する。
 一方、両ユーザに視認可能な位置に画像を投影できると判断した場合(ステップS109/Yes)、投影位置算出部122は、両ユーザが視認可能な投影位置を算出する(ステップS115)。例えば、上述したように両ユーザの視界範囲の重なり領域を含む範囲を投影位置に決定してもよいし、両ユーザの注視点(または現在の投影位置と入力装置等により指定された投影先位置)の間(例えば中間位置)を中心とした範囲を投影位置に決定してもよい。
 次に、情報処理装置100のプロジェクタ制御部123は、算出した投影位置に向けて駆動プロジェクタ300を駆動するよう制御する(ステップS118)。これにより、算出された投影位置に画像が投影される(すなわち、画像の投影位置が変更される)。
 以上、複数ユーザが駆動プロジェクタ300を利用する場合の投影位置の算出について説明した。なお、図4に示す動作処理の場合、特定のユーザが特定の位置に画像を表示させたい場合、何度投影指示を行っても複数ユーザの中間位置に画像が表示されてしまうといったことが生じ得る。このような場合を考慮し、情報処理装置100の投影位置算出部122は、例えば同じ位置を2回指定された場合、2回目は指定された位置を投影位置に決定するようにしてもよい。若しくは、特定のジェスチャや、初手のキーワード(マジックワード)等を用いて強制的に投影位置を指定できるようにしてもよい。
  <3-2.第2の実施例>
 続いて、第2の実施例について図8~図11を参照して説明する。上述した第1の実施例では、第2のユーザにより投影位置の移動が指示された場合について説明したが、ここでは、第2のユーザによる投影指示が投影内容の変更を伴うもの(すなわち新規画面の呼び出し)であった場合における、より適切な表示制御について説明する。
 より具体的には、例えば図8左に示すように、第1のユーザが駆動プロジェクタ300を利用して画像230を視聴している場合に、後から第2のユーザが新規画面の呼び出しを伴う投影指示を行った場合を想定する。新規画面の呼び出しを伴う投影指示とは、画像230と異なる画面の呼び出しであって、例えば、エージェント名の呼び掛けによるエージェント画面の呼び出し等が想定される。また、ポインティングデバイス等の入力装置を用いる場合、新規画面を呼び出すか、単純に現在投影されている画像の位置を変更するかの指示は、例えば入力装置に設けられたボタンやスイッチの操作により行ってもよいし、入力装置に設けられたマイクに対して音声により入力してもよい。若しくは、入力装置に設けられたタッチパッド上でジェスチャ操作するといった別の方法で実現してもよい。
 この場合、両ユーザが視界を共有できる場合であれば、図8右上に示すように、両者の間に、第1のユーザが視聴していた画像と第2のユーザが呼び出した新規画像とを含む分割画像231を表示することで、両者の要望に対応することが可能となる。
 なお、両ユーザが視界を共有できない場合は、図8右下に示すように、後から操作指示を行った第2のユーザを優先し、第2のユーザが呼び出した新規画像を表示する画像234を、第2のユーザにより指定された位置に表示する。
 このように、両ユーザが視界を共有できる場合であれば、後から他ユーザにより異なる画面を呼び出された場合であっても、先に視聴していたユーザは分割画面で視聴を続けることが可能となる。
 以下、本実施例の動作処理について図9を参照して説明する。図9は、本実施例による分割表示を可能とする表示制御処理の流れの一例を示すフローチャートである。
 図9に示すように、まず、駆動プロジェクタ300により第1のユーザに画像を投影している際に(ステップS203)、第2のユーザによる投影指示を検出した場合(ステップS206/Yes)、情報処理装置100の投影位置算出部122は、第1、第2の両ユーザが視認可能な位置に画像を投影できるか否かを判断する(ステップS209)。判断手法については、第1の実施例と同様である。第2のユーザによる投影指示は、第1の実施例と同様に、発話音声、ジェスチャ、またはポインティングデバイス等の入力装置の利用により行われてもよい。
 次いで、両ユーザに視認可能な位置に画像が投影できないと判断した場合(ステップS209/No)、投影位置算出部122は、後から投影指示を行った第2のユーザを優先し、当該第2のユーザの投影指示に従って投影位置を算出する(ステップS212)。
 次に、プロジェクタ制御部123は、算出した投影位置に駆動プロジェクタ300を向けるよう駆動制御信号を生成してI/F部110から駆動プロジェクタ300に送信し、プロジェクタ駆動制御を行う(ステップS215)。
 次いで、第2のユーザによる投影指示が、新規画面の投影指示である場合(ステップS218/Yes)、プロジェクタ制御部123は、新規画面を第2のユーザの指示に従った投影位置に投影するよう制御する(ステップS221)。
 一方、第2のユーザによる投影指示が、新規画面の投影指示ではない場合(ステップS218/No)、プロジェクタ制御部123は、元画面(上記ステップS203で既に投影していた画像)を第2のユーザの指示に従った投影位置に投影するよう制御する(ステップS224)。
 なお上記ステップのうち、ステップS212~S215と、ステップS218~S224は、図9に示す順番で処理することに限定されず、並行に処理してもよいし、逆の順番で処理してもよい。
 また、両ユーザに視認可能な位置に画像が投影できると判断した場合(ステップS209/Yes)、投影位置算出部122は、第1、第2のユーザが視認可能な投影位置を算出する(ステップS227)。算出手法の具体例は、例えば第1の実施例と同様である。
 次に、プロジェクタ制御部123は、算出した投影位置に駆動プロジェクタ300を向けるよう駆動制御信号を生成してI/F部110から駆動プロジェクタ300に送信し、プロジェクタ駆動制御を行う(ステップS230)。
 次いで、第2のユーザによる投影指示が、新規画面の投影指示である場合(ステップS233/Yes)、プロジェクタ制御部123は、新規画面と元画面を含む分割画像を、両者の視認可能な投影位置に投影するよう制御する(ステップS236)。
 一方、第2のユーザによる投影指示が、新規画面の投影指示ではない場合(ステップS233/No)、プロジェクタ制御部123は、元画面(上記ステップS203で既に投影していた画像)を両者の視認可能な投影位置に投影するよう制御する(ステップS239)。
 なお上記ステップのうち、ステップS227~S230と、ステップS233~S239は、図9に示す順番で処理することに限定されず、並行に処理してもよいし、逆の順番で処理してもよい。
 (変形例1:画面を戻す制御)
 以上説明した第1、第2の実施例では、両ユーザが視認可能ではない場合、後から操作を行った第2のユーザを優先して投影位置や投影内容が変更されるが、第2のユーザの使用が、スケジュール確認や天気予報、交通情報の確認等、比較的短時間の場合も想定される。一方、先に使用していた第1のユーザは映画やドラマなど比較的長時間のコンテンツを視聴していた場合、第2のユーザの使用がすぐに終われば、引き続きコンテンツを視聴したいといったことが想定される。
 情報処理装置100は、いつ誰がどのようなコンテンツを視聴しているか、若しくは、他ユーザによる操作で画面が移動させられてしまったユーザの視聴履歴等を記録しておき、適宜画面を戻す制御を可能とする。
 例えば、第2のユーザの使用が終わり、第1のユーザが投影位置を戻すよう指示を行った場合、情報処理装置100は、第1のユーザが直前まで見ていたコンテンツの画面を、指示された位置に表示するよう制御する。なお、第2のユーザが見ていた画面を見たい場合も想定されるため、元画面の表示が明示的に指示された場合に、画面の復元を行うようにしてもよい。例えば、「さっき表示していた画面を表示して」といった音声による明確な指示や、ポインティングデバイスにおける特定のボタンの操作等が想定される。
 また、情報処理装置100は、第2のユーザが一定時間画面を見ていない、またはインタラクションを行っていない場合、タイムアウトにより第1のユーザに画面を自動的に戻すことも可能である。若しくは、情報処理装置100は、第2のユーザが呼び出したコンテンツの内容や指示内容に応じて、一定時間で完結する割り込み作業と判断し、所定時間経過後に第1のユーザに画面を戻すようにしてもよい。具体的には、天気予報や交通情報等の特定のコンテンツの場合、一定時間で完結する割込み作業と判断してもよいし、「ちょっと時間をみせて」、「少し見せて」など、少しの時間使用できればよいことが音声から認識できた場合、一定時間で完結する割込み作業と判断してもよい。また、第2のユーザが明示的な終了処理を行った場合(例えば音声で「ありがとう」、「もう大丈夫」など。特定のジェスチャ、特定のボタン操作等)、情報処理装置100は、第1のユーザに画面を戻すようにしてもよい。
 (変形例2:テーブル上での表示変更)
 情報処理装置100は、複数ユーザが視界を共有できる場合の投影位置の変更に関し、視界など視野角に基づく判断に限定されず、ユーザの位置に応じて判断してもよい。例えば図10に示すように、駆動プロジェクタ300がテーブル上に画像240を投影する場合、テーブルを取り囲む複数ユーザの位置に基づいて(例えば中央に)、投影位置を変更してもよい。
 また、分割表示は、図8に示すようなside by sideに限定されず、例えば図11に示すように、駆動プロジェクタ300がテーブル上に画像242を投影する場合、テーブルを取り囲む複数ユーザの位置に応じて、画像242を任意に分割してもよい。また、情報処理装置100は、ユーザの位置に応じて、画像の天地を考慮したり、空間的な位置関係を考慮してもよい。
 (変形例3:複数の駆動ミラーを用いた分割投影)
 駆動プロジェクタ300は、パン・チルトで駆動するものに限定されず、パン・チルト駆動する鏡(以下、駆動ミラーと称す)をプロジェクタ前方に設置し、投影位置を任意に変更することが可能である。また、複数の駆動ミラーを用いて、プロジェクタ投影画像の一部を各駆動ミラーでそれぞれ反射させることで、複数ユーザに各々画像を提示することも可能である。以下、図12を参照して説明する。
 図12は、本変形例による複数の駆動ミラーを用いた分割表示の一例について説明する図である。図12に示すように、プロジェクタ310の前方に、複数の駆動ミラー311a、311bを配置し、プロジェクタ310から投影した投影画像245の各鏡反射領域245a、245bをそれぞれ反射させることで、異なる場所に異なる投影画像245A、245Bを表示させることが可能となる。投影画像245に含まれる各鏡反射領域245a、245bは、駆動ミラーの反射および投影場所の平面形状に応じて台形補正される。また、ここでは一例として2枚の駆動ミラーを用いたが、本変形例はこれに限定されず、3枚以上の駆動ミラーを設けて、適宜任意の位置に画像を投影するようにしてもよい。また、駆動ミラーの枚数と配置を調整し、異なる投影画像を3カ所以上に表示させることも可能である。
  <3-3.第3の実施例>
 次に、第3の実施例について図13~図14を参照して説明する。本実施例では、駆動プロジェクタ300を先に利用していた第1のユーザに、第2のユーザの投影指示に応じた投影位置の変更を任意にキャンセルできる権限を与えることで、第1のユーザが意図しない表示移動を防止することを可能とする。
 また、情報処理装置100は、第1のユーザへのキャンセル操作の通知を、第1のユーザの状況に応じて実行するか否か決定することで、キャンセルの必要がない場合はキャンセル操作の通知を行わないようにしてもよい。これにより、迅速に第2のユーザの指示に応じて駆動プロジェクタ300を駆動制御することができ、キャンセル操作の待ち時間を発生させないようにすることができる。例えば、情報処理装置100は、後から投影指示を行った者が、先に投影指示を行った者と同一人物である場合は、キャンセル操作の通知を行わず、すぐに駆動プロジェクタ300を駆動させる。また、先に投影指示を行った者が、投影画像を見ていない、操作していない、近くに居ない等、既に駆動プロジェクタ300を利用していない状況の場合には、キャンセル操作の通知を行わず、すぐに駆動プロジェクタ300を駆動させる。
 (動作処理)
 本実施例によるキャンセル操作処理の流れの一例を、図13に示す。図13に示すように、まず、情報処理装置100は、ユーザからの投影位置変更指示を受け付けると(ステップS303)、プロジェクタの選択を行う(ステップS306)。投影位置変更指示は、上述したように、「ここに表示して」、「[エージェント名]!」、「カレンダーを見せて」等の発話音声や、所定のジェスチャ、また、ポインティングデバイス等の入力装置による操作入力が想定される。また、情報処理装置100は、ユーザに指示された位置に投影可能な(例えば画角、輝度等が好ましい)プロジェクタを選択する。駆動プロジェクタ300が複数ある場合、情報処理装置100は、ユーザに指示された位置に投影可能なプロジェクタを一つ選択する。
 次に、情報処理装置100は、選択したプロジェクタを使用している他ユーザが居るか否かを判断する(ステップS309)。具体的には、情報処理装置100は、選択したプロジェクタにより投影している画像を見ている(顔向きや視線方向が向いている)ユーザがいるか否かを、センサ320のカメラにより撮像された撮像画像等に基づいて判断する。また、情報処理装置100は、選択したプロジェクタにより投影している画像の近くにユーザが居るか否か、若しくは、最後に操作されてから一定時間以上経過しているか否か等に基づいて、使用中か否かを判断してもよい。
 次いで、選択したプロジェクタを使用している他ユーザ(現利用者)が居る場合(ステップS309/Yes)、情報処理装置100は、当該使用中の他ユーザに、キャンセル通知画面を提示する制御を行う(ステップS312)。例えば情報処理装置100は、キャンセル通知画面を駆動プロジェクタ300により現在他ユーザが見ている投影位置に表示する。例えば、他ユーザが、駆動プロジェクタ300により投影されている映画コンテンツを見ていた場合、情報処理装置100は、当該映画コンテンツを一時停止し、当該映画コンテンツの画面上にキャンセル通知画面を表示するようにしてもよい。ここで、図14に、本実施例によるキャンセル通知画面の一例を示す。キャンセル通知画面は、例えば図14に示すように、キャンセル受付終了までのカウントダウンを示すものであってもよい。これに対し、駆動プロジェクタ300を使用中の他ユーザは、所定のキーワードの発話(「キャンセル!」など)や、ジェスチャ(机を叩く、キャンセル通知画面をタップする、など)により、キャンセル操作(割込みキャンセルを指示する操作)を行う。
 次に、情報処理装置100は、所定時間が経過するまで(タイムアウトするまで)、キャンセル操作の受け付けを待つ(ステップS327)。
 次いで、他ユーザによるキャンセル操作を受け付けた場合(ステップS315/Yes)、情報処理装置100は、選択したプロジェクタが使用できないため、他に候補となる(投影可能な)プロジェクタを選択する(ステップS318)。
 次に、他のプロジェクタが無かった場合(ステップS318/No)、情報処理装置100は、投影位置変更ができない旨を、ユーザへフィードバックする(ステップS321)。ユーザの視覚に入る位置にプロジェクタ表示領域があれば、視覚的なフィードバックを行っても良いし、なければ音によるフィードバックを行ってもよい。また、ユーザが、ポイティングデバイス等の入力装置を把持している場合は、当該入力装置からフィードバック(音、振動、光等)を行ってもよい。
 一方、他のプロジェクタが有った場合(ステップS318/Yes)、情報処理装置100は、(投影位置変更指示を行った)ユーザに、(現利用者による)キャンセル操作が発生した旨をフィードバックすると共に(ステップS324)、次のプロジェクタを選択し(ステップS306)、上記ステップS309~S318の処理を繰り返す。
 このように、キャンセル操作が行われた場合には別の投影可能なプロジェクタを探索するため、複数のプロジェクタがある場合に、複数ユーザの意図に沿った適切なプロジェクタを選択することが可能となる。ユーザは、どのプロジェクタを使用するか明示的に指示する必要がなく、操作の手間を減らすことができる。
 また、現利用者によるキャンセル操作が行われずにタイムアウトした場合(ステップS327/Yes)、情報処理装置100は、選択したプロジェクタを、ユーザの投影位置変更指示に従って駆動させる制御を行う(ステップS330)。
 なお、ここでは一例としてタイムアウトによりキャンセル無しの判断を行っているが、本実施例はこれに限定されず、例えばキャンセル通知画面にYes/Noの2択を表示して利用者に選択させてもよい。また、図14に示すキャンセル通知画面の構成は一例であって、本実施例はこれに限定されず、別の表現を用いてもよい。
  <3-4.第4の実施例(フィードバック)>
 次に、第4の実施例について説明する。本実施例では、第1のユーザが駆動プロジェクタ300を利用中に第2のユーザにより投影位置変更指示が行われた際、第1のユーザと第2のユーザのいずれを優先するかに応じて、それぞれの状況を適宜各ユーザに通知(フィードバック)する。これにより、複数人環境下におけるプロジェクタの操作を、より快適に行えるようにする。以下、図15~図17を参照して具体的に説明する。
 (先行者優先)
 図15は、先行者優先時におけるフィードバックについて説明する図である。図15には、操作の有無、プロジェクタの制御、第1のユーザ(先行者)へのフィードバック(FB)、および第2のユーザ(後行者)へのFBのタイミングについて時系列で示している。
 本明細書において、「先行者優先」とは、先にプロジェクタを操作(利用)していた人が優先的に当該プロジェクタを利用できることを意味する。情報処理装置100は、先行者優先に設定されている場合、あるユーザが駆動プロジェクタ300を利用してから(例えば映画コンテンツを視聴するなど)一定時間は、そのユーザ(先行者)が優先的に駆動プロジェクタ300を利用できるようにする。従って、後から他のユーザ(後行者)が操作入力を行っても(例えば、「ここにカレンダーを表示して」、「こっちに見せて」等の投影変更指示など)、その操作を無効とする。この場合、後行者は、なぜ操作が無効となったのかわからず困惑する場合がある。そこで、情報処理装置100は、図15にも示すように、後から操作したユーザ(後行者;第2のユーザ)に、今操作できないことをフィードバックする。第2のユーザへのフィードバックは、第2のユーザの視野に映像を投影できるプロジェクタが他にあれば視覚的なフィードバックを行ってもよいし、なければ音でフィードバックを行う。また、第2のユーザが、ポインティングデバイス等の入力装置を利用している場合は、当該入力装置から振動、光、音等のフィードバックを行ってもよい。
 また、図15に示すように、他のユーザにより操作が行われたことを、先行者(第1のユーザ)にフィードバックしてもよい。例えば、第1のユーザにはプロジェクタが割り振られているため、当該プロジェクタによる映像でフィードバックでもよいし、音によるフィードバックを行ってもよい。
 このように、第1、第2のユーザにそれぞれ状況を通知することで、第1、第2のユーザ間の意思疎通を図ることができ、ユーザ間の対話を通じたプロジェクタ操作が実現される。例えば、先行者は操作権の破棄と譲渡を行うことができ、所定の音声発話、ジェスチャ、UIに対するタッチ操作、入力装置のボタン操作等により、後行者に操作権を渡すことが可能である。
 (後行者優先)
 図16は、後行者優先時におけるフィードバックについて説明する図である。図16には、操作の有無、プロジェクタの制御、第1のユーザ(先行者)へのFB、および第2のユーザ(後行者)へのFBのタイミングについて時系列で示している。
 本明細書において、「後行者優先」とは、先にプロジェクタを操作(利用)している人がいる場合でも、後から操作を行った人が優先的に当該プロジェクタを利用できること(操作権を取得することができること)を意味する。情報処理装置100は、後行者優先に設定されている場合、あるユーザが駆動プロジェクタ300を利用していても、後から他のユーザにより投影先変更指示が行われた場合、指示に従って投影先の変更を行うよう駆動プロジェクタ300の駆動等を制御する。なお、上述した第1、第2の実施例では、両ユーザが視認可能な投影位置がない場合に、後行者の投影先変更指示に従って駆動プロジェクタ300を駆動するため、一部に後行者優先を採用していると言える。
 情報処理装置100は、図16に示すように、後行者である第2のユーザから操作があった場合、第2のユーザの操作に応じてプロジェクタを駆動し、第2のユーザに画像を提示する。この際、情報処理装置100は、先にプロジェクタを利用し、第2のユーザに取られてしまった第1のユーザに対しては、第2のユーザが操作を行ったため、表示が移動したことを通知する。かかる通知は、表示を移動する前に、プロジェクタで第1のユーザに提示してもよい。
 一方、第2のユーザに対しては第1のユーザが操作(使用)していたことを通知してもよい。第2のユーザへの通知は、表示を移動させた後に、プロジェクタで提示してもよい。
 (共有優先)
 図17は、共有優先時におけるフィードバックについて説明する図である。図17には、操作の有無、プロジェクタの制御、第1のユーザ(先行者)へのフィードバック(FB)、および第2のユーザ(後行者)へのFBのタイミングについて時系列で示している。
 本明細書において、「共有優先」とは、第1、第2の実施例で説明したように、先にプロジェクタを操作(利用)している人がいる状況において、後から当該プロジェクタを操作する人が現れた場合に、両ユーザが視認可能な場所に画像を投影し、当該プロジェクタを共有させることを意味する。
 情報処理装置100は、図17に示すように、第1のユーザの操作に応じてプロジェクタによる表示を行っている際に、第2のユーザから操作があった場合、第1、第2のユーザが視認可能な位置に表示するようプロジェクタを駆動制御する。この際、情報処理装置100は、第1のユーザに対しては、第2のユーザが操作したことを通知し、第2のユーザには、第1のユーザが操作(利用)していたことを通知する。これらの通知は、いずれも、例えば表示を移動させた後にプロジェクタで提示することが可能である。
  <3-5.第5の実施例(優先ルール設定)>
 続いて、第5の実施例について説明する。上記第4の実施例において、先行者優先、後行者優先、および共有優先についてそれぞれ説明したが、本実施形態は、これらの優先ルールのうち、少なくともいずれかを適用するよう予め決定していてもよいし、状況に応じて適宜決定するようにしてもよい。例えば情報処理装置100は、先行者が見ているコンテンツ(プロジェクタにより投影しているコンテンツ)や、後行者がリクエストしたコンテンツ(新規画面の呼び出し)に応じて、適切な優先ルールを適宜設定する。より具体的には、例えば通常は後行者優先に設定し、先行者に映画等のコンテンツ(他のユーザに容易に操作権を取られることは好ましくないコンテンツ)を提示している場合は、先行者優先に設定する。
 (動作処理)
 このような本実施例による動作処理について、図18を参照して具体的に説明する。図18は、本実施例による駆動制御処理の流れの一例を示すフローチャートである。
 図18に示すように、まず、情報処理装置100は、投影先変更指示を検出した場合(ステップS403/Yes)、強制的な投影先変更指示であるか否かを判断する(ステップS406)。強制的な投影先変更とは、例えば、所定のキーワード(マジックワード)の発話や、特定のジェスチャ、また、入力装置のボタン等により可能であり、指定した位置に強制的にプロジェクタを移動させる例外的な操作を指す。
 次に、強制的な投影先変更指示ではない場合(ステップS406/No)、情報処理装置100は、優先ルールの設定を行う(ステップS409)。例えば情報処理装置100は、先にプロジェクタを利用しているユーザが、映画視聴等、他のユーザに容易に取られるのが好ましくないコンテンツを提示している場合は「先行者優先」を設定し、そのようなコンテンツ以外を提示している場合は、「後行者優先」または「共有優先」を設定する。「共有優先」は、例えば後行者の投影指示が位置変更のみであり、新規画面の呼び出し(画面の切り替え)ではない場合に設定するようにしてもよいし、両者が比較的に近くに位置している場合など、両者が視認可能な投影位置がある可能性が高い状況の場合に設定するようにしてもよい。また、情報処理装置100は、「先行者優先」または「共有優先」が適切な状況ではない場合に、「後行者優先」を設定するようにしてもよい。また、情報処理装置100は、部屋に一人しかいない場合など、プロジェクタを利用する者が一人であると推定できる場合、「後行者優先」を設定するようにしてもよい(先行と同一の者による指示となり、迅速に駆動させることが好ましいため)。
 次いで、「先行者優先」に設定した場合(ステップS409/先行者優先)、情報処理装置100は、後行者に対して、操作がキャンセルされたことを通知(フィードバック)し、処理を終了する(ステップS412)。
 また、「共有優先」に設定した場合(ステップS409/共有優先)、情報処理装置100は、両者が視認可能な位置に投影できるか否かを判断する(ステップS415)。
 また、「後行者優先」に設定した場合(ステップS409/後行者優先)、または、「共有優先」に設定されたが両者が視認可能な位置に投影できないと判断された場合(ステップS415/No)、情報処理装置100は、後行者の指示に従って投影位置を算出する(ステップS418)。なお、強制的な投影先変更指示である場合(ステップS406/Yes)も同様に、情報処理装置100は、後行者の指示に従って投影位置を算出する。
 一方、「共有優先」に設定され、両者が視認可能な位置に投影できると判断された場合(ステップS415/Yes)、情報処理装置100は、両者が視認可能な投影位置を算出する(ステップS421)。
 続いて、情報処理装置100は、算出した投影位置に投影可能なプロジェクタがある否かを判断する(ステップS424)。
 次に、算出した投影位置に投影可能なプロジェクタがある場合(ステップS424/Yes)、情報処理装置100は、選定したプロジェクタによる投影画像を現在見ている人(すなわち、利用している人)がいるか否かを判断する(ステップS427)。利用している人がいるか否かの判断処理は、例えば図13のステップS309で示す判断処理と同様である。
 次いで、選定したプロジェクタによる投影画像を現在見ている人がいる場合(ステップS427/Yes)、情報処理装置100は、現在使用中のユーザに対してキャンセル受付処理を行うか否かを判断する(ステップS430)。キャンセル操作処理とは、第3の実施例を参照して説明した内容と同様であり、情報処理装置100は、後行者による操作に基づく表示の移動をキャンセルさせる時間を先行者に与えるか否かを判断する。情報処理装置100は、例えば状況に応じてキャンセル受付処理を行うか否かを判断する。具体的には、例えばユーザ同士が隣り合っていたり、距離が近い場合などユーザ間で投影変更に関する何らかの話し合いが既に持たれていると想定できる場合、または、ユーザ間で既に投影変更の合意が取られていることをユーザ間の会話を音声認識して把握できている場合、若しくは、先行者が子供など所定の対象外の人物である場合等は、キャンセル受付処理を行わず、それ以外の場合は、キャンセル受付処理を行うと判断してもよい。
 また、部屋に一人しかいない場合など、一人で複数のプロジェクタを操作している状況の場合は、キャンセル受付処理を行わないと判断してもよいし、ユーザが複数のプロジェクタ全てを利用(注視)している場合、適切なプロジェクタ(ユーザが利用を中止してもよいと思っているコンテンツを投影しているプロジェクタ)を選択するため、キャンセル受付処理を行うようにしてもよい。
 次に、キャンセル受付処理を行うと判断し(ステップS430/Yes)、先行者にキャンセル通知画面を提示し(図14参照)、キャンセル操作が行われた場合(ステップS433/Yes)、情報処理装置100は、他に候補となるプロジェクタを探す(ステップS436)。
 そして、他に候補となるプロジェクタがない場合(ステップS436/No)、または、上記ステップS424で、算出した投影位置に投影可能なプロジェクタがない場合(ステップS424/No)、投影変更できない旨を後行者に通知する(ステップS439)。
 一方、他に候補となるプロジェクタがある場合(ステップS436/Yes)、情報処理装置100は、操作がキャンセルされたことを後行者に通知すると共に(ステップS442)、次のプロジェクタを選択し、上記ステップS424以降の処理を繰り返す。
 また、キャンセル操作を受け付けなかった場合(すなわち先行者によるキャンセル操作が行われなかった場合)(ステップS433/No)、また、上記ステップS427で選定したプロジェクタによる投影画像を現在見ている人がいなかった場合(ステップS427/No)、若しくは、上記ステップS430でキャンセル受付処理を行わないと判断された場合(ステップS430/No)、情報処理装置100は、上記ステップS418やS421でそれぞれ算出した投影位置に向けてプロジェクタを駆動させる制御を行う(ステップS445)。
 <<4.応用例>>
 以上説明した実施形態では、駆動プロジェクタ300を用いた画像表示について説明しているが、本実施形態はこれに限定されず、例えば、眼鏡型のシースルーHMDのように、他の表示デバイスを用いた画像表示に適用してもよい。例えば、複数人が眼鏡型のシースルーHMDを装着して実空間に重畳表示されるARコンテンツを共有している状況において、ARコンテンツの表示位置の変更指示が行われた場合に本実施形態を適用し得る。具体的には、例えばARコンテンツの表示位置の変更指示が行われた場合、先に当該ARコンテンツを利用(操作、視聴等)していた第1のユーザと、変更指示を行った第2のユーザとが視認可能な位置(2人の間等、複数人に好適な位置)に移動するようにしてもよい。また、他の表示デバイスとしては、例えば移動型のディスプレイ付きロボットも想定される。具体的には、例えばディスプレイ付きロボットの位置の変更指示が行われた場合、先に当該ロボットを利用(操作、視聴等)していた第1のユーザと、変更指示を行った第2のユーザとが視認可能な位置(2人の間等、複数人に好適な位置)に移動するようにしてもよい。
 また、本実施形態は、表示位置の移動に伴って、スピーカや、音源定位位置を移動させることも可能である。スピーカは、駆動プロジェクタ300に設けられていてもよいし、別体であってもよい。また、スピーカは、音を定位させることが可能な超音波スピーカであってもよく、表示位置が複数人に好適な位置に移動された際、複数人にとって好適な位置に音を定位させることが可能である。
 また、上述した実施形態では、ユーザの位置等に応じて、投影位置を決定しているが、本実施形態はこれに限定されず、例えば複数の投影位置を事前にプリセットで決定しておき、ユーザの位置等に応じて、これら事前に用意した複数の投影位置から選択するようにしてもよい。また、ユーザがよく利用する投影位置がある場合、ユーザの位置に応じてそのようなよく利用する投影位置に決定するようにしてもよい。例えば、ユーザがソファーに座っている場合はテレビの上を投影位置とすることが多い場合、ユーザがソファーに座っている状態で「カレンダーを見せて」等の投影指示を行った際、情報処理装置100は、テレビの上を投影位置に決定する。
 また、情報処理装置100は、複数人に好適な位置に映像を表示する代わりに、ユーザに移動を促して、結果的に複数人に好適な位置に映像を表示するようにしてもよい。この際、情報処理装置100は、一人を移動させてもよいし、例えば、ダイニングテーブルなど複数人で見やすい場所(例えば画角を大きく出来そうな場所)に表示して、室内の人をダイニングテーブルに移動するように促してもよい。
 また、情報処理装置100は、後から操作した人が指示した投影位置や、複数人が視認可能な位置が、投影に適さない場合(例えば明るすぎる場所や平面ではない場所、ドアなど人の出入りがある場所等、投影環境が好ましくない場所)、その場所を避けて表示するようにしてもよい。
 また、情報処理装置100は、分割表示を行う場合、コンテンツに応じて分割比率を変えてもよい。例えば、エージェントを呼び出すだけであれば、元のコンテンツは大きく表示し、エージェントの画像は隅に小さく表示するようにしてもよい。
 また、情報処理装置100は、複数人にとって好適な位置に映像を表示できない場合、若しくは、後から指定した人がプロジェクタ以外の表示デバイスを利用できる場合、プロジェクタ以外の表示デバイスに映像を表示するようにしてもよい。例えば、後から投影位置の変更を指示した人の近くに、テレビやスマートフォン等がある場合、それらの表示デバイスにコンテンツを表示するようにしてもよい(この場合、元のコンテンツの投影位置は変更しない)。
 また、複数人にとって好適な位置に分割表示している際に、そのうちの一人がいなくなった場合、情報処理装置100は、分割を解除して、まだ残っている人にとって好適なコンテンツの比率を大きくするようにしてもよい。
 また、ユーザ間の同意があれば、画面分割やフルスクリーンなどを切り替えてもよい。
 また、事前にユーザ間に重みをつけてもよい。例えば、親と子供であれば親の方の重みを強くすることで、大人と子供がいる場合に、大人よりの位置に映像を投影するようにしたり、分割表示の際に大人が見ているコンテンツの方の分割比率を大きくするようにすることができる。また、小さな子供や来客など、プロジェクタの操作者となりえない対象者は重みを0として、これらの者の位置や操作は、システムに反映しないようにしてもよい。
 また、投影位置の指示は、手で触れられるオブジェクト(実物体)を用いて行ってもよい。例えばユーザがテーブルに所定のオブジェクトを置いた場合、テーブル(さらにはオブジェクトの近く)に表示(投影)するようにしてもよいし、ユーザが当該オブジェクトを別の人に手渡し、別の場所に置かれた場合、その置かれた場所に表示するようにしてもよい。
 また、投影場所が移動された他のコンテンツが表示された場合であっても、元の表示位置に戻した場合、元のコンテンツが表示されるようにしてもよい。
 また、操作者の属性に応じて適宜処理を変更してもよい。例えば高齢者が利用している場合、キャンセルの待ち時間(カウントダウン)を長くするようにしてもよい。
 また、操作者の状態に応じて適宜処理を変更してもよい。例えばユーザが投影画像に視線を向けていない場合(少し目を離している場合など)、キャンセルの待ち時間を長くするようにしてもよい。また、操作に慣れているユーザの場合、キャンセルの待ち時間を短くするようにしてもよい。
 また、先行者優先ルールは、映画以外のコンテンツに適用してもよい。例えば、パスワード入力やメッセージの作成のように、文字を入力している場合や、通話を行っている場合、先行者優先ルールを適用するようにしてもよい。
 また、明示的に、表示画像の移動を禁止する操作が行われた場合、先行者優先ルールを適用するようにしてもよい。
 また、時間帯によって適宜処理を変えてもよい。例えば、夜の場合、子供には操作権を渡さないようにしたり、大人による操作を優先する大人優先ルールを適用するようにしてもよい。
 また、本実施形態によるプロジェクタが、駆動ミラー(ガルバノミラー)を用いて、時分割方式により複数個所に同時に投影を行うことが可能な構成を有する場合、移動元の画面と移動先の画面とのduty比を変えることで、表示内容のプライオリティを変えることが可能である。図19に、駆動ミラーを用いて時分割方式により複数個所に同時に映像を投影するプロジェクタを用いた場合について説明する図を示す。図19に示すように、例えば駆動ミラー312a、312bを高速で駆動させると共に、表示映像を切り替えることで、テーブル上と壁といった複数の個所に異なる映像を投影することが可能となる。この際、情報処理装置100は、例えば第1のユーザに対して画像250を表示している際に、第2のユーザによる投影位置の変更(壁への表示)が指示された場合、画像250の明るさを徐々に下げると共に、第2のユーザに対して表示する画像252の明るさを徐々に上げるよう制御してもよい(明るさの制御は、例えば時分割の割り当てにより調整可能である)。また、情報処理装置100は、画像250にキャンセル通知画面を表示し、第1のユーザによるキャンセル操作待ち時間の間、第2のユーザに対しては、薄く画像252を表示させておくことで、待ち時間の間も第2のユーザに対して操作のフィードバック(投影位置変更操作がシステム側できちんと認識されていること)を提示することが可能となる。
 また、キャンセル操作に関し、上述した実施形態では、キャンセル通知画面を表示しているが、本実施形態はこれに限定されず、例えば、第2のユーザにより投影変更指示があった際に、表示画像は移動先に遷移させた上で、先に操作していた第1のユーザに対しては、音によりキャンセル操作のカウントダウンを通知するようにしてもよい。キャンセル通知の音声は、例えば指向性スピーカを用いて、移動前の表示位置に音源定位させてもよい。情報処理装置100は、音声やジェスチャ等によりキャンセル操作が行われた場合は、表示画像を元の位置に戻すようプロジェクタを制御する。
 <<5.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、複数人に利用される表示システムにおいて、ユーザからの表示指示に対し、より適切な表示制御を行うことが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した情報処理装置100、または駆動プロジェクタ300に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置100、または駆動プロジェクタ300の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定する制御部を備える、情報処理装置。
(2)
 前記現在の表示状況は、表示位置または表示内容を含む、前記(1)に記載の情報処理装置。
(3)
 前記制御部は、
  前記ユーザからの表示指示が、前記現在の表示位置の移動である場合、前記ユーザと前記他のユーザとが視認可能な領域に表示位置を移動させる制御を行う、前記(1)または前記(2)に記載の情報処理装置。
(4)
 前記制御部は、
  前記ユーザの位置と前記他のユーザの位置に基づいて、前記視認可能な領域を判断する、前記(3)に記載の情報処理装置。
(5)
 前記制御部は、
  さらに、前記ユーザの向きと前記他のユーザの向きを考慮して、前記視認可能な領域を判断する、前記(4)に記載の情報処理装置。
(6)
 前記制御部は、
  前記ユーザの視界範囲と前記他のユーザの視界範囲の重なりに基づいて、前記視認可能な領域を判断する、前記(3)に記載の情報処理装置。
(7)
 前記制御部は、
  前記現在の表示位置と、前記ユーザからの表示指示に応じた表示位置との間に、表示位置を移動させる制御を行う、前記(2)に記載の情報処理装置。
(8)
 前記制御部は、
  前記ユーザからの表示指示が、前記現在の表示内容の変更である場合、前記ユーザと前記他のユーザとが視認可能な領域に表示位置を移動させると共に、前記現在の表示内容と前記ユーザからの表示指示に応じた表示内容とを含む分割画面を表示する制御を行う、前記(2)~前記(7)のいずれか1項に記載の情報処理装置。
(9)
 前記制御部は、
  前記ユーザと前記他のユーザとが視認可能な領域が無い場合、前記ユーザからの表示指示に応じた表示位置に表示位置を移動させると共に、前記ユーザからの表示指示に応じた表示内容を表示する制御を行う、前記(2)~前記(8)のいずれか1項に記載の情報処理装置。
(10)
 前記制御部は、
  前記ユーザからの表示指示に応じて表示位置および表示内容を変更した後、所定のタイミングで、表示位置および表示内容を元に戻す処理を行う、前記(3)~前記(9)のいずれか1項に記載の情報処理装置。
(11)
 前記制御部は、
  前記ユーザからの表示指示に応じて表示位置を変更する際、前記他のユーザにキャンセル操作の通知を行う、前記(1)~前記(10)のいずれか1項に記載の情報処理装置。
(12)
 前記制御部は、
  前記他のユーザによりキャンセル操作が行われた際、前記表示位置の変更を中止する、前記(11)に記載の情報処理装置。
(13)
 前記制御部は、
  前記表示位置の変更を中止した際、前記ユーザからの表示指示に対応する他の表示装置を探索する、前記(12)に記載の情報処理装置。
(14)
 前記制御部は、
  前記ユーザからの表示指示に応じて表示位置を移動させた際、前記他のユーザに対して表示移動を通知する、前記(1)~前記(13)のいずれか1項に記載の情報処理装置。
(15)
 前記制御部は
  前記ユーザからの表示指示に対し、前記他のユーザを優先して表示を継続する場合、前記ユーザに対して、操作を受け付けることができない旨を通知する、前記(1)~前記(13)のいずれか1項に記載の情報処理装置。
(16)
 前記制御部は、
  後から指示を行った前記ユーザを優先する表示制御と、
  先に視聴していた前記他のユーザを優先する表示制御と、
  前記ユーザと前記他のユーザの共有を優先する表示制御と、
 の少なくともいずれかを、前記現在の表示状況に応じて設定する、前記(1)~前記(15)のいずれか1項に記載の情報処理装置。
(17)
 前記制御部は、
  前記現在の表示内容のコンテンツ種別に応じて、前記設定を行う、前記(16)に記載の情報処理装置。
(18)
 前記制御部は、
  駆動プロジェクタによる表示制御を行う、前記(1)~前記(17)のいずれか1項に記載の情報処理装置。
(19)
 プロセッサが、
 ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定することを含む、情報処理方法。
(20)
 コンピュータを、
 ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定する制御部として機能させるためのプログラムが記録された、記録媒体。
(21)
 ユーザからの表示指示を検出した際、既に提示している表示を視聴している他のユーザに対して、キャンセル操作の通知を行う制御部を備える、情報処理装置。
(22)
 前記制御部は、
  前記他のユーザが前記表示を注視していない場合、または、前記他のユーザが前記表示の近くに居ない場合、前記キャンセル操作の通知を行わず、前記ユーザからの前記表示指示に応じて、表示位置の移動を行う、前記(21)に記載の情報処理装置。
(23)
 前記制御部は、
  前記他のユーザがキャンセル操作を行わなかった場合、前記ユーザからの前記表示指示に応じて、表示位置の移動を行う、前記(21)に記載の情報処理装置。
(24)
 前記制御部は、
  前記他のユーザがキャンセル操作を行った場合、前記他のユーザへの表示提示を継続すると共に、前記ユーザに対し、操作を受け付けることができない旨を通知する、前記(21)に記載の情報処理装置。
 1 情報処理システム
 100 情報処理装置
 110 I/F部
 120 制御部
 121 3次元空間認識部
 122 投影位置算出部
 123 プロジェクタ制御部
 130 空間情報記憶部
 140 コンテンツ記憶部
 300 駆動プロジェクタ
 310 プロジェクタ
 320 センサ
 330 駆動機構
 340 スピーカ

Claims (20)

  1.  ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定する制御部を備える、情報処理装置。
  2.  前記現在の表示状況は、表示位置または表示内容を含む、請求項1に記載の情報処理装置。
  3.  前記制御部は、
      前記ユーザからの表示指示が、前記現在の表示位置の移動である場合、前記ユーザと前記他のユーザとが視認可能な領域に表示位置を移動させる制御を行う、請求項1に記載の情報処理装置。
  4.  前記制御部は、
      前記ユーザの位置と前記他のユーザの位置に基づいて、前記視認可能な領域を判断する、請求項3に記載の情報処理装置。
  5.  前記制御部は、
      さらに、前記ユーザの向きと前記他のユーザの向きを考慮して、前記視認可能な領域を判断する、請求項4に記載の情報処理装置。
  6.  前記制御部は、
      前記ユーザの視界範囲と前記他のユーザの視界範囲の重なりに基づいて、前記視認可能な領域を判断する、請求項3に記載の情報処理装置。
  7.  前記制御部は、
      前記現在の表示位置と、前記ユーザからの表示指示に応じた表示位置との間に、表示位置を移動させる制御を行う、請求項2に記載の情報処理装置。
  8.  前記制御部は、
      前記ユーザからの表示指示が、前記現在の表示内容の変更である場合、前記ユーザと前記他のユーザとが視認可能な領域に表示位置を移動させると共に、前記現在の表示内容と前記ユーザからの表示指示に応じた表示内容とを含む分割画面を表示する制御を行う、請求項2に記載の情報処理装置。
  9.  前記制御部は、
      前記ユーザと前記他のユーザとが視認可能な領域が無い場合、前記ユーザからの表示指示に応じた表示位置に表示位置を移動させると共に、前記ユーザからの表示指示に応じた表示内容を表示する制御を行う、請求項2に記載の情報処理装置。
  10.  前記制御部は、
      前記ユーザからの表示指示に応じて表示位置および表示内容を変更した後、所定のタイミングで、表示位置および表示内容を元に戻す処理を行う、請求項3に記載の情報処理装置。
  11.  前記制御部は、
      前記ユーザからの表示指示に応じて表示位置を変更する際、前記他のユーザにキャンセル操作の通知を行う、請求項1に記載の情報処理装置。
  12.  前記制御部は、
      前記他のユーザによりキャンセル操作が行われた際、前記表示位置の変更を中止する、請求項11に記載の情報処理装置。
  13.  前記制御部は、
      前記表示位置の変更を中止した際、前記ユーザからの表示指示に対応する他の表示装置を探索する、請求項12に記載の情報処理装置。
  14.  前記制御部は、
      前記ユーザからの表示指示に応じて表示位置を移動させた際、前記他のユーザに対して表示移動を通知する、請求項1に記載の情報処理装置。
  15.  前記制御部は
      前記ユーザからの表示指示に対し、前記他のユーザを優先して表示を継続する場合、前記ユーザに対して、操作を受け付けることができない旨を通知する、請求項1に記載の情報処理装置。
  16.  前記制御部は、
      後から指示を行った前記ユーザを優先する表示制御と、
      先に視聴していた前記他のユーザを優先する表示制御と、
      前記ユーザと前記他のユーザの共有を優先する表示制御と、
     の少なくともいずれかを、前記現在の表示状況に応じて設定する、請求項1に記載の情報処理装置。
  17.  前記制御部は、
      前記現在の表示内容のコンテンツ種別に応じて、前記設定を行う、請求項16に記載の情報処理装置。
  18.  前記制御部は、
      駆動プロジェクタによる表示制御を行う、請求項1に記載の情報処理装置。
  19.  プロセッサが、
     ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定することを含む、情報処理方法。
  20.  コンピュータを、
     ユーザからの表示指示を検出した際、前記ユーザの位置、および、既に他のユーザに対して行っている現在の表示状況に応じて、前記ユーザからの前記表示指示に対応する表示制御を決定する制御部として機能させるためのプログラムが記録された、記録媒体。
PCT/JP2019/006586 2018-05-16 2019-02-21 情報処理装置、情報処理方法、および記録媒体 WO2019220729A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/055,352 US20210110790A1 (en) 2018-05-16 2019-02-21 Information processing device, information processing method, and recording medium
CN201980031230.5A CN112106016A (zh) 2018-05-16 2019-02-21 信息处理装置、信息处理方法和记录介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-094440 2018-05-16
JP2018094440A JP2021121878A (ja) 2018-05-16 2018-05-16 情報処理装置、情報処理方法、および記録媒体

Publications (1)

Publication Number Publication Date
WO2019220729A1 true WO2019220729A1 (ja) 2019-11-21

Family

ID=68540110

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/006586 WO2019220729A1 (ja) 2018-05-16 2019-02-21 情報処理装置、情報処理方法、および記録媒体

Country Status (4)

Country Link
US (1) US20210110790A1 (ja)
JP (1) JP2021121878A (ja)
CN (1) CN112106016A (ja)
WO (1) WO2019220729A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106379A1 (ja) * 2019-11-29 2021-06-03 ソニーグループ株式会社 画像処理装置及び画像処理方法、並びに画像表示システム
WO2023026798A1 (ja) * 2021-08-23 2023-03-02 株式会社Nttドコモ 表示制御装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144064A (ja) * 2018-06-06 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11694604B2 (en) * 2021-04-23 2023-07-04 Netflix, Inc. Adjustable light-emissive elements in a display wall

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048694A (ja) * 2002-05-20 2004-02-12 Seiko Epson Corp 投写型画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像投写方法
JP2013076924A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 表示装置、表示制御方法及びプログラム
WO2016125359A1 (ja) * 2015-02-03 2016-08-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2017055178A (ja) * 2015-09-07 2017-03-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048694A (ja) * 2002-05-20 2004-02-12 Seiko Epson Corp 投写型画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像投写方法
JP2013076924A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 表示装置、表示制御方法及びプログラム
WO2016125359A1 (ja) * 2015-02-03 2016-08-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2017055178A (ja) * 2015-09-07 2017-03-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106379A1 (ja) * 2019-11-29 2021-06-03 ソニーグループ株式会社 画像処理装置及び画像処理方法、並びに画像表示システム
WO2023026798A1 (ja) * 2021-08-23 2023-03-02 株式会社Nttドコモ 表示制御装置

Also Published As

Publication number Publication date
US20210110790A1 (en) 2021-04-15
JP2021121878A (ja) 2021-08-26
CN112106016A (zh) 2020-12-18

Similar Documents

Publication Publication Date Title
WO2019220729A1 (ja) 情報処理装置、情報処理方法、および記録媒体
US10915171B2 (en) Method and apparatus for communication between humans and devices
US10321104B2 (en) Multi-modal projection display
EP3602272B1 (en) Methods and systems for attending to a presenting user
WO2016157662A1 (ja) 情報処理装置、制御方法、およびプログラム
KR101541561B1 (ko) 유저 인터페이스 장치, 유저 인터페이스 방법, 및 기록 매체
JP6617755B2 (ja) 表示装置及び電子機器
US10930249B2 (en) Information processor, information processing method, and recording medium
US11237794B2 (en) Information processing device and information processing method
AU2004221365B2 (en) Method and apparatus for communication between humans and devices
US20130329000A1 (en) Providing spontaneous connection and interaction between local and remote interaction devices
JP7211367B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018036902A (ja) 機器操作システム、機器操作方法および機器操作プログラム
US20200125398A1 (en) Information processing apparatus, method for processing information, and program
JP2022546053A (ja) 仮想ミラーシステム及び方法
WO2014117675A1 (zh) 一种信息处理方法及电子设备
US11449451B2 (en) Information processing device, information processing method, and recording medium
WO2023065799A1 (zh) 人机交互控制方法、设备及存储介质
US20220180571A1 (en) Information processing device, information processing method, and program
CA2423142C (en) Method and apparatus for communication between humans and devices

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19802948

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19802948

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP