WO2019123888A1 - 情報処理システム、情報処理方法、および、プログラム - Google Patents

情報処理システム、情報処理方法、および、プログラム Download PDF

Info

Publication number
WO2019123888A1
WO2019123888A1 PCT/JP2018/041786 JP2018041786W WO2019123888A1 WO 2019123888 A1 WO2019123888 A1 WO 2019123888A1 JP 2018041786 W JP2018041786 W JP 2018041786W WO 2019123888 A1 WO2019123888 A1 WO 2019123888A1
Authority
WO
WIPO (PCT)
Prior art keywords
display surface
display
information
transfer
processing system
Prior art date
Application number
PCT/JP2018/041786
Other languages
English (en)
French (fr)
Inventor
哲男 池田
晴夫 大場
新島 誠
玲 福田
ディキンソン フォレストジュニア マシュー
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/772,665 priority Critical patent/US11112961B2/en
Priority to CN201880080504.5A priority patent/CN111480132A/zh
Priority to EP18891566.4A priority patent/EP3731068A4/en
Priority to JP2019560863A priority patent/JPWO2019123888A1/ja
Publication of WO2019123888A1 publication Critical patent/WO2019123888A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present disclosure relates to an information processing system, an information processing method, and a program.
  • AR Augmented Reality
  • additional information related to an object in an environment where the user is located can be presented to the user.
  • Patent Document 1 describes a technique for detecting a marker by analyzing a captured image and calling a function associated with the detected marker.
  • a new and improved information processing system and information processing method capable of adaptively controlling display of the display surface in response to an operation of moving an object in a certain display surface with respect to a transfer object. , And propose a program.
  • a first operation of moving a first object by a first user with respect to a detection area in a predetermined positional relationship with one or more predetermined transfer objects positioned in the first display surface Is detected to indicate that one or more display information in the second display surface corresponding to the first display surface has been changed to be operable in the first display surface
  • Display control is performed on the first display surface, and the display state of the second display surface based on the detection result of the second operation of the first user after the first operation.
  • the first user moves the first object to a detection area in a predetermined positional relationship with one or more predetermined transfer objects positioned in the first display surface.
  • An information processing method is provided, including changing the display state of the second display surface.
  • the first user moves the first object to the detection area in a predetermined positional relationship with the one or more predetermined transfer objects located in the first display surface according to the present disclosure.
  • one or more display information in the second display surface corresponding to the first display surface is changed to be operable in the first display surface
  • the second display control based on the detection result of the second operation of the first user after the detection of the first operation.
  • a program is provided to function as a processing unit that changes the display state of the second display surface.
  • the present disclosure it is possible to control display on the display surface adaptively to an operation of moving an object in a certain display surface with respect to a transfer object.
  • the effect described here is not necessarily limited, and may be any effect described in the present disclosure.
  • FIG. 8 is a diagram showing an example of a transfer operation for transferring information corresponding to an object to another display surface according to the embodiment. It is a figure showing an example of composition of field attribute information DB128 concerning the embodiment.
  • FIG. 1 It is a figure showing an example of a function of plane attribute adaptation processing section 104 concerning the embodiment. It is a figure showing an example of a function of plane attribute adaptation processing section 104 concerning the embodiment. It is a figure showing another example of a function of plane attribute adaptation processing section 104 concerning the embodiment. It is a figure showing another example of a function of plane attribute adaptation processing section 104 concerning the embodiment. It is the flow chart which showed a part of flow of processing concerning the embodiment. It is the flow chart which showed a part of flow of processing concerning the embodiment. It is a figure showing an example of transfer of a picture corresponding to an object concerning application example 1 of this embodiment. FIG.
  • FIG. 17 is a diagram showing another transfer example of the image corresponding to the object according to the application example 1; It is a figure showing an example of transfer of a picture corresponding to an object concerning application example 2 of this embodiment.
  • FIG. 17 is a diagram showing another transfer example of the image corresponding to the object according to the application example 2; It is a figure showing an example of transfer of a picture corresponding to an object concerning application example 3 of this embodiment.
  • FIG. 21 is a diagram illustrating another example of transfer of an image corresponding to an object in the application example 3; It is a figure showing an example of transfer operation of a picture corresponding to an object concerning application example 4 of this embodiment.
  • FIG. 21 is a diagram showing an example of transfer of an image corresponding to an object according to the application example 4; It is a figure showing an example of composition of field attribute information DB128 concerning application example 5 of this embodiment.
  • FIG. 21 is a diagram showing an example of transfer operation of an image corresponding to an object in the application example 5;
  • FIG. 21 is a diagram showing an example in which an image corresponding to an object to be transferred according to the application example 5 is converted and displayed according to the display surface of the transfer destination.
  • It is a figure showing an example of composition of a system concerning application example 6 of this embodiment.
  • FIG. 21 is a diagram illustrating an example in which an image corresponding to an object to be transferred according to the application example 6 is converted and displayed according to a display surface of a transfer destination.
  • FIG. 21 is a diagram illustrating an example in which an image corresponding to an object to be transferred according to the application example 6 is converted and displayed according to a display surface of a transfer destination. It is a figure showing an example of composition of field attribute information DB128 concerning application example 7 of this embodiment.
  • FIG. 21 is a diagram showing an example of transfer operation of an image corresponding to an object in the application example 7; FIG.
  • FIG. 21 is a diagram illustrating an example in which an image corresponding to an object to be transferred according to the application example 7 is converted and displayed according to a display surface of a transfer destination. It is a figure showing an example of transfer operation of a picture corresponding to an object concerning application example 8 of this embodiment.
  • FIG. 21 is a diagram showing an example of transfer of an image corresponding to an object in the application example 8;
  • FIG. 21 is a diagram showing an example in which display information in a target area in a display surface of a transfer destination according to the application example 8 is displayed on a display surface of a transfer source.
  • FIG. 27C is a view showing a display example of a display surface of a transfer destination at the timing shown in FIG. 27C.
  • FIG. 21 is a diagram showing an example of an operation in the display surface of the transfer source for scrolling the target area in the display surface of the transfer destination according to the application example 9 of the embodiment. It is a figure showing an example of movement of an object field based on operation shown in Drawing 28A.
  • FIG. 31 is a diagram showing an example of another operation in the transfer source display surface for scrolling the target area in the transfer destination display surface according to the application example 9; It is a figure showing an example of movement of an object field based on operation shown in Drawing 28B. It is the figure which showed the example of a display of the display surface of the forwarding destination based on the application example 10 of this embodiment.
  • FIG. 30B is a diagram showing an example in which a map image showing substantially the entire display surface of the transfer destination is displayed on the display surface of the transfer source at the timing shown in FIG. 30A. It is the figure which showed the example of a display of the display side of a transfer place concerning application example 11 of this embodiment. It is the figure which shows the example of a display of the display side of the transfer origin in the timing shown to FIG. 31A based on the application example 11.
  • FIG. A display example of the whiteboard 20-2 is shown when the editing operation for the whiteboard 20-2 is simultaneously performed on the table surface 20-1 and the table surface 20-3 according to the application example 12 of the present embodiment.
  • FIG. It is the figure which showed the example of a display of the table surface 20-1 in the timing shown to FIG. 32A.
  • FIG. 17 is a diagram showing an example of an operation of moving an object to be transferred into a transfer area according to an application example 13 of the present embodiment. After the timing shown to FIG. 33A, it is the figure which showed a mode that the user continued touching the object of transfer object. It is a figure showing the example of a display of the map picture for specifying the transfer position of the applicable object displayed after the timing shown in Drawing 33B. It is a figure showing an example of hardware constitutions of information processing system 10 concerning this embodiment. It is a figure showing an example of composition of a system concerning a modification of the embodiment.
  • a plurality of components having substantially the same functional configuration may be distinguished by attaching different alphabets to the same reference numerals.
  • a plurality of components having substantially the same functional configuration are distinguished as needed in tables 90a and 90b.
  • only the same reference numerals will be given.
  • the table 90a and the table 90b they are simply referred to as the table 90.
  • the system may mean a configuration for executing a predetermined process.
  • the system may be comprised of one device or may be comprised of multiple devices.
  • the information processing system 10 according to the present embodiment may be configured to be able to execute predetermined processing as the entire information processing system 10, and any configuration in the information processing system 10 may be regarded as one apparatus. It may be.
  • FIG. 1 is a diagram showing an example of the configuration of an information processing system 10.
  • the information processing system 10 a according to the present embodiment includes an input unit 120 a and an output unit 124 a.
  • the output unit 124a may be configured to include an output device 162 described later.
  • the output unit 124a displays various types of information on the table 90a.
  • the output unit 124a may be a projection unit (projector).
  • the output unit 124 a may be disposed above the table 90 a so as to be separated from the table 90 a by a predetermined distance in a suspended state from the ceiling.
  • the output unit 124a may project information on the top surface of the table 90a.
  • the output unit 124a may be a pendant light or a desk stand light.
  • Such a method of displaying information on the top surface of the table 90a from above is also referred to as "projection type”.
  • the top surface of the table 90 may be referred to as the display surface 20 below.
  • the display surface 20 includes a surface (screen) to be projected by the output unit 124.
  • the output unit 124a displays a virtual display object according to the control of the display processing unit 122 described later.
  • the display object is, for example, a window or a user interface (UI) object.
  • the UI object is a predetermined image (still image or moving image) that receives various operations (such as selection and input) by the user.
  • the UI object is an image including a graphical user interface (GUI) component (for example, a button, a slider, a check box, a text box, a software keyboard, and the like).
  • GUI graphical user interface
  • UI objects may be placed in the window.
  • the input unit 120a may be configured to include an input device 160 described later.
  • the input unit 120a includes, for example, a camera that captures an image of the table 90a with one lens.
  • the input unit 120a may include a stereo camera capable of recording information in the depth direction by imaging the table 90a with two lenses.
  • a stereo camera for example, a visible light camera, an invisible light camera capable of detecting invisible light such as infrared light, etc. may be used.
  • the input unit 120a may further include a voice input device such as a microphone that picks up a voice emitted by the user or an environmental sound of the surrounding environment.
  • the information processing system 10a analyzes an image (captured image) captured by the camera to detect an object (for example, a user's hand or the like) located on the display surface 20. The position can be detected.
  • an object for example, a user's hand or the like
  • the description “hand” can be used mainly as an expression meaning the hand itself.
  • the present invention is not limited to such an example, and this description may be used as an expression meaning a finger, an arm, or two or more of these portions (for example, the upper limb etc.).
  • the information processing system 10a analyzes the image captured by the stereo camera to add to the position information of the object located on the display surface 20, the object Can obtain depth information of
  • the information processing system 10 a can detect contact or proximity of the user's hand on the display surface 20 and detachment of the hand from the display surface 20 based on the depth information.
  • the input unit 120a may have another type of depth sensor (for example, a time of flight sensor or a structured light sensor) instead of the stereo camera. In this case, the depth sensor may acquire depth information of an object located on the display surface 20.
  • the position of the operating body (for example, the user's hand or various operation members such as a stylus) on the display surface 20 is detected based on the image captured by the input unit 120a, and then detected.
  • Various types of information can be input based on the position of the operating body. That is, the user can perform various operation inputs by moving the operating body on the display surface 20. For example, when a touch of a user's hand on a window or UI object is detected, an operation input on the window or UI object is performed.
  • the camera included in the input unit 120a may not only capture the top surface of the table 90a, but also be able to capture a user present around the table 90a.
  • the information processing system 10a can detect the position of the user around the table 90a based on the image captured by the input unit 120a.
  • the information processing system 10a may perform personal recognition of the user by detecting physical features (such as the size of the face and the body) of each user based on the captured image.
  • the user's operation input is not limited to the example described above, and may be performed by another method.
  • the input unit 120a may be disposed as a touch panel on the top surface (display surface 20a) of the table 90a, and the user's operation input may be detected by the touch of the user's finger or the like on the touch panel .
  • the camera included in the input unit 120a may capture a gesture operation of the user, and the operation input of the user may be detected based on the captured image.
  • FIG. 2 is a view showing another configuration example (information processing system 10b) of the information processing system 10 according to the present embodiment.
  • the output unit 124b is disposed below the table 90b.
  • the output unit 124 b is, for example, a projector, and projects information from the lower side of the table 90 b toward the top plate of the table 90 b.
  • the top plate of the table 90b is formed of a transparent material such as a glass plate or a transparent plastic plate.
  • the information projected by the output unit 124 b is displayed on the top surface (display surface 20 b) of the table 90 b (through the top plate).
  • a method of displaying information on the display surface 20b by causing the output unit 124b to project information from below the table 90b in this manner is also referred to as "rear projection type".
  • the input part 120b is provided in the display surface 20b.
  • the input unit 120 b is configured of a touch panel.
  • the input unit 120b may be disposed below the table 90b and separated from the table 90b, as in the information processing system 10a illustrated in FIG.
  • the input unit 120b includes a camera, and the camera can capture an operation object located on the display surface 20b through the top plate of the table 90b. Then, the position of the operating body can be detected based on the captured image.
  • FIG. 3 is a diagram showing still another configuration example (information processing system 10c) of the information processing system 10 according to the present embodiment.
  • the touch panel display is disposed on the table 90c with its display surface facing upward.
  • the input unit 120c and the output unit 124c may be integrally configured as the touch panel display. That is, various types of information are displayed on the display screen (display surface 20c) of the display, and the touch of the operating tool on the display screen of the display is detected by the touch panel, whereby the user's operation input can be accepted.
  • a camera an example of the input unit 120c
  • the output unit 124c may be disposed above the output unit 124c.
  • individual users located around the table 90c may be detected based on an image captured by the camera.
  • FIG. 4 is a view showing still another configuration example (information processing system 10d) of the information processing system 10 according to the present embodiment.
  • the information processing system 10 d may be configured as a head mounted device (for example, a glasses-type device) such as, for example, an HMD (Head Mounted Display).
  • the head-mounted device may include an input unit 120d (not shown) and an output unit 124d (not shown).
  • the output unit 124 d may be configured as a transmissive display device.
  • the output unit 124d projects an image using at least a partial region of each of the right-eye lens and the left-eye lens (or the goggle lens) included in the head-mounted device as a projection surface (display surface 20d) It can.
  • the output unit 124 d may be configured as a non-transmissive display device.
  • the output unit 124 d may be configured to include an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diode), and the like.
  • the input unit 120d may include a camera. In this case, the camera may capture an image in front of the user wearing the head-mounted device, and the output unit 124d may sequentially display the captured image. Thus, the user can view the scenery in front of the user through the video displayed on the output unit 124 d.
  • FIG. 5 is a diagram showing a configuration example of the system.
  • any one of the information processing systems 10 a to 10 d described above and one or more other display surfaces 20 may be connected via, for example, the communication network 22.
  • the other display surface 20 may be, for example, a white board, or may be a top surface of a table such as the display surface 20a or the display surface 20b described above, or may be the display surface 20c. It may be a predetermined display, or it may be a predetermined surface included in a head-mounted device, such as display surface 20d.
  • the communication network 22 is a wired or wireless transmission path of information transmitted from a device connected to the communication network 22.
  • the communication network 22 may include a telephone network, the Internet, a public network such as a satellite communication network, various LANs (Local Area Network) including Ethernet (registered trademark), a WAN (Wide Area Network), etc.
  • the communication network 22 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).
  • the configuration of the information processing system 10 according to the present embodiment has been described above. As will be described later, according to the present embodiment, in a situation where information corresponding to an object located in a certain display surface is transferred to another display surface, among all objects located in the display surface of the transfer source, It is possible to display only the information corresponding to the object selected by the user on the display surface of the transfer destination.
  • FIG. 6 is a block diagram showing an example of the functional configuration of the information processing system 10.
  • the information processing system 10 includes a processing unit 100, an input unit 120, a display processing unit 122, an output unit 124, and a storage unit 126.
  • the description of the same contents as the above description will be omitted.
  • the display processing unit 122 may be configured to include one or more processing circuits (for example, a central processing unit (CPU), a graphics processing unit (GPU), etc.)
  • the display processing unit 122 receives input information acquired by the input unit 120.
  • the display processing unit 122 performs a drawing process on a display object such as a window, and outputs the processing result to the output unit 124.
  • the display processing unit 122 performs drawing processing of the display objects in accordance with the user's operation on each display object.
  • the display processing unit 122 can acquire input information (for example, a captured image and the like) acquired by the input unit 120 from the input unit 120, and can output the input information to the processing unit 100. Furthermore, the display processing unit 122 can also receive information processed by the processing unit 100 from the processing unit 100, and perform drawing processing based on the information.
  • input information for example, a captured image and the like
  • the display processing unit 122 can also receive information processed by the processing unit 100 from the processing unit 100, and perform drawing processing based on the information.
  • the processing unit 100 may be configured to include one or more processing circuits (for example, a CPU 150 or a GPU described later). The processing unit 100 performs various types of processing based on the input information acquired by the input unit 120.
  • the processing unit 100 includes a transfer operation detection unit 102, a plane attribute adaptation processing unit 104, and a display control unit 106.
  • Transfer operation detection unit 102 detects a transfer operation for transferring one object located in display surface 20-1 to another display surface 20-2, based on input information acquired from input unit 120. . For example, a user moves one object located on the display surface 20-1 to a detection area in a predetermined positional relationship with one or more predetermined transfer objects located in the display surface 20-1. When an operation (for example, approaching) is detected, the transfer operation detection unit 102 detects the corresponding operation as the transfer operation.
  • the detection area may be identical to the predetermined transfer object.
  • the detection area is an area on the display surface 20-1 that includes all or part of the object area where the predetermined transfer object is located, and is within a predetermined distance from the outline of the object area. It is also good.
  • the “transfer area” described later is an example of the detection area.
  • the transfer operation is an example of a first operation according to the present disclosure.
  • the predetermined transfer object may be a predetermined real object (for example, a predetermined transfer stand 32 as shown in FIG. 7) or a predetermined display object.
  • a predetermined transfer stand is disposed on the display surface 20-1 and an operation to bring one object located on the display surface 20-1 close to the transfer stand 32 is detected
  • the transfer operation detection unit In step S102 the corresponding operation may be detected as the transfer operation.
  • the processing unit 100 sets, for example, a circular transfer area 34 around the transfer stand 32, and , Transfer area 34 may be displayed on display surface 20-1.
  • the transfer operation detection unit 102 can detect the corresponding operation as the transfer operation.
  • the transfer area 34 is an example of the above-described detection area. Note that the present embodiment is not limited to the example illustrated in FIG. 7, and the processing unit 100 may set the transfer area 34 in a place where the transfer stand 32 is not disposed.
  • Plane attribute adaptation processing unit 104 When the transfer operation detection unit 102 detects a transfer operation, the face attribute adaptation processing unit 104 displays the display setting of the information corresponding to the object to be transferred, which is displayed on the display surface of the transfer destination, The determination is made based on the information related to the display surface and the information related to the display surface of the transfer source. For example, the face attribute adaptation processing unit 104 stores the display setting of the information of the transfer target object displayed on the display face of the transfer destination in the face attribute information DB 128 as illustrated in FIG. It determines based on the information relevant to the display surface of the said transfer destination.
  • the display setting of the information of the object to be transferred may include, for example, the display size, the display direction, the display content, and the like of the information on the display surface of the corresponding transfer destination.
  • the display surface before the transfer is an example of a first display surface according to the present disclosure.
  • the display surface of the said transfer destination is an example of the 2nd display surface which concerns on this indication.
  • the surface attribute information DB 128 is a database that stores information (such as attribute information) related to each display surface.
  • the information related to the display surface includes, for example, screen characteristics of the corresponding display surface (for example, physical size, resolution, aspect ratio, etc.) and layout characteristics of the corresponding display surface (for example, the corresponding display) Including the direction of gravity with respect to the surface, etc.
  • the surface attribute information DB 128 can be realized, for example, in the form of a relational database or a look-up table.
  • FIG. 8 is a diagram showing a configuration example of the plane attribute information DB 128.
  • the surface attribute information DB 128 for example, No. 1280, surface type 1282, gravity direction 1284, size 1286, resolution 1288, and surface attribute adaptation processing 1290 are associated.
  • the type of display surface is stored in the type of surface 1282.
  • the direction of gravity with respect to the corresponding display surface is stored in the direction of gravity 1284. For example, in the case where the display surface is a plane disposed vertically, “downward” is stored in the gravity direction 1284.
  • the display of the image based on the information stored in the gravity direction 1284 The direction can be determined automatically.
  • the size 1286 the size (size) of the corresponding display surface is stored.
  • the resolution 1288 stores the resolution of the corresponding display surface.
  • FIG. 9A is a diagram showing a configuration example of the display surface 20-1 (table surface 20-1) in which No in the surface attribute information DB 128 shown in FIG. 8 is "1".
  • 9B is a diagram showing a configuration example of the display surface 20-2 (white board 20-2) of No in the surface attribute information DB 128 shown in FIG. 8 is "2".
  • FIGS. 9A and 9B are diagram showing a configuration example of the display surface 20-1 (table surface 20-1) in which No in the surface attribute information DB 128 shown in FIG. 8 is "1".
  • 9B is a diagram showing a configuration example of the display surface 20-2 (white board 20-2) of No in the surface attribute information DB 128 shown in FIG. 8 is "2".
  • the table surface 20-1 has a size of 120 cm wide and 80 cm long, and an image having a resolution of 1366 ⁇ 768, for example, is output by the output unit 124 to the table surface 20-. It is projected to one. Further, as shown in FIG. 9A, a tag 30 with a size of 200 pixel square is disposed on the table surface 20-1. Further, in the example shown in FIGS. 8 and 9B, the whiteboard 20-2 has a size of 100 cm in width and 190 cm in height, and for example, an image of 2160 ⁇ 3840 resolution is a white board 20-2. Is projected by the projector corresponding to.
  • the face attribute adaptation processing unit 104 is configured to use the dpi (dots per inch) (specifically, 29 dpi) of the table face 20-1 that is the face of the transfer source and the dpi of the whiteboard 20-2 that is the face of the transfer destination.
  • the image 40b of the determined size can be displayed on the whiteboard 20-2 under the control of the display control unit 106 described later.
  • the tag 30 can be displayed in full size even with the whiteboard 20-2. Therefore, the user using the table surface 20-1 and the user using the whiteboard 20-2 can perform communication (discussion, etc.) related to the sticky note 30 more smoothly.
  • FIGS. 10A and 10B are diagrams showing an example in which an image corresponding to the sticky note 30 on the table surface 20-1 is transferred to the whiteboard 20-2 and displayed.
  • the table surface 20-1 is a horizontally arranged plane
  • the whiteboard 20-2 is a vertically arranged plane.
  • the direction of gravity is not set to the table surface 20-1, and "down" is set to the whiteboard 20-2 as the direction of gravity. It is assumed that
  • the user using the table surface 20-1 is displayed, for example, in the table surface 20-1 to transfer the image corresponding to the tag 30 to the whiteboard 20-2.
  • the tag 30 is dragged from the outside of the transfer area 34 to the inside of the transfer area 34.
  • the face attribute adaptation processing unit 104 causes the image 40 corresponding to the tag 30 on the whiteboard 20-2 to be based on the “gravity direction” information associated with the whiteboard 20-2 in the face attribute information DB 128.
  • the display orientation of (the sticky note image 40) is determined as, for example, “downward”. Thereby, as shown in FIG. 10B, the sticky note image 40 can be displayed on the whiteboard 20-2 in the determined display orientation.
  • Display control unit 106 controls the display of various types of information on the output unit 124.
  • the display control unit 106 can control display of information corresponding to an object to be transferred on the display surface of the transfer destination. For example, when the transfer operation is detected, the display control unit 106 displays the image corresponding to the corresponding transfer target object on the display surface of the transfer destination in the display setting determined by the plane attribute adaptation processing unit 104. Let As an example, when the transfer operation is detected, the display control unit 106 displays an image corresponding to the object to be transferred, as a display setting determined by the plane attribute adaptation processing unit 104, as a display of a transfer destination. Display in the transfer area set on the surface.
  • the storage unit 126 may be configured to include a storage device 164 described later.
  • the storage unit 126 stores, for example, various data such as the plane attribute information DB 128 and various software.
  • FIG. 11 and FIG. 12 are flowcharts each showing part of the flow of processing according to the present embodiment. As shown in FIG. 11, as long as the user's end operation is not detected (S101: No), the processing unit 100 repeats the processing of S103 to S129 described below. When it is detected that the user has performed the end operation (S101: Yes), the flow of the process ends.
  • the processing unit 100 acquires input information (various sensing results and the like) acquired by the input unit 120 from the input unit 120 (S103).
  • the processing unit 100 outputs the output of various information by the output unit 124 to the display surface 20 corresponding to the output unit 124 (hereinafter, may be referred to as the display surface of the transfer source) as an input acquired in S103. Control is performed based on the information (S105). For example, the processing unit 100 determines the operation content of the user (for example, whether it is a drag operation or not) based on the movement of the user's hand indicated by the acquired input information.
  • the processing unit 100 next determines, on the display surface of the transfer source, a position (for example, coordinates) at which the drag operation instructs, and the transfer source By comparing the position (for example, coordinates) of each object located on the display surface of (1), it is determined whether the drag operation indicates any object on the display surface of the transfer source. Then, when it is detected that the drag operation indicates any object, the processing unit 100 may change the display position of the object according to the drag operation.
  • the transfer operation detection unit 102 determines, based on the information acquired by the input unit 120, whether or not the transfer operation has been performed on any of the objects in the transfer source display surface (S107). While the transfer operation is not detected (S107: No), the processing unit 100 performs the processing of S101 and thereafter again.
  • the face attribute adaptation processing unit 104 extracts the attribute information of the face of the transfer destination from the face attribute information DB 128 (S109). Then, the surface attribute adaptation processing unit 104 determines the display setting of the information corresponding to the transfer target object displayed on the display surface of the transfer destination based on the extracted attribute information (S111).
  • the display control unit 106 first performs at least one display information currently displayed on the transfer destination display surface. For example, it acquires from the display surface of the said transfer destination. Then, the display control unit 106 controls the output unit 124 such that the acquired one or more pieces of display information are displayed on the display surface of the transfer source (S123).
  • the input unit 120 acquires information on the user's operation input on the display surface of the transfer source (S125).
  • the display control unit 106 determines whether or not the transfer position of the transfer target object on the display surface of the transfer destination has been determined based on the input information acquired in S125 (S127). If the transfer position of the transfer target object has not been determined (S127: No), the display control unit 106 performs the processing of S123 and thereafter again.
  • the display control unit 106 transfers the transfer target to the determined transfer position in the display screen of the transfer destination.
  • Information (such as an image) corresponding to the object is displayed (S129).
  • the processing unit 100 repeats the processing after S101.
  • the processing unit 100 is configured such that one user has one user with respect to a detection area in a predetermined positional relationship with one or more predetermined transfer objects located in the display surface of the transfer source When a transfer operation for moving the object is detected, information corresponding to the object is displayed on the display surface of the transfer destination. Therefore, in a situation where information corresponding to a certain object located on a certain display surface is transferred to another display surface, it corresponds to an object selected by the user among all objects located in the display surface of the transfer source. Only information can be displayed on the display surface of the transfer destination.
  • a plurality of users located around the display surface of the transfer source perform a divergent discussion, and transfer only an object (for example, a tag or the like) corresponding to a good opinion obtained as a result of the discussion. It will be possible to integrate seamlessly on the previous display surface. Then, in the middle of the discussion, it becomes easy to organize the objects corresponding to the good opinion and the objects corresponding to the bad opinion. Therefore, the plurality of users can continue the discussion without stopping the flow of the idea creation.
  • the object to be transferred can be appropriately displayed on the display surface of the transfer destination according to the attribute information of the display surface of the transfer destination.
  • communication discussedsion, etc.
  • the object to be transferred can be performed more smoothly. It can be carried out. For example, it is possible to reduce the effort of optimizing the object on the display surface of the transfer destination, such as the user of the transfer destination can seamlessly use the corresponding transferred object. Therefore, these users can be concentrated by discussion.
  • Application Example 1 First, Application Example 1 according to the present embodiment will be described. According to the application example 1, it is possible to adaptively determine the display surface of the transfer destination of the object to be transferred adaptively to the states of a plurality of predetermined transfer objects located on the transfer source display surface. In the first application example, it is assumed that the plurality of predetermined transfer objects are real objects.
  • Transfer operation detection unit 102 When the transfer operation detection unit 102 according to the application example 1 detects that a certain object located on the display surface of the transfer source is placed on one of a plurality of predetermined transfer objects, This operation is detected as a transfer operation for transferring information corresponding to the corresponding object to another display surface.
  • Display control unit 106 When the transfer operation detection unit 102 detects a transfer operation, the display control unit 106 according to the application example 1 selects, from among a plurality of display surfaces corresponding to the display surface of the transfer source, information corresponding to the object to be transferred And at least one display surface to be a transfer destination of is determined based on information indicating the states of a plurality of predetermined transfer objects positioned on the display surface of the transfer source and the detection result of the transfer operation. For example, each of the plurality of predetermined transfer objects is associated with one different display surface of the plurality of display surfaces.
  • the display control unit 106 determines whether the distance between any two of the plurality of predetermined transfer objects is equal to or less than a predetermined threshold value. Based on whether or not the arrangement of any two transfer objects is a predetermined arrangement, at least one display surface to which information corresponding to the object to be transferred is transferred is determined.
  • the transfer stand 32a of the two transfer stands 32 is associated with the whiteboard 20-2, and the transfer stand 32b is associated with the whiteboard 20-3.
  • the whiteboard 20-2 is a display surface used by a plurality of users belonging to the group A for discussion.
  • the whiteboard 20-3 is a display surface used by a plurality of users belonging to the group B for discussion.
  • the transfer stand 32 shown in FIGS. 13 and 14 is an example of the above-described predetermined transfer object.
  • the two transfer stands 32 are disposed apart by a distance larger than a predetermined distance on the display surface 20-1 (table surface 20-1) of the transfer source. .
  • the user using the table surface 20-1 places the tag 30 on the transfer stand 32b as the transfer operation of the image corresponding to the tag 30 located on the table surface 20-1. I put it on
  • the display control unit 106 causes the image 40 corresponding to the tag 30 to be transferred only to the whiteboard 20-3 associated with the transfer stand 32b among the two whiteboards. , To display.
  • FIG. 14 it is assumed that two transfer stands 32 are arranged side by side on the display surface 20-1 (table surface 20-1) of the transfer source. Then (as in the example shown in FIG. 13), the user using the table surface 20-1 transfers the tag 30 as the transfer operation of the image corresponding to the tag 30 located on the table surface 20-1. Suppose you put it on 32b. In this case, as shown in FIG. 14, the display control unit 106 transfers and displays the image 40 corresponding to the tag 30 on both of the two whiteboards.
  • the predetermined transfer object is, for example, a real object having a plurality of faces as shown in FIG. 15 can be assumed. Furthermore, it is assumed that each of the plurality of surfaces of the predetermined transfer object is associated with different display surfaces among the plurality of display surfaces other than the transfer source display surface.
  • Transfer operation detection unit 102 The transfer operation detection unit 102 according to the application example 1 may allow the user to place a certain object located on the display surface of the transfer source on any of a plurality of planes of the predetermined transfer object. If detected, this operation is detected as a transfer operation for transferring information corresponding to the corresponding object to another display surface.
  • Display control unit 106 In the display control unit 106 according to the application example 2, when the transfer operation detection unit 102 detects a transfer operation, an object to be transferred among the plurality of planes of the predetermined transfer object is arranged. One display surface associated with the surface is determined as the display surface of the transfer destination of the information corresponding to the object.
  • each of the plurality of surfaces of transfer stand 32 is a different display surface of a plurality of display surfaces (for example, whiteboard 20-2 and whiteboard 20-3). Associated with. For example, among the plurality of faces of the transfer stand 32, the face described as "A" is associated with the whiteboard 20-2. Further, among the plurality of surfaces, the surface described as “B” is associated with the whiteboard 20-3.
  • the transfer stand 32 shown in FIGS. 15 and 16 is an example of the above-described predetermined transfer object.
  • the transfer stand 32 is configured such that the upper surface of the transfer stand 32 is the side described as “A” (that is, the side associated with the whiteboard 20-2).
  • the user using the table surface 20-1 places the tag 30 on the upper surface of the transfer stand 32 as the transfer operation of the image corresponding to the tag 30 located on the table surface 20-1.
  • the display control unit 106 adds the tag 30 only to the whiteboard 20-2 (associated with the surface described as “A”) of the two whiteboards.
  • the corresponding image 40 is transferred and displayed.
  • the upper surface of the transfer stand 32 is transferred so as to be the surface described as “B” (that is, the surface associated with the whiteboard 20-3). It is assumed that the table 32 is disposed on the table surface 20-1. Then, it is assumed that the user using the table surface 20-1 places the tag 30 on the upper surface of the transfer stand 32 as the transfer operation of the image corresponding to the tag 30 located on the table surface 20-1. In this case, as shown in FIG. 16, the display control unit 106 adds the tag 30 only to the whiteboard 20-3 (associated with the surface described as “B”) of the two whiteboards. The corresponding image 40 is transferred and displayed.
  • the predetermined transfer object is a real object having at least one inclined surface as shown in, for example, FIGS. 17 and 18 can be assumed.
  • Transfer operation detection unit 102 The transfer operation detection unit 102 according to the application example 3 detects that the user arranges an object on any of at least one inclined surface of the predetermined transfer object. The operation is detected as a transfer operation for transferring information corresponding to the corresponding object to another display surface.
  • the display control unit 106 transmits, for example, the transfer when an operation (the above-described transfer operation) to arrange an object to be transferred is detected on any of the at least one inclined surfaces.
  • the display surface positioned in the direction in which the predetermined transfer object is facing is determined as the display surface of the transfer destination of the information corresponding to the transfer target object. .
  • the transfer stand 32 has only one inclined surface.
  • the information processing system 10 can specify the positional relationship among the table surface 20-1, the white board 20-2, and the white board 20-3 in real time. There shall be.
  • the processing unit 100 can obtain, in real time, information indicating the relative directions of the whiteboard 20-2 and the whiteboard 20-3 with respect to the table surface 20-1.
  • the transfer stand 32 shown in FIGS. 17 and 18 is an example of the above-described predetermined transfer object.
  • the transfer stand 32 when the transfer stand 32 is oriented in the direction of the whiteboard 20-2 with respect to the table face 20-1, the transfer stand 32 is disposed on the table face 20-1. Do. Then, it is assumed that the user using the table surface 20-1 places the tag 30 on the inclined surface of the transfer stand 32 as the transfer operation of the image corresponding to the tag 30 located on the table surface 20-1. In this case, as shown in FIG. 17, the display control unit 106 transfers the image 40 corresponding to the tag 30 only to the whiteboard 20-2 to which the transfer stand 32 faces, of the two whiteboards, Display.
  • the transfer stand 32 is disposed on the table face 20-1 with the transfer stand 32 directed in the direction of the whiteboard 20-3 with respect to the table face 20-1. It is assumed that Then, it is assumed that the user using the table surface 20-1 places the tag 30 on the inclined surface of the transfer stand 32 as the transfer operation of the image corresponding to the tag 30 located on the table surface 20-1. In this case, as shown in FIG. 18, the display control unit 106 transfers the image 40 corresponding to the tag 30 only to the whiteboard 20-3 to which the transfer stand 32 faces, of the two whiteboards, Display.
  • Transfer operation detection unit 102 The transfer operation detection unit 102 according to the application example 4 is an operation in which the user brings an object closer to and contacts (for example, arranges) an object with respect to the predetermined transfer object arranged on the display surface of the transfer source. If it is detected, this series of operations is detected as a transfer operation for transferring information corresponding to the corresponding object to another display surface.
  • the display control unit 106 When the above-described series of operations are detected as the transfer operation by the transfer operation detection unit 102, the display control unit 106 according to the application example 4 detects the movement progress of the transfer target object during the transfer operation; Based on the detection result of the posture of the predetermined transfer object during the transfer operation, the display surface of the transfer destination is controlled to display an image corresponding to the object to be transferred. For example, in this case, when an image corresponding to the object to be transferred is displayed on the display surface of the transfer destination, the display control unit 106 detects the progress of movement of the object to be transferred during the transfer operation. The display position of the image is continuously changed based on the detection result of the posture of the predetermined transfer object during the transfer operation.
  • FIGS. 19A and 19B the display surface 20-1 (table surface 20-1) of the transfer source and the display surface 20-2 (table surface 20-2) of the transfer destination are identical. It is assumed that the transfer stand 32 is disposed.
  • the transfer stand 32 shown in FIGS. 19A and 19B is an example of the predetermined transfer object described above.
  • the display control unit 106 first causes the image 40 corresponding to the tag 30 to be displayed at the position of the transfer stand 32b on the table surface 20-2. Then, the display control unit 106 performs the transfer operation based on the relationship between the position and the attitude of the transfer stand 32a on the table surface 20-1 and the position and the attitude of the transfer stand 32b on the table surface 20-2.
  • the image 40 is moved in substantially the same manner as the movement of the tag 30 with respect to the transfer stand 32a (for example, the change in speed when moving, the change in acceleration when moving, and the moving path).
  • the display position of 40 is changed continuously. According to this display example, the movement of the tag 30 during the transfer operation can be reproduced while maintaining the relative positional relationship on the display surface 20-2 of the transfer destination.
  • the display control unit 106 When the transfer operation is detected by the transfer operation detection unit 102, the display control unit 106 according to the application example 5 is based on the conversion rule of the character string registered in the surface attribute information DB 128 in association with the display surface of the transfer destination. To generate an image corresponding to the object to be transferred, and to display the image on the display surface of the transfer destination. For example, the display control unit 106 first converts the character string included in the object to be transferred using the conversion rule of the character string registered in the plane attribute information DB 128 in association with the display surface of the transfer destination. . Then, the display control unit 106 generates an image corresponding to the transfer target object so as to include the converted character string (in place of the character string included in the transfer target object).
  • FIG. 20 is a diagram showing a configuration example of the surface attribute information DB 128 according to the application example 5. As shown in FIG. 20, for example, for each type of display surface, a translation rule of a character string included in the object at the time of displaying an image corresponding to the object to be transferred may be predetermined.
  • FIG. 21A is a diagram schematically showing the display surface 20-1 (table surface 20-1) in which No in the surface attribute information DB 128 shown in FIG. 20 is "1".
  • FIG. 21B is a view schematically showing a display surface 20-2 (table surface 20-2) in which No is “2” in the surface attribute information DB 128 shown in FIG.
  • one or more users using display surface 20-1 located in the US and one or more users using display surface 20-2 located in Japan are brains Assume a scene that is storming.
  • the display control unit 106 first specifies all character strings included in the tag 30a by using, for example, an optical character recognition (OCR).
  • OCR optical character recognition
  • the display control unit 106 associates the display surface 20-2 (which is the display surface of the transfer destination of the image corresponding to the tag 30 a) with the tag 30 a based on the translation rule stored in the surface attribute information DB 128. Convert all strings contained in to Japanese.
  • the display control unit 106 generates the image 40 corresponding to the tag 30 a so as to include the converted character string (that is, the Japanese character string).
  • the display control unit 106 displays the image 40 in the transfer area 34b defined in the display surface 20-2.
  • FIG. 22 is a diagram showing a configuration example of a system according to the application example 6.
  • the system further includes a smartphone 50 as compared with the configuration example of the system according to the above-described embodiment illustrated in FIG. 5, for example.
  • the smartphone 50 is configured to be connectable to the communication network 22 by wireless communication.
  • the smartphone 50 can transmit and receive various types of information via the information processing system 10 and the other display surface (display surface 20-2 and display surface 20-3) and the communication network 22.
  • Transfer operation detection unit 102 For example, as shown in FIG. 24A, the transfer operation detection unit 102 according to the application example 6 detects an operation of moving a certain object being displayed on the smartphone 50 to a transfer area being displayed on the smartphone 50. When the result is received from the smartphone 50, this user's operation is detected as a transfer operation for transferring the object from the smartphone 50 to another display surface.
  • Display control unit 106 When the transfer operation on the smartphone 50 is detected by the transfer operation detection unit 102, the display control unit 106 according to the application example 6 is a character string registered in the surface attribute information DB 128 in association with the display surface of the transfer destination. An image corresponding to the object to be transferred is generated based on the conversion rule of, and the image is displayed on the display surface of the transfer destination.
  • FIG. 23 is a view showing a configuration example of the surface attribute information DB 128 according to the application example 6.
  • FIG. 24A is a view schematically showing a display surface with No in the surface attribute information DB 128 shown in FIG. 23 (that is, the display surface of the smartphone 50).
  • FIG. 24B is a diagram schematically showing the display surface 20-2 (bullet board 20-2) having the number “2” in the surface attribute information DB 128 shown in FIG.
  • FIG. 24C is a view schematically showing a display surface 20-2 (bullet board 20-3) in which No is “3” in the surface attribute information DB 128 shown in FIG.
  • the smartphone 50 is used by the father of a certain family
  • the bulletin board 20-2 is disposed in the living room of the house in which the family lives
  • the bulletin board 20- 3 is arranged in the child room of the house.
  • conversion rules of character strings included in the object at the time of display of an image corresponding to an object to be transferred are predetermined for each type of display surface. . It is assumed that an adult user (for example, a mother) who uses the bulletin board 20-2 can easily understand the character string even if the character string includes kanji. Therefore, in the face attribute information DB 128, “do not convert the character string included in the object to be transferred” is associated with the bulletin board 20-2 as the character string conversion rule. On the other hand, it is assumed that a child using the bulletin board 20-3 has difficulty in understanding the character string if the character string includes kanji. Therefore, in the face attribute information DB 128, “converting a character string included in an object to be transferred into a hiragana character” is associated with the bulletin board 20-3 as a character string conversion rule.
  • the sticky note 30 includes a character string (“return soon”) including kanji.
  • the display control unit 106 of the information processing system 10 first specifies a character string included in the tag 30 based on the detection result of the operation received from the smartphone 50. Next, the display control unit 106 determines not to convert the character string included in the tag 30 by referring to the conversion rule stored in the surface attribute information DB 128 in association with the bulletin board 20-2.
  • the display control unit 106 generates an image 40 a corresponding to the sticky note 30 including the character string included in the sticky note 30 as it is. Then, as shown in FIG. 24B, the display control unit 106 causes the image 40a to be displayed on the bulletin board 20-2.
  • the display control unit 106 determines to convert all the character strings included in the tag 30 into “hiragana” by referring to the conversion rule stored in the plane attribute information DB 128 in association with the bulletin board 20-3. Do. Next, the display control unit 106 generates an image 40 b corresponding to the tag 30 so as to include the converted character string. Then, as shown in FIG. 24C, the display control unit 106 causes the image 40b to be displayed on the bulletin board 20-3.
  • Display control unit 106 In the display control unit 106 according to the application example 7, when the transfer operation detection unit 102 detects a transfer operation, first, the format of the image registered in the surface attribute information DB 128 in association with the display surface of the transfer destination ( Or determines the format of the image corresponding to the object to be transferred, based on the conversion rule of layout). Then, the display control unit 106 causes the display surface of the transfer destination to display the image of the determined format as an image corresponding to the object.
  • FIG. 25 is a diagram showing a configuration example of the surface attribute information DB 128 according to the application example 7. As shown in FIG. 25, for example, conversion rules of the format (or layout) of the image corresponding to the object at the time of displaying the image corresponding to the object to be transferred are previously determined for each type of display surface.
  • FIG. 26A is a view schematically showing the display surface 20-1 (table surface 20-1) in which No in the surface attribute information DB 128 shown in FIG. 25 is "1".
  • FIG. 26B is a view schematically showing a display surface 20-2 (bullet board 20-2) in which No is “2” in the surface attribute information DB 128 shown in FIG.
  • a transfer operation is detected in which the two sticky notes 30 located on the table surface 20-1 are moved one by one to the transfer area 34a displayed in the table surface 20-1.
  • the display control unit 106 first converts the format conversion rule stored in the surface attribute information DB 128 in association with the bulletin board 20-2 (which is the display surface of the transfer destination of the image corresponding to the two tags 30).
  • the display control unit 106 converts the shape of the image corresponding to each of the sticky notes 30 into the shape of the “post”, and the “stamps” of the individual “stamps” included in the respective sticky notes 30 Decide to convert each to.
  • the display control unit 106 converts the format of each tag 30 according to the conversion rule determined for each tag 30 to obtain an image 40 (image 40 a and image 40 b) corresponding to each tag 30. Generate each Then, as shown in FIG. 26B, the display control unit 106 displays the image 40a and the image 40b on the bulletin board 20-2.
  • the image of the “post” including the same number of “seal marks” corresponds to the sticky note 30.
  • the image 40 can be displayed on the bulletin board 20-2.
  • the display control unit 106 can operate the display information displayed on the display surface of the transfer destination in the display surface of the transfer source when the transfer operation detection unit 102 detects the transfer operation.
  • the display control unit 106 causes the display surface of the transfer source to display one or more display information in the target area on the display surface of the transfer destination as the predetermined display control.
  • the target area may be a partial area in the display surface of the transfer destination.
  • the display control unit 106 when it is detected that a predetermined operation (hereinafter, may be referred to as a “following operation”) is continued to the transfer operation, the display control unit 106 first transmits the transfer destination.
  • the target area is changed from the predetermined area in the display surface of the display area to another area corresponding to the detection result of the subsequent operation.
  • the display control unit 106 sets the display information in the display screen of the transfer source as display information in the display screen of the transfer destination after the change.
  • the display is controlled such that one or more display information in another area is sequentially displayed on the display surface of the transfer source.
  • the subsequent operation is an example of a second operation according to the present disclosure.
  • the subsequent operation may be an operation continuously performed on the transfer operation while maintaining the operation state of the transfer target object in a predetermined operation state.
  • the transfer operation may be an operation of dragging an object to be transferred on the display surface of the transfer source to the predetermined transfer object.
  • the subsequent operation may be an operation of continuously dragging the object while maintaining a state in which the object is pointed (for example, a state in which the object is touched).
  • the second operation is not limited to the “following operation” described above, and may be another type of operation performed by the user after the above-described transfer operation.
  • the second operation may be an operation of causing the user to move the transfer target object on the transfer source display surface after the transfer of the information corresponding to the transfer target object.
  • the second operation may be an operation in which the user flicks the object to be transferred on the display surface of the transfer source with respect to the predetermined transfer object (for example, transfer table or the like).
  • the predetermined display control may be to change the display mode of the display surface of the transfer source.
  • the predetermined display control may be to change the display color or luminance of the display surface of the transfer source, or to additionally display a predetermined effect on the display surface of the transfer source.
  • the display control unit 106 can change the display state of the display surface of the transfer destination based on the detection result of the subsequent operation.
  • the display control unit 106 causes the display surface of the transfer destination to display information corresponding to the transfer target object based on the detection result of the subsequent operation.
  • the display control unit 106 determines the display position of the image corresponding to the object to be transferred on the display surface of the transfer destination based on the detection result of the subsequent operation.
  • the subsequent operation may be a touch operation (such as a drag operation) on the transfer target object.
  • the display control unit 106 performs the timing on the display surface of the transfer source.
  • the image corresponding to the object to be transferred is displayed at the position on the display surface of the transfer destination corresponding to the position touched immediately before the.
  • FIGS. 27A-27D show display control for the display surface 20-1 of the transfer source (table surface 20-1) and the display surface 20-2 of the transfer destination (white board 20-2) according to the application example 8. It is the figure which showed the example.
  • the user who is using the table surface 20-1 is from outside the transfer area 34a displayed on the table surface 20-1 (as a transfer operation of the image corresponding to the tag 30). It is assumed that the sticky note 30 is dragged by hand into the transfer area 34a, and immediately thereafter, the sticky note 30 is released. In this case, at the timing when the hand is released from the tag 30, as shown in FIG. 27B, the display control unit 106 displays an image corresponding to the tag 30 in the transfer area 34b set on the whiteboard 20-2. Display 40.
  • the display control unit 106 causes the table surface 20-1 to display all display information located in the clipping area 60 defined in the whiteboard 20-2.
  • the image on the whiteboard 20-2 can be changed to be displayed on the table surface 20-1.
  • the clipping area 60 is an example of the above-described target area.
  • the display control unit 106 causes the whiteboard 20-2 to display in real time a display (for example, an outline of the clipping region 60) indicating the clipping region 60. Further, the display control unit 106 indicates the pointing position of the user at a position in the whiteboard 20-2 corresponding to the current position (pointing position) of the hand during the drag operation in the table surface 20-1. The image 62 is displayed. For example, each time the pointing position of the user changes, the display control unit 106 sequentially changes the display position of the image 62 in the whiteboard 20-2.
  • a display for example, an outline of the clipping region 60
  • the display control unit 106 indicates the pointing position of the user at a position in the whiteboard 20-2 corresponding to the current position (pointing position) of the hand during the drag operation in the table surface 20-1.
  • the image 62 is displayed. For example, each time the pointing position of the user changes, the display control unit 106 sequentially changes the display position of the image 62 in the whiteboard 20-2.
  • the display control unit 106 transfers the image 40 corresponding to the tag 30 to the whiteboard 20-2. Then, the display control unit 106 displays the sticky note image 40 at the position of the whiteboard 20-2 corresponding to the position of the sticky note 30 on the table surface 20-1 at the timing when the hand is released from the sticky note 30.
  • the display control unit 106 returns the display state of the table surface 20-1 to the original display state. That is, the display control unit 106 causes the table surface 20-1 to display again the display information displayed on the table surface 20-1 when the subsequent operation is detected, instead of the display information in the clipping area 60.
  • the user using the display surface of the transfer source can display the image corresponding to the object to be transferred at a desired position in the display surface of the transfer destination. it can. Further, the user can determine the transfer position (display position) of the image corresponding to the transfer target object in the display surface of the transfer destination by an intuitive operation such as a drag operation, for example.
  • Display control unit 106 The display control unit 106 according to the application example 9 displays the transfer destination based on the detection result of the subsequent operation while the state where the user is pointing to the transfer target object is maintained. Move the position of the target area in the plane.
  • the display control unit 106 determines the position of the clipping area 60 in the whiteboard 20-2 according to the detection result of the movement (moving distance and moving direction) of the hand of the left hand 4b. Move continuously. That is, the display control unit 106 scrolls the clipping region 60 according to the detection result of the movement of the hand of the left hand 4 b.
  • FIGS. 29A and 29B Next, another specific example of the above-mentioned function will be described with reference to FIGS. 29A and 29B.
  • FIG. 29A (as in the example shown in FIG. 28A), after the user using the table surface 20-1 drags the tag 30 into the transfer area 34a, a hand is removed from the tag 30. It is assumed that the tag 30 is dragged in the table surface 20-1 without releasing it.
  • the corresponding user drags the image 40 corresponding to the tag 30 with the right hand 4a to any end of the table surface 20-1.
  • the display control unit 106 for example, as shown in FIG. 29B, according to the position of the right hand 4a on the table surface 20-1, the whiteboard
  • the clipping area 60 within 20-2 is scrolled continuously.
  • the display control unit 106 clips in the direction of the whiteboard 20-2, which corresponds to the direction in which the right hand 4a is dragging on the table surface 20-1.
  • the area 60 is scrolled continuously.
  • the user can easily change the clipping area 60 (that is, the target area) in the display surface of the transfer destination, so that the transfer position of the transfer target object can be more easily determined. be able to. Therefore, even if the size of the display surface of the transfer source and the size of the display surface of the transfer destination are largely different, the user can easily determine the transfer position of the transfer target object.
  • Display control unit 106 The display control unit 106 according to the application example 10 displays the display screen of the transfer destination during the subsequent operation described above (that is, while the state where the user is pointing to the object to be transferred is maintained). Is displayed on the display surface of the transfer source. For example, the display control unit 106 displays the map image at a predetermined position in the display surface of the transfer source in a size smaller than the display surface of the transfer source.
  • the display control unit 106 A map image 42 showing all display information displayed on substantially the entire display surface 20-2 of the transfer destination is displayed at a predetermined position in the display surface 20-1 of the transfer source.
  • the map image 42 may include a display indicating the current clipping region 60.
  • Display control unit 106 The display control unit 106 according to the application example 11 displays the display screen of the transfer destination during the subsequent operation described above (that is, while the state in which the user is pointing to the object to be transferred is maintained).
  • the display surface of the transfer source is displayed with one or more display information in the target region in and the operation image for moving the target region.
  • FIG. 31A is a diagram showing a display example of the display surface 20-2 of the transfer destination at a certain timing.
  • 31B shows an example in which display information included in the clipping area 60 set on the display surface 20-2 of the transfer destination as shown in FIG. 31A is displayed on the display surface 20-1 of the transfer source.
  • FIG. 31B for example, the display control unit 106 transfers all display information 40 included in the clipping area 60 and a plurality of scroll buttons 44 for scrolling the clipping area 60 in different directions. Is displayed on the display surface 20-1. For example, the user can scroll the clipping area 60 in the direction corresponding to the scroll button 44 by touching the individual scroll buttons 44.
  • the display control unit 106 further causes the display surface 20-1 of the transfer source to further display the image 46 indicating the direction of the transfer area defined on the display surface 20-2 of the transfer destination. May be According to this display example, for example, even when the user moves the clipping area 60, the user can real-time the positional relationship between the current position of the clipping area 60 and the entire display surface of the transfer destination. And, it can be easily grasped.
  • a first target area in one display surface 20-2 is displayed on another display surface 20-1, and a second target area in the display surface 20-2 is another display surface. Assume that it is displayed in 20-3.
  • the display surface 20-2 may be a display surface of a target of joint editing of one or more users using the display surface 20-1 and one or more users using the display surface 20-3. .
  • Display control unit 106 The display control unit 106 according to the application example 12 displays the display surface 20-2 while one or more display information in the first target area in the display surface 20-2 is displayed on the display surface 20-1.
  • the display surface 20-1 can display a display indicating the positional relationship between the first target region in the display surface and the second target region in the display surface 20-2.
  • the display control unit 106 is displaying on the display surface 20-3 one or more display information in the second target region in the display surface 20-2
  • the display control unit 106 A display indicating the positional relationship with the second target area can be displayed on the display surface 20-3.
  • the information processing system 10 may be configured to perform the second operation of the one or more users using the display surface 20-3 with respect to the one or more display information in the second target area displayed on the display surface 20-3.
  • Editing operation information may be received from display surface 20-3.
  • the display control unit 106 displays the operation content indicated by the second editing operation information on the display surface. It can be displayed on 20-1.
  • the display control unit 106 acquires first editing operation information of one or more users who are using the display surface 20-1 with respect to one or more display information in the first target area, and The operation content indicated by the first editing operation information can be displayed on the display surface 20-3.
  • the whiteboard 20-2, the table surface 20-1, and the table surface 20-3 are located remotely from one another. Then, all display information in the clipping area 60a in the whiteboard 20-2 is displayed on the table surface 20-1, and all display information in the clipping area 60b in the whiteboard 20-2 is a table. It is displayed on surface 20-3.
  • the display control unit 106 causes all the display information 40 in the clipping area 60a to be displayed on the table surface 20-1.
  • the display control unit 106 displays an image (for example, an outline of the clipping area 60b) indicating the clipping area 60b at the relative position of the clipping area 60b with respect to the position of the clipping area 60a in the table surface 20-1. Is displayed.
  • the display control unit 106 sets a position on the table surface 20-1 corresponding to a pointing position (such as a finger position) of the user who is using the table surface 20-3 with reference to the position of the clipping region 60a.
  • An image 62b indicating the pointing position is displayed.
  • the display control unit 106 causes all the display information 40 in the clipping area 60b to be displayed on the table surface 20-3.
  • the display control unit 106 displays an image (for example, an outline of the clipping area 60a) indicating the position of the clipping area 60a at the relative position of the clipping area 60a with respect to the position of the clipping area 60b in the table surface 20-3. Etc.).
  • the display control unit 106 sets a position on the table surface 20-3 corresponding to a pointing position (such as a finger position) of the user who is using the table surface 20-1 with reference to the position of the clipping region 60b.
  • An image 62a indicating the pointing position is displayed.
  • the display control unit 106 displays an image indicating the position of the clipping region 60a, an image indicating the position of the clipping region 60b, and an image indicating the pointing position of the user using the table surface 20-1.
  • An image 62b indicating the pointing position of the user using the table surface 62-3 and the table surface 20-3 may be displayed on the whiteboard 20-2 simultaneously and in real time.
  • the user who uses the table surface 20-1 and the user who uses the table surface 20-3 are the pointing position of the other user and the other user on the whiteboard 20-2. It is possible to simultaneously refer to the clipping region. Then, the other user can know in real time the contents being edited on the whiteboard 20-2. Therefore, users at different points can easily perform collaborative editing work on the whiteboard 20-2.
  • Display control unit 106 When the subsequent operation described above is detected (that is, while the user is pointing to the object to be transferred, the display control unit 106 according to the application example 13 transfers the data). A map image showing all display information displayed on substantially the entire display surface is displayed on the display surface of the transfer source according to the pointing position of the user. Furthermore, when the user designates a position in the map image, the display control unit 106 sets the position in the display surface of the transfer destination corresponding to the designated position to that of the image corresponding to the object to be transferred. Determined as the transfer position.
  • FIGS. 33A-33C the above functions will now be described in more detail with reference to FIGS. 33A-33C.
  • the user using the display surface 20-1 drags the tag 30 located on the display surface 20-1 to the transfer area 34a displayed on the display surface 20-1. Let's say. Thereafter, as shown in FIG. 33B, it is assumed that the user maintains the corresponding hand from the sticky note 30 and maintains the hand for a predetermined time or more.
  • the display control unit 106 touches the tag image 30 by touching the map image 42 showing all the display information displayed on substantially the entire display surface 20-2 of the transfer destination.
  • the display surface 20-1 is displayed on the basis of the position of the finger in question.
  • the user specifies the transfer position of the image corresponding to the tag 30 by dragging the corresponding finger in the map image 42, for example.
  • the display control unit 106 determines the position on the display surface 20-2 of the transfer destination corresponding to the position touched by the finger in the map image 42 immediately before the finger is released from the tag 30.
  • the transfer position of the image 40 corresponding to the tag 30 can be determined.
  • the corresponding user can designate the transfer position of the image corresponding to the tag 30, while looking over the entire display surface 20-2 of the transfer destination.
  • the information processing system 10 includes a CPU 150, a read only memory (ROM) 152, a random access memory (RAM) 154, a bus 156, an interface 158, an input device 160, an output device 162, and a storage device 164. And a communication device 166.
  • ROM read only memory
  • RAM random access memory
  • the CPU 150 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the information processing system 10 according to various programs.
  • the CPU 150 can also realize the functions of the processing unit 100 and the display processing unit 122 in the information processing system 10.
  • the CPU 150 can be configured by a processor such as a microprocessor.
  • the ROM 152 stores programs used by the CPU 150, control data such as calculation parameters, and the like.
  • the RAM 154 temporarily stores, for example, a program to be executed by the CPU 150.
  • the bus 156 is configured of a CPU bus and the like.
  • the bus 156 connects the CPU 150, the ROM 152, and the RAM 154 to one another.
  • the interface 158 connects the input device 160, the output device 162, the storage device 164, and the communication device 166 to the bus 156.
  • the input device 160 includes an input unit (for example, a touch panel, a button, a switch, a dial, a lever, or a microphone) for the user to input information. Furthermore, the input device 160 includes an input control circuit that generates an input signal based on an input by the user and outputs the input signal to the CPU 150. The input device 160 can realize the function of the input unit 120 in the information processing system 10.
  • an input unit for example, a touch panel, a button, a switch, a dial, a lever, or a microphone
  • the output device 162 includes, for example, a display device such as a projector, a liquid crystal display device, an OLED (Organic Light Emitting Diode) device, or a lamp.
  • the output device 162 also includes an audio output device such as a speaker.
  • the output device 162 can realize the function of the output unit 124 in the information processing system 10.
  • the storage device 164 is a device for storing data.
  • the storage device 164 includes, for example, a storage medium, a recording device that records data in the storage medium, a reading device that reads data from the storage medium, or a deletion device that deletes data recorded in the storage medium.
  • the storage device 164 can implement the function of the storage unit 126 in the information processing system 10.
  • the communication device 166 is a communication interface including, for example, a communication device for connecting to a communication network such as the Internet or a local area network (LAN). Further, the communication device 166 may be a wireless LAN compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a wire communication device performing communication by wire.
  • a communication network such as the Internet or a local area network (LAN).
  • the communication device 166 may be a wireless LAN compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a wire communication device performing communication by wire.
  • LTE Long Term Evolution
  • FIG. 6 shows an example in which the display processing unit 122 and the processing unit 100 are separately provided, the present embodiment is not limited to such an example. As a modification, the display processing unit 122 and the processing unit 100 may be integrally configured.
  • composition of the system concerning this embodiment is not limited to the example mentioned above.
  • a server 80 having the processing unit 100 according to the above-described embodiment and each application may be connected to the communication network 22.
  • the server 80 can communicate with each display surface 20 connected to the communication network 22 via the communication network 22.
  • the server 80 can perform display control substantially similar to the contents described in the above-described embodiment and the respective application examples on the respective display surfaces 20.
  • the input unit 120, the display processing unit 122, and the output unit 124 described above may be disposed at the locations where the individual display surfaces 20 are located (or on the individual display surfaces 20 themselves).
  • the server 80 may receive input information acquired by the input unit 120 corresponding to the individual display surface 20 from the individual display surface 20. Furthermore, the server 80 performs display control similar to the contents described in the above-described embodiment and the respective application examples to the individual display surfaces 20 based on the input information received from the individual display surfaces 20. It is also good.
  • a device (information processing device) including the processing unit 100 is a device including one or more of the input unit 120, the display processing unit 122, or the output unit 124 described above. It may be.
  • the information processing apparatus may be a projector including the processing unit 100, the display processing unit 122, and the output unit 124.
  • the information processing apparatus may be configured integrally with the table 90.
  • the information processing apparatus may be connected to at least one of the input unit 120, the display processing unit 122, and the output unit 124 via the above-described communication network.
  • the information processing apparatus may be a server, a general-purpose PC (Personal Computer), a tablet terminal, a game machine, a mobile phone such as a smartphone, a portable music player, a television receiver such as an HMD (Head Mounted Display) or a smart watch.
  • a wearable device such as a robot (for example, a humanoid robot or an autonomous vehicle).
  • hardware such as the CPU 150, the ROM 152, and the RAM 154 performs functions equivalent to the configurations of the information processing system 10 (particularly, the processing unit 100) according to the embodiment described above.
  • Computer programs can also be provided. There is also provided a storage medium having the computer program recorded thereon.
  • the information processing according to (2), wherein the second operation is an operation continuously performed on the first operation while maintaining an operation state on the first object in a predetermined operation state. system.
  • the predetermined display control includes displaying one or more display information in a first target area on the second display surface on the first display surface. .
  • the first target area is a partial area in the second display surface,
  • the processing unit further determines, based on the detection result of the second operation, the first target area from a first area in the second display surface to a second area in the second display surface. Change to When the first target area is changed from the first area to the second area, the processing unit converts the display information displayed on the first display surface into the first area.
  • the information processing system according to (4), wherein the display information is switched from one or more pieces of display information to one or more pieces of display information in the second area.
  • the first target area is substantially the entire second display surface
  • the predetermined display control includes displaying, on the first display surface, a map image indicating one or more display information displayed on substantially the entire second display surface,
  • the information processing system according to (4), wherein the size of the map image is smaller than the size of the first display surface.
  • the processing unit is configured to, on a third display surface located at a location remote from each of the location where the first display surface is located and the location where the second display surface is located, a third display surface in the second display surface Display one or more display information in the two target areas, While the one or more display information in the first target area is displayed on the first display surface, the processing unit determines a positional relationship between the first target area and the second target area.
  • the information processing system according to any one of the above (4) to (6), further displaying a display indicating the on the first display surface.
  • Pointing information indicating a position at which the second user is pointing on the third display surface while one or more display information in the second target area is displayed on the third display surface
  • the processing unit may correspond to a pointing position indicated by the pointing information while the one or more pieces of display information in the first target area are displayed on the first display surface.
  • the information processing system according to (7), further displaying a predetermined image at an inner position.
  • the processing unit further determines the transfer position on the second display surface of the information corresponding to the first object based on the detection result of the second operation. (4) to (8) The information processing system according to any one of the above.
  • the first target area is substantially the entire second display surface
  • the predetermined display control includes displaying, on the first display surface, a map image indicating one or more display information displayed on substantially the entire second display surface, The size of the map image is smaller than the size of the first display surface
  • the second operation includes the designation of the transfer position of the information corresponding to the first object on the second display surface in the map image by the first user, as described in (9).
  • the information corresponding to the first object is an image corresponding to the first object, The information processing system according to (9) or (10), wherein the processing unit further causes an image corresponding to the first object to be displayed at the transfer position on the second display surface.
  • the processing unit further determines, from among the plurality of display surfaces corresponding to the first display surface, at least one display surface to which information corresponding to the first object is transferred, the one or more predetermined display surfaces. It is determined based on the information indicating the state of the transfer object and the detection result of the first operation, The information processing system according to any one of (3) to (11), wherein the plurality of display surfaces include the second display surface. (13) A plurality of the one or more predetermined transfer objects exist, Each of the plurality of predetermined transfer objects is a real object, When the first operation is detected, the processing unit determines whether the distance between any two transfer objects of the plurality of predetermined transfer objects is equal to or less than a predetermined threshold value.
  • the display surface of at least one of the transfer destinations of the information corresponding to the first object is determined from among the plurality of display surfaces based on whether or not the arrangement of the two transfer objects is a predetermined arrangement.
  • the information processing system according to (12).
  • the predetermined transfer object is a real object having a plurality of faces, Each of the plurality of surfaces of the predetermined transfer object is associated with a different display surface of the plurality of display surfaces,
  • the first operation includes disposing the first object by the first user on one of the plurality of faces of the predetermined transfer object; When the first operation is detected, the processing unit determines a display surface associated with the surface on which the first object of the plurality of surfaces of the predetermined transfer object is disposed.
  • the predetermined transfer object is a real object having at least one inclined surface,
  • the first operation includes disposing the first object by the first user on any of the at least one inclined surface of the predetermined transfer object; When the first operation is detected, the processing unit causes the display surface located in the direction in which the first object is facing among the plurality of display surfaces to be the first object.
  • the predetermined transfer object is a real object
  • the processing unit causes the movement of the first object with respect to the predetermined transfer object during the first operation.
  • the display position of the image in the second display surface is continuously changed based on the detection result of and the detection result of the posture of the predetermined transfer object, any one of the above (12) to (15)
  • the information processing system according to one item.
  • the information corresponding to the first object is an image corresponding to the first object
  • the information related to the second display surface includes string conversion rule information related to the second display surface, When the first character string is included in the first object, the processing unit is based on the character string conversion rule information and the first character string related to the second display surface.
  • Information processing system. (18)
  • the information corresponding to the first object is an image corresponding to the first object
  • the information related to the second display surface includes conversion rule information of the format of an image related to the second display surface
  • the processing unit determines, as an image corresponding to the first object, the image of the format determined based on the conversion rule information of the format of the image and the first object related to the second display surface.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ある表示面内のオブジェクトを転送オブジェクトに対して移動させる操作に適応的に当該表示面の表示を制御することが可能な、情報処理システム、情報処理方法、およびプログラムを提案する。 【解決手段】第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行い、かつ、前記第1の操作の後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更する処理部、を備える、情報処理システム。

Description

情報処理システム、情報処理方法、および、プログラム
 本開示は、情報処理システム、情報処理方法、および、プログラムに関する。
 従来、AR(Augmented Reality)に関する技術が各種開発されている。ARでは、ユーザが位置する環境内のオブジェクトに関連する付加情報を当該ユーザに対して提示することができる。
 例えば、下記特許文献1には、撮像された画像を解析することによりマーカーを検出し、そして、検出されたマーカーに関連付けられている機能を呼び出す技術が記載されている。
特開2015-90524号公報
 しかしながら、特許文献1に記載の技術では、ある表示面内のオブジェクトを転送オブジェクトに対して移動させる操作が検出された場合に、当該操作に適応的に当該表示面の表示を適切に制御することは考慮されていなかった。
 そこで、本開示では、ある表示面内のオブジェクトを転送オブジェクトに対して移動させる操作に適応的に当該表示面の表示を制御することが可能な、新規かつ改良された情報処理システム、情報処理方法、および、プログラムを提案する。
 本開示によれば、第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行い、かつ、前記第1の操作の後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更する処理部、を備える、情報処理システムが提供される。
 また、本開示によれば、第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行うことと、プロセッサが、前記第1の操作の検出時以後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更することと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行い、かつ、前記第1の操作の検出時以後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更する処理部、として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、ある表示面内のオブジェクトを転送オブジェクトに対して移動させる操作に適応的に当該表示面の表示を制御することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態に係る情報処理システム10の構成例を示した図である。 同実施形態に係る情報処理システム10の別の構成例を示した図である。 同実施形態に係る情報処理システム10の別の構成例を示した図である。 同実施形態に係る情報処理システム10の別の構成例を示した図である。 同実施形態に係るシステムの別の構成例を示した図である。 同実施形態に係る情報処理システム10の機能構成の一例を示したブロック図である。 同実施形態に係る、オブジェクトに対応する情報を別の表示面に転送させるための転送操作の一例を示した図である。 同実施形態に係る面属性情報DB128の構成例を示した図である。 同実施形態に係る面属性適合処理部104の機能の一例を示した図である。 同実施形態に係る面属性適合処理部104の機能の一例を示した図である。 同実施形態に係る面属性適合処理部104の機能の別の例を示した図である。 同実施形態に係る面属性適合処理部104の機能の別の例を示した図である。 同実施形態に係る処理の流れの一部を示したフローチャートである。 同実施形態に係る処理の流れの一部を示したフローチャートである。 本実施形態の応用例1に係る、オブジェクトに対応する画像の転送例を示した図である。 同応用例1に係る、オブジェクトに対応する画像の別の転送例を示した図である。 本実施形態の応用例2に係る、オブジェクトに対応する画像の転送例を示した図である。 同応用例2に係る、オブジェクトに対応する画像の別の転送例を示した図である。 本実施形態の応用例3に係る、オブジェクトに対応する画像の転送例を示した図である。 同応用例3に係る、オブジェクトに対応する画像の別の転送例を示した図である。 本実施形態の応用例4に係る、オブジェクトに対応する画像の転送操作の例を示した図である。 同応用例4に係る、オブジェクトに対応する画像の転送例を示した図である。 本実施形態の応用例5に係る面属性情報DB128の構成例を示した図である。 同応用例5に係る、オブジェクトに対応する画像の転送操作の例を示した図である。 同応用例5に係る、転送対象のオブジェクトに対応する画像を、転送先の表示面に応じて変換して表示させた例を示した図である。 本実施形態の応用例6に係るシステムの構成例を示した図である。 同応用例6に係る面属性情報DB128の構成例を示した図である。 同応用例6に係る、スマートフォン50の表示画面に対する、オブジェクトに対応する画像の転送操作の例を示した図である。 同応用例6に係る、転送対象のオブジェクトに対応する画像を、転送先の表示面に応じて変換して表示させた例を示した図である。 同応用例6に係る、転送対象のオブジェクトに対応する画像を、転送先の表示面に応じて変換して表示させた例を示した図である。 本実施形態の応用例7に係る面属性情報DB128の構成例を示した図である。 同応用例7に係る、オブジェクトに対応する画像の転送操作の例を示した図である。 同応用例7に係る、転送対象のオブジェクトに対応する画像を、転送先の表示面に応じて変換して表示させた例を示した図である。 本実施形態の応用例8に係る、オブジェクトに対応する画像の転送操作の例を示した図である。 同応用例8に係る、オブジェクトに対応する画像の転送例を示した図である。 同応用例8に係る、転送先の表示面内の対象領域内の表示情報を、転送元の表示面に表示させた例を示した図である。 図27Cに示したタイミングにおける、転送先の表示面の表示例を示した図である。 本実施形態の応用例9に係る、転送先の表示面内の対象領域をスクロールさせるための、転送元の表示面内の操作の一例を示した図である。 図28Aに示した操作に基づいた、対象領域の移動例を示した図である。 同応用例9に係る、転送先の表示面内の対象領域をスクロールさせるための、転送元の表示面内の別の操作の例を示した図である。 図28Bに示した操作に基づいた、対象領域の移動例を示した図である。 本実施形態の応用例10に係る、転送先の表示面の表示例を示した図である。 図30Aに示したタイミングにおける、転送先の表示面の略全体を示すマップ画像を転送元の表示面に表示させた例を示した図である。 本実施形態の応用例11に係る、転送先の表示面の表示例を示した図である。 同応用例11に係る、図31Aに示したタイミングにおける転送元の表示面の表示例を示した図である。 本実施形態の応用例12に係る、テーブル面20‐1およびテーブル面20‐3において、ホワイトボード20‐2に対する編集作業が同時に行われている際の、ホワイトボード20‐2の表示例を示した図である。 図32Aに示したタイミングにおけるテーブル面20‐1の表示例を示した図である。 図32Aに示したタイミングにおけるテーブル面20‐3の表示例を示した図である。 本実施形態の応用例13に係る、転送対象のオブジェクトを転送領域内へ移動させる操作の例を示した図である。 図33Aに示したタイミングの後に、転送対象のオブジェクトをユーザがタッチし続けている様子を示した図である。 図33Bに示したタイミングの後に表示される、該当のオブジェクトの転送位置を指定するためのマップ画像の表示例を示した図である。 本実施形態に係る情報処理システム10のハードウェア構成の例を示した図である。 同実施形態の変形例に係るシステムの構成例を示した図である。
 以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成要素を、必要に応じてテーブル90aおよびテーブル90bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、テーブル90aおよびテーブル90bを特に区別する必要が無い場合には、単にテーブル90と称する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.情報処理システムの構成
 2.実施形態の詳細な説明
 3.応用例
 4.ハードウェア構成
 5.変形例
<<1.情報処理システムの構成>>
 まず、本開示の実施形態に係る情報処理システムの構成例について、図1を参照して説明する。なお、本明細書において、システムとは、所定の処理を実行するための構成を意味し得る。システムは、1つの装置から構成されてもよいし、または、複数の装置から構成されてもよい。また、本実施形態に係る情報処理システム10も、情報処理システム10全体として所定の処理を実行可能に構成されていればよく、情報処理システム10内のどの構成を1つの装置とみなすかは任意であってよい。
 図1は、情報処理システム10の一構成例を示した図である。図1を参照すると、本実施形態に係る情報処理システム10aは、入力部120aおよび出力部124aを備える。
 <1-1.出力部124>
 出力部124aは、後述する出力装置162を含んで構成され得る。出力部124aは、各種の情報をテーブル90a上に表示する。出力部124aは、投影部(プロジェクタ)であり得る。例えば、図1に示したように、出力部124aは、テーブル90aの上方に、天井から吊り下げられた状態でテーブル90aと所定の距離離隔して配置され得る。この場合、出力部124aは、テーブル90aの天面に情報を投影し得る。例えば、出力部124aは、ペンダントライトやデスクスタンドライトであってもよい。このように上方からテーブル90aの天面に情報を表示する方式を「プロジェクション型」とも呼称する。また、以下では、テーブル90の天面を表示面20と称する場合がある。表示面20は、出力部124による投影の対象となる面(スクリーン)を含む。
 例えば、出力部124aは、後述する表示処理部122の制御に従って、仮想的な表示オブジェクトを表示する。表示オブジェクトは、例えば、ウィンドウやUI(User Interface)オブジェクトなどである。UIオブジェクトは、ユーザによる各種の操作(選択や入力など)を受け付ける所定の画像(静止画像や動画像)である。例えば、UIオブジェクトは、GUI(Graphical User Interface)部品(例えば、ボタン、スライダー、チェックボックス、テキストボックス、ソフトウェアキーボード等)を含む画像である。また、UIオブジェクトは、ウィンドウ内に配置され得る。
 <1-2.入力部120>
 入力部120aは、後述する入力装置160を含んで構成され得る。入力部120aは、例えば、1つのレンズでテーブル90aを撮像するカメラを含む。または、入力部120aは、2つのレンズでテーブル90aを撮像することにより、奥行き方向の情報を記録することが可能なステレオカメラを含み得る。ステレオカメラとしては、例えば可視光カメラや、赤外線等の不可視光を検出可能な不可視光カメラ等が用いられ得る。また、入力部120aは、ユーザが発する音声や、周囲の環境の環境音を収音するマイクロフォン等の音声入力装置をさらに含み得る。
 上記のカメラが入力部120aとして用いられる場合、情報処理システム10aは、そのカメラが撮像した画像(撮像画像)を解析することにより、表示面20上に位置する物体(例えばユーザの手など)の位置を検出することができる。なお、本明細書および図面において「手」という記載は、主として手(hand)自体を意味する表現として用いられ得る。但し、かかる例に限定されず、この記載は、手指、腕、または、これらの部位のうちの2以上(例えば上肢など)を意味する表現として用いられる場合がある。
 また、入力部120aとしてステレオカメラが用いられる場合には、情報処理システム10aは、当該ステレオカメラによる撮像画像を解析することにより、表示面20上に位置する物体の位置情報に加えて、当該物体の深度情報を取得することができる。情報処理システム10aは、当該深度情報に基づいて、表示面20へのユーザの手の接触若しくは近接、及び表示面20からの手の離脱を検出することが可能である。なお、入力部120aは、ステレオカメラの代わりに、他の種類のデプスセンサ(例えばtime of flight方式のセンサや、structured light方式のセンサなど)を有してもよい。この場合、当該デプスセンサが、表示面20上に位置する物体の深度情報を取得し得る。
 本実施形態では、入力部120aにより撮像される画像に基づいて、表示面20上における操作体(例えばユーザの手や、スタイラス等の各種の操作部材など)の位置が検出され、そして、検出された操作体の位置に基づいて各種の情報が入力され得る。つまり、ユーザは、表示面20上で操作体を動かすことにより、各種の操作入力を行うことができる。例えば、ウィンドウやUIオブジェクトに対するユーザの手の接触が検出されることにより、当該ウィンドウやUIオブジェクトに対する操作入力が行われることになる。
 また、入力部120aに含まれるカメラは、テーブル90aの天面を撮影するだけでなく、テーブル90aの周囲に存在するユーザを撮影可能であり得る。この場合、情報処理システム10aは、入力部120aによる撮像画像に基づいて、テーブル90aの周囲におけるユーザの位置を検出することができる。また、情報処理システム10aは、当該撮像画像に基づいて、個々のユーザの身体的な特徴(顔や体の大きさ等)を検出することにより、ユーザの個人認識を行ってもよい。
 なお、ユーザの操作入力は、前述した例に限定されず、他の方法により実行されてもよい。例えば、入力部120aは、テーブル90aの天面(表示面20a)上にタッチパネルとして配置されてもよく、そして、ユーザの操作入力は、当該タッチパネルに対するユーザの指等の接触によって検出されてもよい。または、入力部120aに含まれるカメラによりユーザのジェスチャ操作が撮影され、そして、当該撮影画像に基づいてユーザの操作入力が検出されてもよい。
 <1-3.変形例>
 以上、本実施形態に係る情報処理システム10aの構成について説明した。なお、本実施形態に係る情報処理システム10の構成は図1に示した例に限定されない。情報処理システム10の構成は、例えば図2~図4に示したような別の構成であってもよい。
 {1-3-1.変形例1}
 図2は、本実施形態に係る情報処理システム10の別の構成例(情報処理システム10b)を示す図である。図2に示したように、情報処理システム10bでは、テーブル90bの下方に出力部124bが配置される。出力部124bは、例えばプロジェクタであり、当該テーブル90bの天板に向かって、テーブル90bの下側から情報を投影する。例えば、テーブル90bの天板は、ガラス板や透明プラスチック板等の透明な材質で形成される。そして、出力部124bによって投影された情報は、(当該天板を透過して)テーブル90bの天面(表示面20b)に表示される。このようにテーブル90bの下から情報を出力部124bに投影させることにより表示面20bに情報を表示する方式を「リアプロジェクション型」とも称する。
 また、図2に示した例では、表示面20bに入力部120bが設けられる。例えば、入力部120bは、タッチパネルによって構成される。この場合、表示面20bへの操作体の接触が当該タッチパネルによって検出されることにより、ユーザの操作入力が受け付けられ得る。但し、かかる例に限定されず、図2に示した情報処理システム10aと同様に、テーブル90bの下方にテーブル90bと離隔して入力部120bが配置されてもよい。この場合、入力部120bはカメラを含み、そして、テーブル90bの天板越しに、表示面20b上に位置する操作体を当該カメラは撮影し得る。そして、当該撮影画像に基づいて当該操作体の位置が検出され得る。
 {1-3-2.変形例2}
 図3は、本実施形態に係る情報処理システム10のさらに別の構成例(情報処理システム10c)を示す図である。図3に示したように、情報処理システム10cでは、タッチパネル式のディスプレイが、その表示面を上方に向けた状態でテーブル90c上に配置される。情報処理システム10cでは、入力部120c及び出力部124cは、当該タッチパネル式のディスプレイとして一体的に構成され得る。つまり、ディスプレイの表示画面(表示面20c)に各種の情報が表示され、そして、当該ディスプレイの表示画面に対する操作体の接触がタッチパネルによって検出されることにより、ユーザの操作入力が受け付けられ得る。
 なお、情報処理システム10cにおいても、図1に示した情報処理システム10aと同様に、出力部124cの上方にカメラ(入力部120cの一例)が配置されてもよい。この場合、当該カメラによる撮影画像に基づいて、テーブル90cの周囲に位置する個々のユーザが検出され得る。
 {1-3-3.変形例3}
 図4は、本実施形態に係る情報処理システム10のさらに別の構成例(情報処理システム10d)を示す図である。図4に示したように、情報処理システム10dは、例えばHMD(Head Mounted Display)などの頭部装着型デバイス(例えば眼鏡型デバイスなど)として構成され得る。当該頭部装着型デバイスは、入力部120d(図示省略)及び出力部124d(図示省略)を含み得る。出力部124dは、透過型の表示装置として構成されてもよい。この場合、出力部124dは、頭部装着型デバイスに含まれる右目用レンズおよび左目用レンズの各々(または、ゴーグル型レンズ)の少なくとも一部の領域を投影面(表示面20d)として映像を投影し得る。
 または、出力部124dは、非透過型の表示装置として構成されてもよい。例えば、出力部124dは、LCD(Liquid Crystal Display)、または、OLED(Organic Light Emitting Diode)などを含んで構成され得る。さらに、入力部120dは、カメラを含み得る。この場合、当該カメラは、当該頭部装着型デバイスを装着するユーザの前方の映像を撮影し、そして、出力部124dは、撮影された映像を逐次表示してもよい。これにより、ユーザは、出力部124dに表示される映像を介して、ユーザの前方の風景を見ることができる。
 {1-3-4.変形例4}
 次に、図5を参照して、本実施形態に係るシステムの別の構成例について説明する。図5は、当該システムの構成例を示した図である。図5に示したように、上述した情報処理システム10a~情報処理システム10dのうちのいずれか一つと、一以上の別の表示面20とが例えば通信網22を介して接続されていてもよい。ここで、当該別の表示面20は、例えばホワイトボードであってもよいし、上記の表示面20aや表示面20bのようなテーブルの天面であってもよいし、表示面20cのような所定のディスプレイであってもよいし、または、例えば表示面20dのような、頭部装着型デバイスに含まれる所定の面であってもよい。
 通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 以下では、本実施形態に係るシステムの構成例が、例えば図5に示したような構成である場合を主として説明を行う。
 以上、本実施形態に係る情報処理システム10の構成について説明した。後述するように、本実施形態によれば、ある表示面内に位置するオブジェクトに対応する情報を別の表示面へ転送する場面において、転送元の表示面内に位置する全てのオブジェクトのうち、ユーザが選択したオブジェクトに対応する情報だけを転送先の表示面に表示させることが可能である。
 なお、本明細書および図面において、異なる表示面20を区別して説明する場合、例えば表示面20‐1や表示面20‐2のように、「表示面20」という記載の後にそれぞれ異なる番号を付す場合がある。また、本明細書および図面において、表示面20上に配置されている実オブジェクト、および、表示面20に表示されている表示オブジェクトを総称して「表示面20上に位置するオブジェクト」と記載する場合がある。以下では、本実施形態の内容についてさらに詳細に説明する。
<<2.実施形態の詳細な説明>>
 <2-1.構成>
 まず、本実施形態に係る情報処理システム10の機能構成について詳細に説明する。図6は、情報処理システム10の機能構成の例を示したブロック図である。図6に示したように、情報処理システム10は、処理部100、入力部120、表示処理部122、出力部124、および、記憶部126を含む。なお、以下では、上記の説明と同様の内容については説明を省略する。
 {2-1-1.表示処理部122}
 表示処理部122は、一または複数の処理回路(例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unitなど)を含んで構成され得る。表示処理部122は、入力部120が取得した入力情報に基づき、出力部124により表示され得るグラフィックスに関する処理を行う。例えば、表示処理部122は、ウィンドウなどの表示オブジェクトの描画処理を行い、そして、処理結果を出力部124へ出力する。一例として、表示処理部122は、個々の表示オブジェクトに対するユーザの操作に応じて、これらの表示オブジェクトの描画処理を行う。
 また、表示処理部122は、入力部120が取得した入力情報(例えば撮像画像など)を入力部120から取得し、そして、当該入力情報を処理部100へ出力し得る。さらに、表示処理部122は、処理部100により処理された情報を処理部100から受け取り、そして、当該情報に基づいて描画処理を行うことも可能である。
 {2-1-2.処理部100}
 処理部100は、一または複数の処理回路(例えば、後述するCPU150やGPUなど)を含んで構成され得る。処理部100は、入力部120が取得した入力情報に基づいて各種の処理を行う。
 また、図5に示したように、処理部100は、転送操作検出部102、面属性適合処理部104、および、表示制御部106を有する。
 {2-1-3.転送操作検出部102}
 転送操作検出部102は、表示面20‐1内に位置する一つのオブジェクトを別の表示面20‐2へ転送させるための転送操作を、入力部120から取得される入力情報に基づいて検出する。例えば、表示面20‐1内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して、当該表示面20‐1上に位置する一つのオブジェクトをあるユーザが移動させる操作(例えば接近させること)が検出された場合には、転送操作検出部102は、該当の操作を当該転送操作として検出する。ここで、当該検出領域は、当該所定の転送オブジェクトと同一であってもよい。または、当該検出領域は、表示面20‐1における、当該所定の転送オブジェクトが位置するオブジェクト領域の全部または一部を含み、かつ、当該オブジェクト領域の輪郭から所定の距離内である領域であってもよい。なお、後述する「転送領域」は、当該検出領域の一例である。また、転送操作は、本開示に係る第1の操作の一例である。
 また、当該所定の転送オブジェクトは、所定の実オブジェクト(例えば、図7に示したような所定の転送台32など)であってもよいし、所定の表示オブジェクトであってもよい。例えば、所定の転送台が表示面20‐1上に配置され、かつ、表示面20‐1上に位置する一つのオブジェクトを転送台32に近づける操作が検出された場合には、転送操作検出部102は、該当の操作を当該転送操作として検出してもよい。
 または、図7に示したように、転送台32が表示面20‐1上に配置された場合には、処理部100は、転送台32の周囲に例えば円形の転送領域34を設定し、そして、転送領域34を表示面20‐1上に表示し得る。この場合、表示面20‐1上に位置する一つのオブジェクト(図7に示した例では付箋30)を、転送領域34の外から転送領域34の内部へユーザがドラッグする操作が検出された場合には、転送操作検出部102は、該当の操作を当該転送操作として検出し得る。ここで、転送領域34は、上記の検出領域の一例である。なお、本実施形態は、図7に示した例に限定されず、処理部100は、転送台32が配置されていない場所に転送領域34を設定してもよい。
 {2-1-4.面属性適合処理部104}
 面属性適合処理部104は、転送操作検出部102により転送操作が検出された場合に、転送先の表示面に表示される、転送対象のオブジェクトに対応する情報の表示設定を、当該転送先の表示面に関連する情報と当該転送元の表示面に関連する情報とに基づいて決定する。例えば、面属性適合処理部104は、当該転送先の表示面に表示される、当該転送対象のオブジェクトの情報の表示設定を、図8に示したような面属性情報DB128に格納されている、当該転送先の表示面に関連する情報に基づいて決定する。ここで、当該転送対象のオブジェクトの情報の表示設定は、例えば、該当の転送先の表示面内での当該情報の例えば表示サイズ、表示方向、および、表示内容などを含み得る。なお、当該転送前の表示面は、本開示に係る第1の表示面の一例である。また、当該転送先の表示面は、本開示に係る第2の表示面の一例である。
 (2-1-4-1.面属性情報DB128)
 面属性情報DB128は、個々の表示面に関連する情報(属性情報など)を格納するデータベースである。ここで、表示面に関連する情報は、例えば、該当の表示面の画面特性(例えば、物理的な大きさ、解像度、アスペクト比など)、および、該当の表示面のレイアウト特性(例えば、当該表示面に対する重力の方向など)などを含む。面属性情報DB128は、例えば、リレーショナルデータベースやルックアップテーブルのような形状で実現され得る。
 図8は、面属性情報DB128の構成例を示した図である。図8に示したように、面属性情報DB128では、例えば、No1280、面の種類1282、重力方向1284、大きさ1286、解像度1288、および、面属性適合処理1290が関連付けられている。ここで、面の種類1282には、該当の表示面の種類が格納される。また、重力方向1284には、該当の表示面に対する重力の方向が格納される。例えば、該当の表示面が垂直に配置されている平面である場合、重力方向1284には「下向き」が格納される。なお、転送元の表示面上に位置するオブジェクト(つまり、転送対象のオブジェクト)の画像が該当の表示面に表示される際は、重力方向1284に格納されている情報に基づいて当該画像の表示方向が自動的に決定され得る。また、大きさ1286には、該当の表示面の大きさ(サイズ)が格納される。解像度1288には、該当の表示面の解像度が格納される。また、面属性適合処理1290には、他の表示面から該当の表示面に対して情報が転送された際の、予め定められている、当該表示面に当該情報を適合させるための処理の内容が格納される。
 (2-1-4-2.処理例1)
 ここで、図9Aおよび図9Bを参照して、前述した面属性適合処理部104の機能の具体例について説明する。図9Aは、図8に示した面属性情報DB128内のNoが「1」の表示面20‐1(テーブル面20‐1)の構成例を示した図である。また、図9Bは、図8に示した面属性情報DB128内のNoが「2」の表示面20‐2(ホワイトボード20‐2)の構成例を示した図である。図8および図9Aに示した例では、テーブル面20‐1は、横幅120cm、縦幅80cmの大きさであり、かつ、例えば、1366×768の解像度の映像が出力部124によりテーブル面20‐1に投影されている。また、図9Aに示したように、テーブル面20‐1には、200ピクセル角の大きさの付箋30が配置されている。また、図8および図9Bに示した例では、ホワイトボード20‐2は、横幅100cm、縦幅190cmの大きさであり、かつ、例えば、2160×3840の解像度の映像が、ホワイトボード20‐2に対応するプロジェクタにより投影されている。
 図9Aに示した付箋30に対応する画像がホワイトボード20‐2に転送された場合、仮に、特別の処理が行われないと(換言すれば、ホワイトボード20‐2の属性情報が考慮されない場合)、図9Bに示した付箋画像40aのように、テーブル面20‐1上の付箋30のサイズとは異なるサイズで当該画像が投影されてしまう。そこで、面属性適合処理部104は、転送元の面であるテーブル面20‐1のdpi(dots per inch)(具体的には29dpi)と、転送先の面であるホワイトボード20‐2のdpi(具体的には51dpi)との差に応じて、付箋30に対応する画像のサイズを拡大することを決定してもよい。これにより、決定されたサイズの画像40bが、後述する表示制御部106の制御によりホワイトボード20‐2に表示され得る。上記の決定例によれば、ホワイトボード20‐2でも付箋30が実物大で表示され得る。このため、テーブル面20‐1を使用中のユーザと、ホワイトボード20‐2を使用中のユーザとは、付箋30に関連するコミュニケーション(議論など)を、より円滑に行うことができる。
 (2-1-4-3.処理例2)
 次に、図10Aおよび図10Bを参照して、前述した面属性適合処理部104の機能の別の具体例について説明する。図10Aおよび図10Bでは、テーブル面20‐1上の付箋30に対応する画像がホワイトボード20‐2に転送され、表示される例を示した図である。ここでは、テーブル面20‐1は、水平に配置されている平面であり、また、ホワイトボード20‐2は、垂直に配置されている平面であるとする。例えば、図8に示したように、面属性情報DB128において、テーブル面20‐1には重力方向が設定されておらず、かつ、ホワイトボード20‐2には重力方向として「下向き」が設定されているとする。
 図10Aに示したように、テーブル面20‐1を使用中のユーザは、付箋30に対応する画像をホワイトボード20‐2へ転送するために、例えば、テーブル面20‐1内に表示されている転送領域34の外部から転送領域34の内部へと付箋30をドラッグしたとする。この場合、面属性適合処理部104は、面属性情報DB128においてホワイトボード20‐2と関連付けられている「重力方向」の情報に基づいて、ホワイトボード20‐2における、付箋30に対応する画像40(付箋画像40)の表示向きを例えば「下向き」として決定する。これにより、図10Bに示したように、決定された表示向きで、付箋画像40がホワイトボード20‐2に表示され得る。
 {2-1-5.表示制御部106}
 表示制御部106は、出力部124に対する各種の情報の表示を制御する。
 さらに、転送操作検出部102により転送操作が検出された場合に、表示制御部106は、転送対象のオブジェクトに対応する情報の、転送先の表示面に対する表示を制御することが可能である。例えば、転送操作が検出された場合には、表示制御部106は、該当の転送対象のオブジェクトに対応する画像を、面属性適合処理部104により決定された表示設定で転送先の表示面に表示させる。一例として、当該転送操作が検出された際には、表示制御部106は、該当の転送対象のオブジェクトに対応する画像を、面属性適合処理部104により決定された表示設定で、転送先の表示面に設定されている転送領域内に表示させる。
 {2-1-6.記憶部126}
 記憶部126は、後述するストレージ装置164を含んで構成され得る。記憶部126は、例えば面属性情報DB128などの各種のデータや各種のソフトウェアを記憶する。
 <2-2.処理の流れ>
 以上、本実施形態に係る構成について説明した。次に、本実施形態に係る処理の流れについて説明する。
 図11および図12は、本実施形態に係る処理の流れの一部をそれぞれ示したフローチャートである。図11に示したように、ユーザの終了操作が検出されない限り(S101:No)、処理部100は、以下で説明するS103~S129の処理を繰り返す。なお、ユーザが終了操作を行ったことが検出された場合には(S101:Yes)、当該処理の流れは終了する。
 具体的には、まず、処理部100は、入力部120により取得された入力情報(各種のセンシング結果など)を入力部120から取得する(S103)。
 続いて、処理部100は、出力部124に対応する表示面20(以下、転送元の表示面と称する場合がある)に対する、出力部124による各種の情報の出力を、S103で取得された入力情報に基づいて制御する(S105)。例えば、処理部100は、取得された入力情報が示すユーザの手の動きに基づいて当該ユーザの操作内容(例えばドラッグ操作であるか否かなど)を判断する。当該ユーザの操作内容がドラッグ操作であると判定された場合には、処理部100は、次に、当該転送元の表示面における、当該ドラッグ操作が指示する位置(例えば座標)と、当該転送元の表示面上に位置する個々のオブジェクトの位置(例えば座標)とを比較することにより、当該転送元の表示面上のいずれかのオブジェクトを当該ドラッグ操作が指示しているか否かを判断する。そして、いずれかのオブジェクトを当該ドラッグ操作が指示していることが検出された場合には、処理部100は、該当のオブジェクトの表示位置を当該ドラッグ操作に応じて変更し得る。
 その後、転送操作検出部102は、転送元の表示面内のいずれかのオブジェクトに対する転送操作が行われたか否かを、入力部120により取得された情報に基づいて判定する(S107)。当該転送操作が検出されていない間は(S107:No)、処理部100は、再びS101以降の処理を行う。
 一方、当該転送操作が検出された場合には(S107:Yes)、面属性適合処理部104は、転送先の面の属性情報を面属性情報DB128から抽出する(S109)。そして、面属性適合処理部104は、転送先の表示面に表示される、転送対象のオブジェクトに対応する情報の表示設定を、抽出された属性情報に基づいて決定する(S111)。
 ここで、図12を参照して、S111より後の処理の流れについて説明する。図12に示したように、S111の後、当該転送先の表示面における、当該転送対象のオブジェクトの転送位置が確定している場合には(S121:Yes)、表示制御部106は、後述するS129の処理を行う。
 一方、当該転送対象のオブジェクトの転送位置が確定していない場合には(S121:No)、表示制御部106は、まず、当該転送先の表示面に現在表示されている一以上の表示情報を例えば当該転送先の表示面から取得する。そして、表示制御部106は、取得した一以上の表示情報が当該転送元の表示面に表示されるように出力部124を制御する(S123)。
 その後、入力部120は、当該転送元の表示面に対するユーザの操作入力の情報を取得する(S125)。
 続いて、表示制御部106は、当該転送先の表示面における、当該転送対象のオブジェクトの転送位置が確定したか否かを、S125で取得された入力情報に基づいて判定する(S127)。当該転送対象のオブジェクトの転送位置が確定していない場合には(S127:No)、表示制御部106は、再びS123以降の処理を行う。
 一方、当該転送対象のオブジェクトの転送位置が確定している場合には(S127:Yes)、表示制御部106は、当該転送先の表示面内の、決定された転送位置に、当該転送対象のオブジェクトに対応する情報(画像など)を表示させる(S129)。
 その後、処理部100は、再びS101以降の処理を繰り返す。
 <2-3.効果>
 {2-3-1.効果1}
 以上説明したように、本実施形態に係る処理部100は、転送元の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対してあるユーザが一つのオブジェクトを移動させる転送操作が検出された場合に、当該オブジェクトに対応する情報を転送先の表示面に表示させる。このため、ある表示面に位置する、あるオブジェクトに対応する情報を別の表示面へ転送する場面において、転送元の表示面内に位置する全てのオブジェクトのうち、ユーザが選択したオブジェクトに対応する情報だけを転送先の表示面に表示させることができる。
 その結果、例えば、転送元の表示面の周囲に位置する複数のユーザは、発散的な議論を行い、そして、当該議論の結果得られた良い意見に対応するオブジェクト(例えば付箋など)だけを転送先の表示面にシームレスに集約させることが可能になる。そして、議論の途中に、良い意見に対応するオブジェクトと良くない意見に対応するオブジェクトとを整理する作業が容易になる。従って、当該複数のユーザは、アイディア出しの流れを止めることなく、議論を継続することができる。
 {2-3-1.効果2}
 さらに、本実施形態によれば、例えば、当該転送対象のオブジェクトを当該転送先の表示面の属性情報に応じて、当該転送先の表示面に適切に表示させることができる。その結果、当該転送元の表示面を使用中のユーザと、当該転送先の表示面を使用中のユーザとの間で、当該転送対象のオブジェクトに関連するコミュニケーション(議論など)を、より円滑に行うことができる。例えば、転送先のユーザが、転送された該当のオブジェクトをシームレスに利用可能であるなど、当該オブジェクトを当該転送先の表示面に最適化する手間が減少し得る。従って、これらのユーザ同士は、議論により集中することができる。
<<3.応用例>>
 本実施形態は、前述した例に限定されず、各種の応用例が適用可能である。次に、本実施形態の応用例について、「3-1.応用例1」~「3-13.応用例13」において説明する。なお、各応用例に係る情報処理システム10に含まれる各構成要素は、図6に示した例と同様である。以下では、前述した実施形態と異なる機能を有する構成要素についてのみ説明することとし、同一の内容については説明を省略する。
 <3-1.応用例1>
 まず、本実施形態に係る応用例1について説明する。応用例1によれば、転送元の表示面上に位置する複数の所定の転送オブジェクトの状態に適応的に、転送対象のオブジェクトの転送先の表示面を決定することができる。なお、本応用例1では、当該複数の所定の転送オブジェクトがそれぞれ実オブジェクトである例を想定する。
 {3-1-1.転送操作検出部102}
 応用例1に係る転送操作検出部102は、転送元の表示面上に位置する、あるオブジェクトを、複数の所定の転送オブジェクトのうちの一つの上にユーザが載せることが検出された場合に、この操作を、該当のオブジェクトに対応する情報を別の表示面へ転送させるための転送操作として検出する。
 {3-1-2.表示制御部106}
 応用例1に係る表示制御部106は、転送操作検出部102により転送操作が検出された場合に、転送元の表示面に対応する複数の表示面の中から、転送対象のオブジェクトに対応する情報の転送先となる少なくとも一つの表示面を、当該転送元の表示面上に位置する複数の所定の転送オブジェクトの状態を示す情報と当該転送操作の検出結果とに基づいて決定する。例えば、当該複数の所定の転送オブジェクトの各々は、当該複数の表示面のうちの、互いに異なる一つの表示面と関連付けられている。そして、当該転送操作が検出された場合には、表示制御部106は、当該複数の所定の転送オブジェクトのうちのいずれか2つの転送オブジェクトの間の距離が所定の閾値以下であるか否かと、当該いずれか2つの転送オブジェクトの並び方が所定の並び方であるか否かとに基づいて、該当の転送対象のオブジェクトに対応する情報の転送先となる少なくとも一つの表示面を決定する。
 ここで、図13および図14を参照して、上記の機能についてより詳細に説明する。図13および図14に示した例では、2つの転送台32のうちの転送台32aは、ホワイトボード20‐2と関連付けられており、かつ、転送台32bは、ホワイトボード20‐3と関連付けられている。例えば、ホワイトボード20‐2は、グループAに属する複数のユーザが、ディスカッションのために使用している表示面である。また、ホワイトボード20‐3は、グループBに属する複数のユーザが、ディスカッションのために使用している表示面である。なお、図13および図14に示した転送台32は、上記の所定の転送オブジェクトの一例である。
 例えば、図13に示したように、転送元の表示面20‐1(テーブル面20‐1)上で、2つの転送台32が所定の距離よりも大きい距離だけ離れて配置されているとする。そして、図13に示したように、テーブル面20‐1を使用中のユーザは、テーブル面20‐1上に位置する付箋30に対応する画像の転送操作として、付箋30を転送台32bの上に載せたとする。この場合、図13に示したように、表示制御部106は、2つのホワイトボードのうち、転送台32bに関連付けられているホワイトボード20‐3にのみ、付箋30に対応する画像40を転送させ、表示させる。
 また、図14に示したように、転送元の表示面20‐1(テーブル面20‐1)上で、2つの転送台32が隣接して並べられているとする。そして、(図13に示した例と同様に)テーブル面20‐1を使用中のユーザは、テーブル面20‐1上に位置する付箋30に対応する画像の転送操作として、付箋30を転送台32bの上に載せたとする。この場合、図14に示したように、表示制御部106は、2つのホワイトボードの両方に、付箋30に対応する画像40を転送させ、表示させる。
 <3-2.応用例2>
 以上、応用例1について説明した。次に、本実施形態に係る応用例2について説明する。応用例2によれば、転送元の表示面上に位置する所定の転送オブジェクトの姿勢に適応的に、転送対象のオブジェクトの転送先の表示面を決定することができる。
 応用例2では、当該所定の転送オブジェクトが、例えば図15に示したような、複数の面を有する実オブジェクトである例を想定し得る。さらに、当該所定の転送オブジェクトが有する複数の面の各々は、転送元の表示面以外の複数の表示面のうちの互いに異なる表示面と関連付けられている例を想定する。
 {3-2-1.転送操作検出部102}
 応用例1に係る転送操作検出部102は、転送元の表示面上に位置する、あるオブジェクトを、当該所定の転送オブジェクトが有する複数の面のうちのいずれかの上にユーザが配置することが検出された場合に、この操作を、該当のオブジェクトに対応する情報を別の表示面へ転送させるための転送操作として検出する。
 {3-2-2.表示制御部106}
 応用例2に係る表示制御部106は、転送操作検出部102により転送操作が検出された場合には、当該所定の転送オブジェクトが有する当該複数の面のうちの、転送対象のオブジェクトが配置された面に関連付けられている一つの表示面を、当該オブジェクトに対応する情報の転送先の表示面として決定する。
 ここで、図15および図16を参照して、上記の機能についてより詳細に説明する。図15および図16に示した例では、転送台32が有する複数の面の各々は、複数の表示面(例えば、ホワイトボード20‐2およびホワイトボード20‐3など)のうちの互いに異なる表示面と関連付けられている。例えば、転送台32が有する複数の面のうち「A」と記載されている面は、ホワイトボード20‐2と関連付けられている。また、当該複数の面のうち「B」と記載されている面は、ホワイトボード20‐3と関連付けられている。なお、図15および図16に示した転送台32は、上記の所定の転送オブジェクトの一例である。
 例えば、図15に示したように、転送台32の上面が、「A」と記載されている面(つまり、ホワイトボード20‐2と関連付けられている面)になるように、転送台32がテーブル面20‐1上に配置されているとする。そして、テーブル面20‐1を使用中のユーザは、テーブル面20‐1上に位置する付箋30に対応する画像の転送操作として、付箋30を転送台32の上面の上に載せたとする。この場合、図15に示したように、表示制御部106は、2つのホワイトボードのうち(「A」と記載されている面に関連付けられている)ホワイトボード20‐2にのみ、付箋30に対応する画像40を転送させ、表示させる。
 別の例として、図16に示したように、転送台32の上面が、「B」と記載されている面(つまり、ホワイトボード20‐3と関連付けられている面)になるように、転送台32がテーブル面20‐1上に配置されているとする。そして、テーブル面20‐1を使用中のユーザは、テーブル面20‐1上に位置する付箋30に対応する画像の転送操作として、付箋30を転送台32の上面の上に載せたとする。この場合、図16に示したように、表示制御部106は、2つのホワイトボードのうち(「B」と記載されている面に関連付けられている)ホワイトボード20‐3にのみ、付箋30に対応する画像40を転送させ、表示させる。
 <3-3.応用例3>
 以上、応用例2について説明した。次に、本実施形態に係る応用例3について説明する。応用例3によれば、転送元の表示面上に位置する所定の転送オブジェクトが向いている方向に適応的に、転送対象のオブジェクトの転送先の表示面を決定することができる。
 応用例3では、当該所定の転送オブジェクトが、例えば図17および図18に示したような、少なくとも一つの傾斜面を有する実オブジェクトである例を想定し得る。
 {3-3-1.転送操作検出部102}
 応用例3に係る転送操作検出部102は、当該所定の転送オブジェクトが有する少なくとも一つの傾斜面のうちのいずれかの上に、あるオブジェクトをユーザが配置することが検出された場合には、この操作を、該当のオブジェクトに対応する情報を別の表示面へ転送させるための転送操作として検出する。
 {3-3-2.表示制御部106}
 応用例3に係る表示制御部106は、当該少なくとも一つの傾斜面のうちのいずれかの上に、転送対象のオブジェクトを配置する操作(上記の転送操作)が検出された場合に、例えば当該転送元の表示面に対応する複数の表示面の中から、当該所定の転送オブジェクトが向いている方向に位置する表示面を、当該転送対象のオブジェクトに対応する情報の転送先の表示面として決定する。
 ここで、図17および図18を参照して、上記の機能についてより詳細に説明する。図17および図18に示した例では、転送台32は、傾斜面を一つだけ有している。また、図17および図18に示した例では、情報処理システム10は、テーブル面20‐1、ホワイトボード20‐2、および、ホワイトボード20‐3の三者の位置関係をリアルタイムに特定可能であるものとする。例えば、処理部100は、ホワイトボード20‐2およびホワイトボード20‐3のそれぞれの、テーブル面20‐1に対する相対的な方向を示す情報をリアルタイムに取得可能であるものとする。なお、図17および図18に示した転送台32は、上記の所定の転送オブジェクトの一例である。
 例えば、図17に示したように、テーブル面20‐1に対するホワイトボード20‐2の方向へ転送台32が向けられた状態で、転送台32がテーブル面20‐1上に配置されているとする。そして、テーブル面20‐1を使用中のユーザは、テーブル面20‐1上に位置する付箋30に対応する画像の転送操作として、付箋30を転送台32の傾斜面の上に載せたとする。この場合、図17に示したように、表示制御部106は、2つのホワイトボードのうち、転送台32が向いているホワイトボード20‐2にのみ、付箋30に対応する画像40を転送させ、表示させる。
 別の例として、図18に示したように、テーブル面20‐1に対するホワイトボード20‐3の方向へ転送台32が向けられた状態で、転送台32がテーブル面20‐1上に配置されているとする。そして、テーブル面20‐1を使用中のユーザは、テーブル面20‐1上に位置する付箋30に対応する画像の転送操作として、付箋30を転送台32の傾斜面の上に載せたとする。この場合、図18に示したように、表示制御部106は、2つのホワイトボードのうち、転送台32が向いているホワイトボード20‐3にのみ、付箋30に対応する画像40を転送させ、表示させる。
 <3-4.応用例4>
 以上、応用例3について説明した。次に、本実施形態に係る応用例4について説明する。応用例4によれば、転送元の表示面と所定の転送オブジェクトの姿勢との関係性に適応的に、転送対象のオブジェクトに対応する画像を転送先の表示面に表示させることができる。なお、応用例4では、当該所定の転送オブジェクトが実オブジェクトである例を想定する。
 {3-4-1.転送操作検出部102}
 応用例4に係る転送操作検出部102は、転送元の表示面上に配置されている当該所定の転送オブジェクトに対して、ユーザがあるオブジェクトを近づけ、かつ、接触させる(例えば配置する)操作が検出された場合には、この一連の操作を、該当のオブジェクトに対応する情報を別の表示面へ転送させるための転送操作として検出する。
 {3-4-2.表示制御部106}
 応用例4に係る表示制御部106は、上記の一連の操作が転送操作として転送操作検出部102により検出された場合には、当該転送操作中の転送対象のオブジェクトの移動経過の検出結果と、当該転送操作中の当該所定の転送オブジェクトの姿勢の検出結果とに基づいて、転送先の表示面に対して、当該転送対象のオブジェクトに対応する画像の表示を制御する。例えば、この場合、当該転送対象のオブジェクトに対応する画像を当該転送先の表示面に表示した際に、表示制御部106は、当該転送操作中の当該転送対象のオブジェクトの移動経過の検出結果と、当該転送操作中の当該所定の転送オブジェクトの姿勢の検出結果とに基づいて、当該画像の表示位置を連続的に変化させる。
 ここで、図19Aおよび図19Bを参照して、上記の機能についてより詳細に説明する。図19Aおよび図19Bに示した例では、転送元の表示面20‐1(テーブル面20‐1)、および、転送先の表示面20‐2(テーブル面20‐2)のそれぞれに、同一の転送台32が配置されているものとする。なお、図19Aおよび図19Bに示した転送台32は、上記の所定の転送オブジェクトの一例である。
 例えば、図19Aに示したように、テーブル面20‐1を使用中のユーザは、(付箋30に対応する画像の転送操作として)テーブル面20‐1上の転送台32aに対して、フリック操作により付箋30を近づけ、かつ、転送台32aの上に配置したとする。この場合、図19Bに示したように、表示制御部106は、まず、付箋30に対応する画像40を、テーブル面20‐2上の転送台32bの位置に表示させる。そして、表示制御部106は、テーブル面20‐1上の転送台32aの位置および姿勢と、テーブル面20‐2上の転送台32bの位置および姿勢との関係性に基づいて、上記転送操作中の、転送台32aに対する付箋30の移動経過(例えば、移動時の速度の変化、移動時の加速度の変化、および、移動経路など)と相対的に略同一に画像40が移動するように、画像40の表示位置を連続的に変化させる。この表示例によれば、転送先の表示面20‐2において相対的な位置関係を維持しながら、転送操作中の付箋30の動きを再現することができる。
 <3-5.応用例5>
 以上、応用例4について説明した。次に、本実施形態に係る応用例5について説明する。応用例5によれば、転送対象のオブジェクトに含まれる文字列を、転送先の表示面が位置する場所(または、当該転送先の表示面を使用するユーザ)に適応的に変換して表示させることができる。
 {3-5-1.表示制御部106}
 応用例5に係る表示制御部106は、転送操作検出部102により転送操作が検出された場合に、転送先の表示面に関連付けて面属性情報DB128に登録されている文字列の変換ルールに基づいて、該当の転送対象のオブジェクトに対応する画像を生成し、そして、当該画像を当該転送先の表示面に表示させる。例えば、表示制御部106は、まず、当該転送先の表示面に関連付けて面属性情報DB128に登録されている文字列の変換ルールを用いて、当該転送対象のオブジェクトに含まれる文字列を変換する。そして、表示制御部106は、(当該転送対象のオブジェクトに含まれる文字列の代わりに)変換後の文字列を含むように、当該転送対象のオブジェクトに対応する画像を生成する。
 ここで、図20~図21Bを参照して、上記の機能についてより詳細に説明する。図20は、応用例5に係る面属性情報DB128の構成例を示した図である。図20に示したように、例えば、表示面の種類ごとに、転送対象のオブジェクトに対応する画像の表示時の、当該オブジェクトに含まれる文字列の翻訳ルールが予め定められ得る。
 また、図21Aは、図20に示した面属性情報DB128内のNoが「1」の表示面20‐1(テーブル面20‐1)を概略的に示した図である。図21Bは、図8に示した面属性情報DB128内のNoが「2」の表示面20‐2(テーブル面20‐2)を概略的に示した図である。図21Aおよび図21Bに示した例では、アメリカに位置する表示面20‐1を使用中の一以上のユーザと、日本に位置する表示面20‐2を使用中の一以上のユーザとがブレインストーミングをしている場面を想定する。
 例えば、図21Aに示したように、表示面20‐1上に位置する付箋30aを、表示面20‐1内に表示されている転送領域34aに移動させる転送操作が検出されたとする。この場合、表示制御部106は、まず、例えばOCR(Optical Character Recognition)などを用いることにより、付箋30aに含まれる全ての文字列を特定する。次に、表示制御部106は、(付箋30aに対応する画像の転送先の表示面である)表示面20‐2と関連付けて面属性情報DB128に格納されている翻訳ルールに基づいて、付箋30aに含まれる全ての文字列を日本語に変換する。次に、表示制御部106は、変換後の文字列(つまり、日本語の文字列)を含むように、付箋30aに対応する画像40を生成する。そして、図21Bに示したように、表示制御部106は、表示面20‐2内に定められている転送領域34bに画像40を表示させる。
 <3-6.応用例6>
 以上、応用例5について説明した。次に、本実施形態に係る応用例6について説明する。応用例6によれば、転送対象のオブジェクトに含まれる文字列を、転送先の表示面が位置する場所(または、当該転送先の表示面を使用するユーザ)に適応的に変換して表示させることができる。
 {3-6-1.システムの構成}
 まず、本応用例6に係るシステムの構成について図22を参照して説明する。図22は、応用例6に係るシステムの構成例を示した図である。図22に示したように、当該システムは、例えば図5に示した、前述した実施形態に係るシステムの構成例と比較して、スマートフォン50をさらに有する。例えば、スマートフォン50は、無線通信により、通信網22と接続可能に構成されている。そして、スマートフォン50は、情報処理システム10や他の表示面(表示面20‐2および表示面20‐3)と通信網22を介して各種の情報を送受信することが可能である。
 {3-6-2.転送操作検出部102}
 応用例6に係る転送操作検出部102は、例えば図24Aに示したように、スマートフォン50に表示中の、あるオブジェクトを、スマートフォン50に表示中の転送領域に対してユーザが移動させる操作の検出結果がスマートフォン50から受信された場合に、このユーザの操作を、当該オブジェクトをスマートフォン50から別の表示面へ転送させるための転送操作として検出する。
 {3-6-3.表示制御部106}
 応用例6に係る表示制御部106は、スマートフォン50上での転送操作が転送操作検出部102により検出された場合に、転送先の表示面に関連付けて面属性情報DB128に登録されている文字列の変換ルールに基づいて、該当の転送対象のオブジェクトに対応する画像を生成し、そして、当該画像を当該転送先の表示面に表示させる。
 ここで、図23~図24Cを参照して、上記の機能についてより詳細に説明する。図23は、応用例6に係る面属性情報DB128の構成例を示した図である。また、図24Aは、図23に示した面属性情報DB128内のNoが「1」の表示面(つまり、スマートフォン50の表示面)を概略的に示した図である。図24Bは、図23に示した面属性情報DB128内のNoが「2」の表示面20‐2(掲示板20‐2)を概略的に示した図である。図24Cは、図23に示した面属性情報DB128内のNoが「3」の表示面20‐2(掲示板20‐3)を概略的に示した図である。図23~図24Cに示した例では、スマートフォン50は、ある家族の父親が使用しており、掲示板20‐2は、当該家族が住む家のリビングルームに配置されており、また、掲示板20‐3は、当該家の子供部屋に配置されている。
 図23に示したように、面属性情報DB128では、表示面の種類ごとに、転送対象のオブジェクトに対応する画像の表示時の、当該オブジェクトに含まれる文字列の変換ルールが予め定められている。掲示板20‐2を使用する大人のユーザ(例えば母親)は、文字列が漢字を含んでいたとしても、当該文字列を容易に理解可能であると想定される。このため、面属性情報DB128では、文字列の変換ルールとして、「転送対象のオブジェクトに含まれる文字列を変換しないこと」が掲示板20‐2と関連付けられている。一方、掲示板20‐3を使用する子どもは、文字列が漢字を含んでいる場合は当該文字列を理解することが難しいと想定される。このため、面属性情報DB128では、文字列の変換ルールとして、「転送対象のオブジェクトに含まれる文字列を平仮名に変換すること」が掲示板20‐3と関連付けられている。
 例えば、図24Aに示したように、スマートフォン50に表示されている転送領域34aに対して、表示中の付箋30を当該父親が移動させる転送操作が検出されたとする。図24Aに示したように、付箋30は、漢字を含む文字列(「もうすぐ帰ります」)を含んでいる。この場合、情報処理システム10の表示制御部106は、まず、スマートフォン50から受信された当該操作の検出結果に基づいて、付箋30に含まれる文字列を特定する。次に、表示制御部106は、掲示板20‐2と関連付けて面属性情報DB128に格納されている変換ルールを参照することにより、付箋30に含まれる文字列を変換しないことを決定する。次に、表示制御部106は、付箋30に含まれる文字列をそのまま含む、付箋30に対応する画像40aを生成する。そして、図24Bに示したように、表示制御部106は、画像40aを掲示板20‐2に表示させる。
 さらに、表示制御部106は、掲示板20‐3と関連付けて面属性情報DB128に格納されている変換ルールを参照することにより、付箋30に含まれる文字列を全て「平仮名」に変換することを決定する。次に、表示制御部106は、変換後の文字列を含むように、付箋30に対応する画像40bを生成する。そして、図24Cに示したように、表示制御部106は、画像40bを掲示板20‐3に表示させる。
 <3-7.応用例7>
 以上、応用例6について説明した。次に、本実施形態に係る応用例7について説明する。応用例7によれば、転送対象のオブジェクトに対応する画像のフォーマット(またはレイアウト)を、転送先の表示面に適応的に変換して表示させることができる。
 {3-7-1.表示制御部106}
 応用例7に係る表示制御部106は、転送操作検出部102により転送操作が検出された場合に、まず、転送先の表示面に関連付けて面属性情報DB128に登録されている、画像のフォーマット(またはレイアウト)の変換ルールに基づいて、転送対象のオブジェクトに対応する画像のフォーマットを決定する。そして、表示制御部106は、決定したフォーマットの画像を、当該オブジェクトに対応する画像として当該転送先の表示面に表示させる。
 ここで、図25~図26Bを参照して、上記の機能についてより詳細に説明する。図25は、応用例7に係る面属性情報DB128の構成例を示した図である。図25に示したように、例えば、表示面の種類ごとに、転送対象のオブジェクトに対応する画像の表示時の、当該オブジェクトに対応する画像のフォーマット(またはレイアウト)の変換ルールが予め定められている。また、図26Aは、図25に示した面属性情報DB128内のNoが「1」の表示面20‐1(テーブル面20‐1)を概略的に示した図である。図26Bは、図25に示した面属性情報DB128内のNoが「2」の表示面20‐2(掲示板20‐2)を概略的に示した図である。
 例えば、図26Aに示したように、テーブル面20‐1上に位置する2つの付箋30を、テーブル面20‐1内に表示されている転送領域34aに一つずつ移動させる転送操作が検出されたとする。この場合、表示制御部106は、まず、(2つの付箋30に対応する画像の転送先の表示面である)掲示板20‐2と関連付けて面属性情報DB128に格納されている、フォーマットの変換ルールを参照する。次に、表示制御部106は、個々の付箋30に対応する画像の形状を「掲示物」の形状にそれぞれ変換し、かつ、個々の付箋30に含まれる個々の「スタンプ」を「勲章マーク」にそれぞれ変換することを決定する。次に、表示制御部106は、個々の付箋30に関して決定された変換ルールにより、個々の付箋30のフォーマットをそれぞれ変換することにより、個々の付箋30に対応する画像40(画像40aおよび画像40b)をそれぞれ生成する。そして、図26Bに示したように、表示制御部106は、画像40aおよび画像40bを掲示板20‐2に表示させる。
 この表示例によれば、(テーブル面20‐1において重要度の目安とされていた)「スタンプ」の数と同数の「勲章マーク」を含む「掲示物」の画像を、付箋30に対応する画像40として掲示板20‐2上に表示することができる。
 <3-8.応用例8>
 以上、応用例7について説明した。次に、本実施形態に係る応用例8について説明する。応用例8によれば、転送元の表示面を使用中のユーザは、転送対象のオブジェクトに対応する画像を、転送先の表示面内の所望の位置に、かつ、直感的な操作で表示させることができる。
 {3-8-1.表示制御部106}
 (3-8-1-1.転送操作の検出のフィードバック表示)
 応用例8に係る表示制御部106は、転送操作検出部102により転送操作が検出された場合に、転送先の表示面に表示される表示情報を、転送元の表示面内で操作可能なように変更されたことを示す所定の表示制御を当該転送元の表示面に対して行う。例えば、表示制御部106は、当該所定の表示制御として、当該転送先の表示面における対象領域内の一以上の表示情報を当該転送元の表示面に表示させる。ここで、当該対象領域は、当該転送先の表示面内の一部の領域であり得る。
 例えば、当該転送操作に継続して所定の操作(以下、「後続の操作」と称する場合がある)が行われたことが検出された場合には、表示制御部106は、まず、当該転送先の表示面内の所定の領域から、当該後続の操作の検出結果に対応する別の領域へと当該対象領域を変更する。そして、当該対象領域が別の領域へ変更される度に、表示制御部106は、当該転送元の表示面内に表示されている当該転送先の表示面内の表示情報として、当該変更後の別の領域内の一以上の表示情報が当該転送元の表示面に逐次表示されるように表示を制御する。
 ここで、当該後続の操作は、本開示に係る第2の操作の一例である。当該後続の操作は、転送対象のオブジェクトに対する操作状態を所定の操作状態のまま維持しながら、当該転送操作に継続して行われる操作であり得る。例えば、当該転送操作は、転送元の表示面上で転送対象のオブジェクトを上記所定の転送オブジェクトに対してドラッグする操作であり得る。この場合、当該後続の操作は、当該オブジェクトをポインティングした状態(例えばタッチしている状態)を維持しながら、当該オブジェクトを継続してドラッグする操作であってもよい。
 なお、本開示に係る第2の操作は、前述した「後続の操作」に限定されず、該当のユーザが上記の転送操作の後に行う他の種類の操作であってもよい。例えば、当該第2の操作は、転送対象のオブジェクトに対応する情報の転送後に、該当のユーザが当該転送対象のオブジェクトを転送元の表示面上で移動させる操作であってもよい。一例として、当該第2の操作は、転送元の表示面上で転送対象のオブジェクトを上記所定の転送オブジェクト(例えば転送台など)に対して、該当のユーザがフリックする操作であってもよい。
 変形例として、当該所定の表示制御は、当該転送元の表示面の表示態様を変更することであってもよい。例えば、当該所定の表示制御は、当該転送元の表示面の表示色や輝度を変更したり、または、当該転送元の表示面に、所定のエフェクトを追加表示させることであってもよい。
 (3-8-1-2.転送先の表示面の表示の変更)
 さらに、応用例8に係る表示制御部106は、当該転送先の表示面の表示状態を、上記の後続の操作の検出結果に基づいて変更することが可能である。例えば、表示制御部106は、当該転送対象のオブジェクトに対応する情報を、上記の後続の操作の検出結果に基づいて当該転送先の表示面に表示させる。一例として、表示制御部106は、当該転送先の表示面内の、当該転送対象のオブジェクトに対応する画像の表示位置を、当該後続の操作の検出結果に基づいて決定する。例えば、当該後続の操作は、当該転送対象のオブジェクトに対するタッチ操作(ドラッグ操作など)であり得る。この場合、当該転送対象のオブジェクトに対してタッチしている手が当該転送元の表示面から離されたことが検出されたタイミングに、表示制御部106は、当該転送元の表示面において当該タイミングの直前にタッチしていた位置に対応する、当該転送先の表示面上の位置に、当該転送対象のオブジェクトに対応する画像を表示させる。
 ここで、図27A~図27Dを参照して、上記の機能についてより詳細に説明する。図27A~図27Dは、応用例8に係る、転送元の表示面20‐1(テーブル面20‐1)、および、転送先の表示面20‐2(ホワイトボード20‐2)に対する表示制御の例を示した図である。
 ‐ケース1
 例えば、図27Aに示したように、テーブル面20‐1を使用中のユーザは、(付箋30に対応する画像の転送操作として)テーブル面20‐1上に表示されている転送領域34a外から転送領域34a内へ付箋30を手でドラッグし、その直後、付箋30から手を離したとする。この場合、付箋30から手が離されたタイミングに、図27Bに示したように、表示制御部106は、ホワイトボード20‐2上に設定されている転送領域34bに、付箋30に対応する画像40を表示させる。
 ‐ケース2
 一方、該当のユーザは、転送領域34a外から転送領域34a内へ付箋30を手でドラッグし、そして、付箋30から手を離さない状態を例えば所定の時間以上維持した(つまり、付箋30に対して手をキープした)とする。この場合、表示制御部106は、ホワイトボード20‐2において定められているクリッピング領域60内に位置する全ての表示情報をテーブル面20‐1に表示させる。換言すれば、ホワイトボード20‐2側の映像がテーブル面20‐1に表示されるように変更され得る。ここで、クリッピング領域60は、上記の対象領域の一例である。
 同時に、図27Dに示したように、表示制御部106は、クリッピング領域60を示す表示(例えばクリッピング領域60の輪郭線など)をホワイトボード20‐2にリアルタイムに表示させる。さらに、表示制御部106は、テーブル面20‐1内で、ドラッグ操作中の手の現在の位置(ポインティング位置)に対応する、ホワイトボード20‐2内の位置に、当該ユーザのポインティング位置を示す画像62を表示させる。例えば、当該ユーザのポインティング位置が変化する度に、表示制御部106は、ホワイトボード20‐2内の画像62の表示位置を逐次変更する。
 さらに、該当のユーザは、転送領域34a内へ付箋30をドラッグしたタイミングの後、例えば図27Cに示したように、付箋30から手を離さずに、付箋30をテーブル面20‐1においてドラッグし、その後、付箋30から手を離したとする。この場合、表示制御部106は、付箋30に対応する画像40をホワイトボード20‐2に転送させる。そして、表示制御部106は、付箋30から手が離されたタイミングにおける、テーブル面20‐1上の付箋30の位置に対応するホワイトボード20‐2の位置に、付箋画像40を表示させる。
 その後、表示制御部106は、テーブル面20‐1の表示状態を元の表示状態に戻す。つまり、表示制御部106は、クリッピング領域60内の表示情報の代わりに、例えば当該後続の操作の検出時にテーブル面20‐1に表示されていた表示情報をテーブル面20‐1に再び表示させる。
 {3-8-2.効果}
 以上説明したように、応用例8によれば、転送元の表示面を使用中のユーザは、転送対象のオブジェクトに対応する画像を、転送先の表示面内の所望の位置に表示させることができる。また、当該ユーザは、当該転送先の表示面内の、当該転送対象のオブジェクトに対応する画像の転送位置(表示位置)を、例えばドラッグ操作などの直感的な操作により決定することができる。
 <3-9.応用例9>
 以上、応用例8について説明した。次に、本実施形態に係る応用例9について説明する。応用例9によれば、転送先の表示面に定められている対象領域をユーザは容易にスクロールすることができる。
 {3-9-1.表示制御部106}
 応用例9に係る表示制御部106は、転送対象のオブジェクトに対して該当のユーザがポインティングしている状態が維持されている間の上記後続の操作の検出結果に基いて、当該転送先の表示面内の対象領域の位置を移動させる。
 (3-9-1-1.対象領域の変更例1)
 ここで、図28Aおよび図28Bを参照して、上記の機能の具体例について説明する。図28Aに示した例では、例えば図27Cに示したように、テーブル面20‐1を使用中のユーザが、転送領域34a内へ付箋30をドラッグしたタイミングの後、付箋30から手を離さずに、テーブル面20‐1内で付箋30をドラッグしていることを前提としている。
 例えば、図28Aに示したように、該当のユーザが、テーブル面20‐1において付箋30を右手4a(つまり、付箋30をドラッグしている手)でタッチしている状態を維持しながら、例えば左手4bを開いた状態で、左手4bをテーブル面20‐1上で滑らせる操作を行ったとする。この場合、例えば図28Bに示したように、表示制御部106は、左手4bの手の動き(移動距離および移動方向)の検出結果に応じて、ホワイトボード20‐2内のクリッピング領域60の位置を連続的に移動させる。つまり、表示制御部106は、左手4bの手の動きの検出結果に応じて、クリッピング領域60をスクロールさせる。
 (3-9-1-2.対象領域の変更例2)
 次に、図29Aおよび図29Bを参照して、上記の機能の別の具体例について説明する。図29Aに示した例では、(図28Aに示した例と同様に)テーブル面20‐1を使用中のユーザが、転送領域34a内へ付箋30をドラッグしたタイミングの後、付箋30から手を離さずに、テーブル面20‐1内で付箋30をドラッグしていることを前提としている。
 例えば、図29Aに示したように、該当のユーザが、テーブル面20‐1のいずれかの端まで右手4aで、付箋30に対応する画像40をドラッグしたとする。この場合、例えば当該端に右手4aが継続して位置している間、表示制御部106は、例えば図29Bに示したように、テーブル面20‐1における右手4aの位置に応じて、ホワイトボード20‐2内のクリッピング領域60を連続的にスクロールさせる。例えば、当該端に右手4aが継続して位置している間、表示制御部106は、テーブル面20‐1において右手4aがドラッグしている方向に対応する、ホワイトボード20‐2の方向へクリッピング領域60を連続的にスクロールさせる。
 これらのスクロール例によれば、ユーザは、転送先の表示面内のクリッピング領域60(つまり、対象領域)を容易に変更することができるので、転送対象のオブジェクトの転送位置をより容易に決定することができる。従って、仮に転送元の表示面のサイズと転送先の表示面のサイズとが大きく異なる場合であっても、ユーザは、転送対象のオブジェクトの転送位置を容易に決定することができる。
 <3-10.応用例10>
 以上、応用例9について説明した。次に、本実施形態に係る応用例10について説明する。応用例10によれば、転送先の表示面における対象領域内の一以上の表示情報とともに、当該転送先の表示面の略全体を示す画像を転送元の表示面に同時に表示させることができる。
 {3-10-1.表示制御部106}
 応用例10に係る表示制御部106は、上記の後続の操作中(つまり、転送対象のオブジェクトに対して該当のユーザがポインティングしている状態が維持されている間)に、転送先の表示面の略全体に表示されている全ての表示情報を示すマップ画像を当該転送元の表示面に表示させる。例えば、表示制御部106は、当該転送元の表示面よりも小さいサイズで当該マップ画像を当該転送元の表示面内の所定の位置に表示させる。
 ここで、図30Aおよび図30Bを参照して、上記の機能についてより詳細に説明する。例えば応用例9で述べたような、クリッピング領域60のスクロール中(つまり、クリッピング領域60の位置が連続的に移動されている間)に、図30Bに示したように、表示制御部106は、転送先の表示面20‐2の略全体に表示されている全ての表示情報を示すマップ画像42を転送元の表示面20‐1内の所定の位置に表示させる。この際、図30Bに示したように、マップ画像42は、現在のクリッピング領域60を示す表示を含んでもよい。この表示例によれば、仮に、転送元の表示面のサイズと転送先の表示面のサイズとが大きく異なっており、かつ、スクロール表示中であっても、ユーザは、現在のクリッピング領域60の位置と、転送先の表示面の全体との位置関係をリアルタイム、かつ、容易に把握することができる。
 <3-11.応用例11>
 以上、応用例10について説明した。次に、本実施形態に係る応用例11について説明する。
 {3-11-1.表示制御部106}
 応用例11に係る表示制御部106は、上記の後続の操作中(つまり、転送対象のオブジェクトに対して該当のユーザがポインティングしている状態が維持されている間)に、転送先の表示面における対象領域内の一以上の表示情報、および、当該対象領域を移動させるための操作画像を当該転送元の表示面に表示させる。
 ここで、図31Aおよび図31Bを参照して、上記の機能についてより詳細に説明する。図31Aは、あるタイミングにおける転送先の表示面20‐2の表示例を示した図である。また、図31Bは、図31Aに示したような、転送先の表示面20‐2において設定されているクリッピング領域60に含まれる表示情報が転送元の表示面20‐1に表示されている例を示した図である。図31Bに示したように、例えば、表示制御部106は、クリッピング領域60に含まれる全ての表示情報40、および、それぞれ異なる方向にクリッピング領域60をスクロールさせるための複数のスクロールボタン44を転送元の表示面20‐1に表示させる。例えば、ユーザは、個々のスクロールボタン44をタッチすることにより、当該スクロールボタン44に対応する方向へクリッピング領域60をスクロールさせることができる。
 さらに、図31Bに示したように、表示制御部106は、転送先の表示面20‐2において定められている転送領域の方向を示す画像46を転送元の表示面20‐1にさらに表示させてもよい。この表示例によれば、例えば、ユーザがクリッピング領域60を移動させた場合であっても、ユーザは、現在のクリッピング領域60の位置と、転送先の表示面の全体との位置関係をリアルタイム、かつ、容易に把握することができる。
 <3-12.応用例12>
 以上、応用例11について説明した。次に、本実施形態に係る応用例12について説明する。応用例12によれば、ある表示面が位置する場所からそれぞれ遠隔した、互いに異なる場所に位置する各ユーザが、当該表示面に表示されている一以上の表示情報に対する共同編集を容易に行うことができる。
 応用例12では、少なくとも3つの表示面が位置する場所が、互いに遠隔していること(例えば所定の距離以上離れていること)を想定する。さらに、一つの表示面20‐2内の第1の対象領域が別の表示面20‐1に表示されており、かつ、表示面20‐2内の第2の対象領域がさらに別の表示面20‐3に表示されていることを想定する。ここで、表示面20‐2は、表示面20‐1を使用中の一以上のユーザ、および、表示面20‐3を使用中の一以上のユーザの共同編集の対象の表示面であり得る。
 {3-12-1.表示制御部106}
 応用例12に係る表示制御部106は、表示面20‐2内の当該第1の対象領域内の一以上の表示情報が表示面20‐1に表示されている間に、表示面20‐2内の当該第1の対象領域と表示面20‐2内の当該第2の対象領域との位置関係を示す表示を表示面20‐1に表示させ得る。同時に、表示制御部106は、表示面20‐2内の当該第2の対象領域内の一以上の表示情報が表示面20‐3に表示されている間に、当該第1の対象領域と当該第2の対象領域との位置関係を示す表示を表示面20‐3に表示させ得る。
 さらに、情報処理システム10は、表示面20‐3に表示されている当該第2の対象領域内の一以上の表示情報に対する、表示面20‐3を使用中の一以上のユーザの第2の編集操作情報を表示面20‐3から受信し得る。この場合、当該第1の対象領域内の一以上の表示情報が表示面20‐1に表示されている間に、表示制御部106は、当該第2の編集操作情報が示す操作内容を表示面20‐1に表示させ得る。
 同時に、表示制御部106は、当該第1の対象領域内の一以上の表示情報に対する、表示面20‐1を使用中の一以上のユーザの第1の編集操作情報を取得し、そして、当該第1の編集操作情報が示す操作内容を表示面20‐3に表示させ得る。
 (3-12-1-1.具体例)
 ここで、図32A~図32Cを参照して、上記の機能についてより詳細に説明する。図32A~図32Cに示した例では、ホワイトボード20‐2、テーブル面20‐1、および、テーブル面20‐3が互いに遠隔して位置している。そして、ホワイトボード20‐2内のクリッピング領域60a内の全ての表示情報がテーブル面20‐1に表示されており、かつ、ホワイトボード20‐2内のクリッピング領域60b内の全ての表示情報がテーブル面20‐3に表示されている。
 例えば、図32Bに示したように、表示制御部106は、クリッピング領域60a内の全ての表示情報40がテーブル面20‐1に表示させる。同時に、表示制御部106は、テーブル面20‐1における、クリッピング領域60aの位置を基準としたクリッピング領域60bの相対的な位置に、クリッピング領域60bを示す画像(例えばクリッピング領域60bの輪郭線など)を表示させる。さらに、表示制御部106は、クリッピング領域60aの位置を基準とした、テーブル面20‐3を使用中のユーザのポインティング位置(指位置など)に対応する、テーブル面20‐1上の位置に、当該ポインティング位置を示す画像62bを表示させる。
 同様に、図32Cに示したように、表示制御部106は、クリッピング領域60b内の全ての表示情報40をテーブル面20‐3に表示させる。同時に、表示制御部106は、テーブル面20‐3における、クリッピング領域60bの位置を基準としたクリッピング領域60aの相対的な位置に、クリッピング領域60aの位置を示す画像(例えばクリッピング領域60aの輪郭線など)を表示させる。さらに、表示制御部106は、クリッピング領域60bの位置を基準とした、テーブル面20‐1を使用中のユーザのポインティング位置(指位置など)に対応する、テーブル面20‐3上の位置に、当該ポインティング位置を示す画像62aを表示させる。
 さらに、図31Aに示したように、表示制御部106は、クリッピング領域60aの位置を示す画像、クリッピング領域60bの位置を示す画像、テーブル面20‐1を使用中のユーザのポインティング位置を示す画像62a、および、テーブル面20‐3を使用中のユーザのポインティング位置を示す画像62bをホワイトボード20‐2に同時、かつ、リアルタイムに表示させてもよい。
 上記の表示例によれば、テーブル面20‐1を使用するユーザ、および、テーブル面20‐3を使用するユーザはそれぞれ、相手のユーザのポインティング位置と、ホワイトボード20‐2内の相手側のクリッピング領域とを同時に参照することができる。そして、相手のユーザが、ホワイトボード20‐2において編集している内容をリアルタイムに知ることができる。従って、異なる地点にいるユーザ同士が、ホワイトボード20‐2に対する共同編集作業を容易に行うことができる。
 <3-13.応用例13>
 以上、応用例12について説明した。次に、本実施形態に係る応用例13について説明する。応用例13によれば、転送先の表示面の全体を俯瞰しながら、当該転送先の表示面における、転送対象のオブジェクトの転送位置をユーザは容易に指定することができる。
 {3-13-1.表示制御部106}
 応用例13に係る表示制御部106は、上記の後続の操作が検出された際(つまり、転送対象のオブジェクトに対して該当のユーザがポインティングしている状態が維持されている間)に、転送先の表示面の略全体に表示されている全ての表示情報を示すマップ画像を、当該ユーザのポインティング位置に応じて当該転送元の表示面に表示させる。さらに、当該マップ画像内でユーザが位置を指定した場合には、表示制御部106は、当該指定された位置に対応する転送先の表示面内の位置を、転送対象のオブジェクトに対応する画像の転送位置として決定する。
 ここで、図33A~図33Cを参照して、上記の機能についてより詳細に説明する。例えば、図33Aに示したように、表示面20‐1を使用中のユーザは、表示面20‐1上に位置する付箋30を、表示面20‐1に表示されている転送領域34aにドラッグさせたとする。その後、図33Bに示したように、当該ユーザは、該当の手を付箋30から離さずに、所定の時間以上維持したとする。
 この場合、図33Cに示したように、表示制御部106は、転送先の表示面20‐2の略全体に表示されている全ての表示情報を示すマップ画像42を、付箋30にタッチしている指の位置を基準として表示面20‐1に表示させる。その後、当該ユーザは、例えばマップ画像42において該当の指をドラッグすることにより、付箋30に対応する画像の転送位置を指定する。この場合、表示制御部106は、付箋30から当該指が離される直前の、マップ画像42中で当該指がタッチしていた位置に対応する、転送先の表示面20‐2中の位置を、付箋30に対応する画像40の転送位置として決定し得る。
 この表示例によれば、該当のユーザは、転送先の表示面20‐2の全体を俯瞰しながら、付箋30に対応する画像の転送位置を指定することができる。
<<4.ハードウェア構成>>
 以上、本実施形態に係る各応用例について説明した。次に、本実施形態に係る情報処理システム10のハードウェア構成について、図34を参照して説明する。図34に示したように、情報処理システム10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および、通信装置166を備える。
 CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理システム10内の動作全般を制御する。また、CPU150は、情報処理システム10において処理部100および表示処理部122の機能を実現し得る。CPU150は、マイクロプロセッサなどのプロセッサにより構成され得る。
 ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
 RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
 バス156は、CPUバスなどから構成される。バス156は、CPU150、ROM152、および、RAM154を相互に接続する。
 インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および、通信装置166をバス156と接続する。
 入力装置160は、ユーザが情報を入力するための入力手段(例えばタッチパネル、ボタン、スイッチ、ダイヤル、レバー、または、マイクロフォンなど)を含む。さらに、入力装置160は、ユーザによる入力に基づいて入力信号を生成し、かつ、当該入力信号をCPU150に出力する入力制御回路などを含む。入力装置160は、情報処理システム10において入力部120の機能を実現し得る。
 出力装置162は、例えば、プロジェクタ、液晶ディスプレイ装置、OLED(Organic Light Emitting Diode)装置、または、ランプなどの表示装置を含む。また、出力装置162は、スピーカーなどの音声出力装置を含む。出力装置162は、情報処理システム10において出力部124の機能を実現し得る。
 ストレージ装置164は、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または、記憶媒体に記録されたデータを削除する削除装置などを含む。ストレージ装置164は、情報処理システム10において記憶部126の機能を実現し得る。
 通信装置166は、例えばインターネットやLAN(Local Area Network)などの通信網に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。
<<5.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <5-1.変形例1>
 例えば、図6では、表示処理部122と処理部100とが別々に設けられる例を示したが、本実施形態はかかる例に限定されない。変形例として、表示処理部122と処理部100とは一体的に構成されてもよい。
 <5-2.変形例2>
 本実施形態に係るシステムの構成例は、前述した例に限定されない。例えば、図35に示したように、前述した実施形態および各応用例に係る処理部100を有するサーバ80が通信網22に接続されていてもよい。この場合、サーバ80は、通信網22に接続されている個々の表示面20と通信網22を介して通信可能である。また、サーバ80は、前述した実施形態および各応用例で述べた内容と概略同様の表示制御を、当該個々の表示面20に対して行うことが可能である。例えば、個々の表示面20が位置する場所に(または、個々の表示面20自体に)、前述した入力部120、表示処理部122、および、出力部124がそれぞれ配置され得る。この場合、サーバ80は、個々の表示面20に対応する入力部120により取得された入力情報を個々の表示面20から受信し得る。さらに、サーバ80は、前述した実施形態および各応用例で述べた内容と概略同様の表示制御を、個々の表示面20から受信された入力情報に基づいて個々の表示面20に対して行ってもよい。
 <5-3.変形例3>
 別の変形例として、本実施形態に係る処理部100を含む装置(情報処理装置)は、前述した、入力部120、表示処理部122、または、出力部124のうちの一以上を含む装置であってもよい。例えば、当該情報処理装置は、処理部100、表示処理部122、および、出力部124を含むプロジェクタであってもよい。
 または、当該情報処理装置は、テーブル90と一体的に構成されてもよい。または、当該情報処理装置は、入力部120、表示処理部122、および、出力部124のうちの少なくとも一つと上記の通信網を介して接続されていてもよい。例えば、当該情報処理装置は、サーバ、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、テレビジョン受信機、例えばHMD(Head Mounted Display)やスマートウォッチなどのウェアラブルデバイス、または、ロボット(例えば人型ロボットや自動運転車など)であってもよい。
 <5-4.変形例4>
 前述した処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並行的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
 また、前述した各実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、前述した実施形態に係る情報処理システム10(特に処理部100)の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行い、かつ、
 前記第1の操作の後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更する処理部、
を備える、情報処理システム。
(2)
 前記処理部は、前記第2の操作の検出結果に基づいて、前記第1のオブジェクトに対応する情報を前記第2の表示面に表示させる、前記(1)に記載の情報処理システム。
(3)
 前記第2の操作は、前記第1のオブジェクトに対する操作状態を所定の操作状態のまま維持しながら、前記第1の操作に継続して行われる操作である、前記(2)に記載の情報処理システム。
(4)
 前記所定の表示制御は、前記第2の表示面における第1の対象領域内の一以上の表示情報を前記第1の表示面に表示させることを含む、前記(3)に記載の情報処理システム。
(5)
 前記第1の対象領域は、前記第2の表示面内の一部の領域であり、
 前記処理部は、さらに前記第2の操作の検出結果に基づいて、前記第1の対象領域を前記第2の表示面内の第1の領域から前記第2の表示面内の第2の領域へと変更し、
 前記第1の対象領域が前記第1の領域から前記第2の領域へ変更された場合には、前記処理部は、前記第1の表示面に表示される表示情報を、前記第1の領域内の一以上の表示情報から、前記第2の領域内の一以上の表示情報へ切り替える、前記(4)に記載の情報処理システム。
(6)
 前記第1の対象領域は、前記第2の表示面の略全体であり、
 前記所定の表示制御は、前記第2の表示面の略全体に表示されている一以上の表示情報を示すマップ画像を前記第1の表示面に表示させることを含み、
 前記マップ画像のサイズは、前記第1の表示面のサイズよりも小さい、前記(4)に記載の情報処理システム。
(7)
 前記第2の表示面が位置する場所は、前記第1の表示面が位置する場所から遠隔しており、
 前記処理部は、前記第1の表示面が位置する場所および前記第2の表示面が位置する場所のそれぞれから遠隔した場所に位置する第3の表示面に、前記第2の表示面における第2の対象領域内の一以上の表示情報を表示させ、
 前記第1の対象領域内の一以上の表示情報が前記第1の表示面に表示されている間に、前記処理部は、前記第1の対象領域と前記第2の対象領域との位置関係を示す表示を前記第1の表示面にさらに表示させる、前記(4)~(6)のいずれか一項に記載の情報処理システム。
(8)
 前記第2の対象領域内の一以上の表示情報が前記第3の表示面に表示されている間に、前記第3の表示面において第2のユーザがポインティングしている位置を示すポインティング情報を受信する受信部をさらに備え、
 前記第1の対象領域内の一以上の表示情報が前記第1の表示面に表示されている間に、前記処理部は、前記ポインティング情報が示すポインティング位置に対応する、前記第1の表示面内の位置に所定の画像をさらに表示させる、前記(7)に記載の情報処理システム。
(9)
 前記処理部は、さらに、前記第1のオブジェクトに対応する情報の、前記第2の表示面における転送位置を前記第2の操作の検出結果に基づいて決定する、前記(4)~(8)のいずれか一項に記載の情報処理システム。
(10)
 前記第1の対象領域は、前記第2の表示面の略全体であり、
 前記所定の表示制御は、前記第2の表示面の略全体に表示されている一以上の表示情報を示すマップ画像を前記第1の表示面に表示させることを含み、
 前記マップ画像のサイズは、前記第1の表示面のサイズよりも小さく、
 前記第2の操作は、前記第1のオブジェクトに対応する情報の前記第2の表示面における転送位置を、前記マップ画像において前記第1のユーザが指定することを含む、前記(9)に記載の情報処理システム。
(11)
 前記第1のオブジェクトに対応する情報は、前記第1のオブジェクトに対応する画像であり、
 前記処理部は、さらに、前記第2の表示面における前記転送位置に、前記第1のオブジェクトに対応する画像を表示させる、前記(9)または(10)に記載の情報処理システム。
(12)
 前記処理部は、さらに、前記第1の表示面に対応する複数の表示面の中から、前記第1のオブジェクトに対応する情報の転送先の少なくとも一つの表示面を、前記一以上の所定の転送オブジェクトの状態を示す情報と前記第1の操作の検出結果とに基づいて決定し、
 前記複数の表示面は、前記第2の表示面を含む、前記(3)~(11)のいずれか一項に記載の情報処理システム。
(13)
 前記一以上の所定の転送オブジェクトは、複数存在し、
 前記複数の所定の転送オブジェクトは、それぞれ実オブジェクトであり、
 前記第1の操作が検出された場合に、前記処理部は、前記複数の所定の転送オブジェクトのうちのいずれか2つの転送オブジェクトの間の距離が所定の閾値以下であるか否かと、当該いずれか2つの転送オブジェクトの並び方が所定の並び方であるか否かとに基づいて、前記複数の表示面の中から、前記第1のオブジェクトに対応する情報の転送先の少なくとも一つの表示面を決定する、前記(12)に記載の情報処理システム。
(14)
 前記所定の転送オブジェクトは、複数の面を有する実オブジェクトであり、
 前記所定の転送オブジェクトが有する前記複数の面の各々は、前記複数の表示面のうちの互いに異なる表示面と関連付けられており、
 前記第1の操作は、前記所定の転送オブジェクトが有する前記複数の面のうちの一つの面上に前記第1のユーザが前記第1のオブジェクトを配置することを含み、
 前記第1の操作が検出された場合には、前記処理部は、前記所定の転送オブジェクトが有する前記複数の面のうちの前記第1のオブジェクトが配置された面に関連付けられている表示面を、前記第1のオブジェクトに対応する情報の転送先の表示面として決定する、前記(12)または(13)に記載の情報処理システム。
(15)
 前記所定の転送オブジェクトは、少なくとも一つの傾斜面を有する実オブジェクトであり、
 前記第1の操作は、前記所定の転送オブジェクトが有する前記少なくとも一つの傾斜面のうちのいずれかの上に前記第1のユーザが前記第1のオブジェクトを配置することを含み、
 前記第1の操作が検出された場合には、前記処理部は、前記複数の表示面の中から、前記第1のオブジェクトが向いている方向に位置する表示面を、前記第1のオブジェクトに対応する情報の転送先の表示面として決定する、前記(12)~(14)のいずれか一項に記載の情報処理システム。
(16)
 前記所定の転送オブジェクトは、実オブジェクトであり、
 前記第1のオブジェクトに対応する画像が前記第2の表示面に表示された際に、前記処理部は、前記第1の操作中の、前記所定の転送オブジェクトに対する前記第1のオブジェクトの移動経過の検出結果と前記所定の転送オブジェクトの姿勢の検出結果とに基づいて、前記第2の表示面内の当該画像の表示位置を連続的に変化させる、前記(12)~(15)のいずれか一項に記載の情報処理システム。
(17)
 前記第1のオブジェクトに対応する情報は、前記第1のオブジェクトに対応する画像であり、
 前記第2の表示面に関連する情報は、前記第2の表示面に関連する、文字列の変換ルール情報を含み、
 前記第1のオブジェクト内に第1の文字列が含まれる場合には、前記処理部は、前記第2の表示面に関連する、文字列の変換ルール情報と前記第1の文字列とに基づいて変換された第2の文字列を含む画像を、前記第1のオブジェクトに対応する画像として前記第2の表示面に表示させる、前記(12)~(16)のいずれか一項に記載の情報処理システム。
(18)
 前記第1のオブジェクトに対応する情報は、前記第1のオブジェクトに対応する画像であり、
 前記第2の表示面に関連する情報は、前記第2の表示面に関連する、画像のフォーマットの変換ルール情報を含み、
 前記処理部は、前記第2の表示面に関連する、画像のフォーマットの変換ルール情報と前記第1のオブジェクトとに基づいて決定されたフォーマットの画像を、前記第1のオブジェクトに対応する画像として前記第2の表示面に表示させる、前記(12)~(17)のいずれか一項に記載の情報処理システム。
(19)
 第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行うことと、
 プロセッサが、前記第1の操作の検出時以後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更することと、
を含む、情報処理方法。
(20)
 コンピュータを、
 第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行い、かつ、
 前記第1の操作の検出時以後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更する処理部、
として機能させるためのプログラム。
10 情報処理システム
22 通信網
32 転送台
50 スマートフォン
80 サーバ
90 テーブル
100 処理部
102 転送操作検出部
104 面属性適合処理部
106 表示制御部
120 入力部
122 表示処理部
124 出力部
126 記憶部
128 面属性情報DB

Claims (20)

  1.  第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行い、かつ、
     前記第1の操作の後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更する処理部、
    を備える、情報処理システム。
  2.  前記処理部は、前記第2の操作の検出結果に基づいて、前記第1のオブジェクトに対応する情報を前記第2の表示面に表示させる、請求項1に記載の情報処理システム。
  3.  前記第2の操作は、前記第1のオブジェクトに対する操作状態を所定の操作状態のまま維持しながら、前記第1の操作に継続して行われる操作である、請求項2に記載の情報処理システム。
  4.  前記所定の表示制御は、前記第2の表示面における第1の対象領域内の一以上の表示情報を前記第1の表示面に表示させることを含む、請求項3に記載の情報処理システム。
  5.  前記第1の対象領域は、前記第2の表示面内の一部の領域であり、
     前記処理部は、さらに前記第2の操作の検出結果に基づいて、前記第1の対象領域を前記第2の表示面内の第1の領域から前記第2の表示面内の第2の領域へと変更し、
     前記第1の対象領域が前記第1の領域から前記第2の領域へ変更された場合には、前記処理部は、前記第1の表示面に表示される表示情報を、前記第1の領域内の一以上の表示情報から、前記第2の領域内の一以上の表示情報へ切り替える、請求項4に記載の情報処理システム。
  6.  前記第1の対象領域は、前記第2の表示面の略全体であり、
     前記所定の表示制御は、前記第2の表示面の略全体に表示されている一以上の表示情報を示すマップ画像を前記第1の表示面に表示させることを含み、
     前記マップ画像のサイズは、前記第1の表示面のサイズよりも小さい、請求項4に記載の情報処理システム。
  7.  前記第2の表示面が位置する場所は、前記第1の表示面が位置する場所から遠隔しており、
     前記処理部は、前記第1の表示面が位置する場所および前記第2の表示面が位置する場所のそれぞれから遠隔した場所に位置する第3の表示面に、前記第2の表示面における第2の対象領域内の一以上の表示情報を表示させ、
     前記第1の対象領域内の一以上の表示情報が前記第1の表示面に表示されている間に、前記処理部は、前記第1の対象領域と前記第2の対象領域との位置関係を示す表示を前記第1の表示面にさらに表示させる、請求項4に記載の情報処理システム。
  8.  前記第2の対象領域内の一以上の表示情報が前記第3の表示面に表示されている間に、前記第3の表示面において第2のユーザがポインティングしている位置を示すポインティング情報を受信する受信部をさらに備え、
     前記第1の対象領域内の一以上の表示情報が前記第1の表示面に表示されている間に、前記処理部は、前記ポインティング情報が示すポインティング位置に対応する、前記第1の表示面内の位置に所定の画像をさらに表示させる、請求項7に記載の情報処理システム。
  9.  前記処理部は、さらに、前記第1のオブジェクトに対応する情報の、前記第2の表示面における転送位置を前記第2の操作の検出結果に基づいて決定する、請求項4に記載の情報処理システム。
  10.  前記第1の対象領域は、前記第2の表示面の略全体であり、
     前記所定の表示制御は、前記第2の表示面の略全体に表示されている一以上の表示情報を示すマップ画像を前記第1の表示面に表示させることを含み、
     前記マップ画像のサイズは、前記第1の表示面のサイズよりも小さく、
     前記第2の操作は、前記第1のオブジェクトに対応する情報の前記第2の表示面における転送位置を、前記マップ画像において前記第1のユーザが指定することを含む、請求項9に記載の情報処理システム。
  11.  前記第1のオブジェクトに対応する情報は、前記第1のオブジェクトに対応する画像であり、
     前記処理部は、さらに、前記第2の表示面における前記転送位置に、前記第1のオブジェクトに対応する画像を表示させる、請求項9に記載の情報処理システム。
  12.  前記処理部は、さらに、前記第1の表示面に対応する複数の表示面の中から、前記第1のオブジェクトに対応する情報の転送先の少なくとも一つの表示面を、前記一以上の所定の転送オブジェクトの状態を示す情報と前記第1の操作の検出結果とに基づいて決定し、
     前記複数の表示面は、前記第2の表示面を含む、請求項3に記載の情報処理システム。
  13.  前記一以上の所定の転送オブジェクトは、複数存在し、
     前記複数の所定の転送オブジェクトは、それぞれ実オブジェクトであり、
     前記第1の操作が検出された場合に、前記処理部は、前記複数の所定の転送オブジェクトのうちのいずれか2つの転送オブジェクトの間の距離が所定の閾値以下であるか否かと、当該いずれか2つの転送オブジェクトの並び方が所定の並び方であるか否かとに基づいて、前記複数の表示面の中から、前記第1のオブジェクトに対応する情報の転送先の少なくとも一つの表示面を決定する、請求項12に記載の情報処理システム。
  14.  前記所定の転送オブジェクトは、複数の面を有する実オブジェクトであり、
     前記所定の転送オブジェクトが有する前記複数の面の各々は、前記複数の表示面のうちの互いに異なる表示面と関連付けられており、
     前記第1の操作は、前記所定の転送オブジェクトが有する前記複数の面のうちの一つの面上に前記第1のユーザが前記第1のオブジェクトを配置することを含み、
     前記第1の操作が検出された場合には、前記処理部は、前記所定の転送オブジェクトが有する前記複数の面のうちの前記第1のオブジェクトが配置された面に関連付けられている表示面を、前記第1のオブジェクトに対応する情報の転送先の表示面として決定する、請求項12に記載の情報処理システム。
  15.  前記所定の転送オブジェクトは、少なくとも一つの傾斜面を有する実オブジェクトであり、
     前記第1の操作は、前記所定の転送オブジェクトが有する前記少なくとも一つの傾斜面のうちのいずれかの上に前記第1のユーザが前記第1のオブジェクトを配置することを含み、
     前記第1の操作が検出された場合には、前記処理部は、前記複数の表示面の中から、前記第1のオブジェクトが向いている方向に位置する表示面を、前記第1のオブジェクトに対応する情報の転送先の表示面として決定する、請求項12に記載の情報処理システム。
  16.  前記所定の転送オブジェクトは、実オブジェクトであり、
     前記第1のオブジェクトに対応する画像が前記第2の表示面に表示された際に、前記処理部は、前記第1の操作中の、前記所定の転送オブジェクトに対する前記第1のオブジェクトの移動経過の検出結果と前記所定の転送オブジェクトの姿勢の検出結果とに基づいて、前記第2の表示面内の当該画像の表示位置を連続的に変化させる、請求項12に記載の情報処理システム。
  17.  前記第1のオブジェクトに対応する情報は、前記第1のオブジェクトに対応する画像であり、
     前記第2の表示面に関連する情報は、前記第2の表示面に関連する、文字列の変換ルール情報を含み、
     前記第1のオブジェクト内に第1の文字列が含まれる場合には、前記処理部は、前記第2の表示面に関連する、文字列の変換ルール情報と前記第1の文字列とに基づいて変換された第2の文字列を含む画像を、前記第1のオブジェクトに対応する画像として前記第2の表示面に表示させる、請求項12に記載の情報処理システム。
  18.  前記第1のオブジェクトに対応する情報は、前記第1のオブジェクトに対応する画像であり、
     前記第2の表示面に関連する情報は、前記第2の表示面に関連する、画像のフォーマットの変換ルール情報を含み、
     前記処理部は、前記第2の表示面に関連する、画像のフォーマットの変換ルール情報と前記第1のオブジェクトとに基づいて決定されたフォーマットの画像を、前記第1のオブジェクトに対応する画像として前記第2の表示面に表示させる、請求項12に記載の情報処理システム。
  19.  第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行うことと、
     プロセッサが、前記第1の操作の検出時以後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更することと、
    を含む、情報処理方法。
  20.  コンピュータを、
     第1の表示面内に位置する一以上の所定の転送オブジェクトと所定の位置関係にある検出領域に対して第1のユーザが第1のオブジェクトを移動させる第1の操作が検出された場合に、前記第1の表示面に対応する第2の表示面内の一以上の表示情報を前記第1の表示面内で操作可能なように変更されたことを示す所定の表示制御を前記第1の表示面に対して行い、かつ、
     前記第1の操作の検出時以後の前記第1のユーザの第2の操作の検出結果に基づいて、前記第2の表示面の表示状態を変更する処理部、
    として機能させるためのプログラム。
PCT/JP2018/041786 2017-12-19 2018-11-12 情報処理システム、情報処理方法、および、プログラム WO2019123888A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/772,665 US11112961B2 (en) 2017-12-19 2018-11-12 Information processing system, information processing method, and program for object transfer between devices
CN201880080504.5A CN111480132A (zh) 2017-12-19 2018-11-12 信息处理系统、信息处理方法和程序
EP18891566.4A EP3731068A4 (en) 2017-12-19 2018-11-12 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING PROCESS AND PROGRAM
JP2019560863A JPWO2019123888A1 (ja) 2017-12-19 2018-11-12 情報処理システム、情報処理方法、および、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-242317 2017-12-19
JP2017242317 2017-12-19

Publications (1)

Publication Number Publication Date
WO2019123888A1 true WO2019123888A1 (ja) 2019-06-27

Family

ID=66993086

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/041786 WO2019123888A1 (ja) 2017-12-19 2018-11-12 情報処理システム、情報処理方法、および、プログラム

Country Status (5)

Country Link
US (1) US11112961B2 (ja)
EP (1) EP3731068A4 (ja)
JP (1) JPWO2019123888A1 (ja)
CN (1) CN111480132A (ja)
WO (1) WO2019123888A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3594797A1 (en) 2012-05-09 2020-01-15 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
JP6182207B2 (ja) * 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211407A (ja) * 2009-03-09 2010-09-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2011037222A1 (ja) * 2009-09-28 2011-03-31 京セラ株式会社 携帯端末装置、携帯端末装置の制御方法、およびプログラム
JP2011070511A (ja) * 2009-09-28 2011-04-07 Sony Corp 端末装置、サーバ装置、表示制御方法、及びプログラム
JP2015090524A (ja) 2013-11-05 2015-05-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
JP4010516B2 (ja) * 2000-01-27 2007-11-21 株式会社日立製作所 変換規則導出システム
RU2179336C1 (ru) * 2000-12-26 2002-02-10 Общество С Ограниченной Ответственностью "Инсмат Технология" Способ формирования оптического изображения в некогерентном свете и устройство для его осуществления (варианты)
US9032325B2 (en) * 2001-06-08 2015-05-12 Real Enterprise Solutions Development B.V. Management of local applications in local and remote desktops in a server-based computing environment
US6947162B2 (en) * 2001-08-30 2005-09-20 Hewlett-Packard Development Company, L.P. Systems and methods for converting the format of information
US7519910B2 (en) * 2002-10-10 2009-04-14 International Business Machines Corporation Method for transferring files from one machine to another using adjacent desktop displays in a virtual network
EP1859339A2 (en) * 2005-03-10 2007-11-28 Koninklijke Philips Electronics N.V. System and method for detecting the location, size and shape of multiple objects that interact with a touch screen display
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US8402382B2 (en) * 2006-04-21 2013-03-19 Google Inc. System for organizing and visualizing display objects
US8516393B2 (en) * 2006-12-18 2013-08-20 Robert Pedersen, II Apparatus, system, and method for presenting images in a multiple display environment
US20080307324A1 (en) * 2007-06-08 2008-12-11 Apple Inc. Sharing content in a videoconference session
GB2451274B (en) * 2007-07-26 2013-03-13 Displaylink Uk Ltd A system comprising a touchscreen and one or more conventional display devices
US9529820B2 (en) * 2008-05-23 2016-12-27 International Business Machines Corporation Automated content tracking and conversion
US20100205628A1 (en) * 2009-02-12 2010-08-12 Davis Bruce L Media processing methods and arrangements
US20100169791A1 (en) * 2008-12-31 2010-07-01 Trevor Pering Remote display remote control
WO2010109849A1 (ja) * 2009-03-23 2010-09-30 パナソニック株式会社 情報処理装置、情報処理方法、記録媒体、及び集積回路
KR20100109686A (ko) * 2009-04-01 2010-10-11 삼성전자주식회사 Gui 제공방법 및 이를 적용한 멀티미디어 기기
JP5528739B2 (ja) * 2009-08-12 2014-06-25 株式会社ジャパンディスプレイ 検出装置、表示装置、および物体の近接距離測定方法
JP2011248768A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
US20110291964A1 (en) * 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
KR101688942B1 (ko) * 2010-09-03 2016-12-22 엘지전자 주식회사 다중 디스플레이에 기반한 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기
KR101984462B1 (ko) * 2010-12-31 2019-05-30 이베이 인크. 간단한 커맨드로 복수의 네트워크화된 디바이스에 콘텐츠를 디스플레이하기 위한 방법 및 시스템
KR101802522B1 (ko) * 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
EP2713282A4 (en) * 2011-07-26 2014-07-16 Huawei Device Co Ltd INPUT METHOD FOR COMMUNICATION TERMINALS AND COMMUNICATION TERMINALS
CN103425403B (zh) * 2012-05-14 2017-02-15 华为技术有限公司 一种屏幕间显示内容的穿越方法、装置及系统
US9767446B2 (en) * 2012-07-19 2017-09-19 Mastercard International Incorporated Touch screen system and methods for multiple contactless payments
KR20140011857A (ko) * 2012-07-20 2014-01-29 삼성전자주식회사 이동 단말에서 디스플레이 장치의 디스플레이를 제어하기 위한 방법 및 이를 위한 이동 단말
KR102061881B1 (ko) * 2012-10-10 2020-01-06 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
JP2016503605A (ja) * 2012-11-02 2016-02-04 エルジー エレクトロニクス インコーポレイティド コンテンツ再生方法及び装置
CN104969527A (zh) * 2012-12-07 2015-10-07 优特设备有限公司 向设备驱动器发布通知数据
KR102058368B1 (ko) * 2013-01-21 2019-12-24 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
SG10201702070YA (en) * 2013-02-07 2017-05-30 Dizmo Ag System for organizing and displaying information on a display device
US20140267281A1 (en) * 2013-03-13 2014-09-18 Ericom Software Ltd. Method for displaying a remote desktop on a portable touch screen device
US20140282068A1 (en) * 2013-03-15 2014-09-18 SingTel Idea Factory Pte. Ltd. Systems and methods for transferring of objects among mobile devices based on pairing and matching using actions and/or gestures associated with the mobile device
TWI493497B (zh) * 2013-05-15 2015-07-21 Quanta Comp Inc 電子裝置及其控制方法
US10549180B2 (en) * 2013-09-30 2020-02-04 Zynga Inc. Swipe-direction gesture control for video games using glass input devices
US10664162B2 (en) * 2013-11-18 2020-05-26 Red Hat, Inc. Multiple display management
US20190037611A1 (en) * 2013-12-23 2019-01-31 Google Llc Intuitive inter-device connectivity for data sharing and collaborative resource usage
WO2015106114A1 (en) * 2014-01-13 2015-07-16 T1visions, Inc. Display capable of object recognition
EP2930717A1 (en) * 2014-04-07 2015-10-14 Thomson Licensing Method and apparatus for determining in a 2nd screen device whether the presentation of watermarked audio content received via an acoustic path from a 1st screen device has been stopped
JP6390277B2 (ja) * 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
KR20160053641A (ko) * 2014-11-05 2016-05-13 삼성전자주식회사 멀티 디스플레이 제어 방법 및 그 전자 장치
US20170052685A1 (en) * 2015-08-17 2017-02-23 Tenten Technologies Limited User experience for social sharing of electronic data via direct communication of touch screen devices
KR101730315B1 (ko) * 2015-11-05 2017-04-27 엘지전자 주식회사 영상을 공유하는 전자 기기 및 방법
US20200201038A1 (en) * 2017-05-15 2020-06-25 Real View Imaging Ltd. System with multiple displays and methods of use
JP7043931B2 (ja) * 2018-03-30 2022-03-30 ブラザー工業株式会社 画面作成プログラム、情報処理装置および画面作成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211407A (ja) * 2009-03-09 2010-09-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2011037222A1 (ja) * 2009-09-28 2011-03-31 京セラ株式会社 携帯端末装置、携帯端末装置の制御方法、およびプログラム
JP2011070511A (ja) * 2009-09-28 2011-04-07 Sony Corp 端末装置、サーバ装置、表示制御方法、及びプログラム
JP2015090524A (ja) 2013-11-05 2015-05-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3731068A4

Also Published As

Publication number Publication date
EP3731068A4 (en) 2021-05-12
US20210081092A1 (en) 2021-03-18
JPWO2019123888A1 (ja) 2020-12-24
CN111480132A (zh) 2020-07-31
US11112961B2 (en) 2021-09-07
EP3731068A1 (en) 2020-10-28

Similar Documents

Publication Publication Date Title
JP7297216B2 (ja) 拡張現実システムのためのタッチフリーインターフェース
US11532102B1 (en) Scene interactions in a previsualization environment
CN106257392B (zh) 用于导航媒体内容的设备、方法和图形用户界面
US10585531B2 (en) Information processing apparatus, control method, and program
JP5900393B2 (ja) 情報処理装置、操作制御方法及びプログラム
US11703941B2 (en) Information processing system, information processing method, and program
EP2363793A2 (en) Information processing apparatus, information processing method, and program
WO2019123888A1 (ja) 情報処理システム、情報処理方法、および、プログラム
JP2012212343A (ja) 表示制御装置、表示制御方法、およびプログラム
WO2020078319A1 (zh) 基于手势的操控方法及终端设备
CN102375564A (zh) 使用光学指示器的交互方法、光学指示器、展示方法和系统
US11922904B2 (en) Information processing apparatus and information processing method to control display of a content image
US20190235710A1 (en) Page Turning Method and System for Digital Devices
US20230334790A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230334791A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
WO2023215637A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
WO2024039887A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18891566

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019560863

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018891566

Country of ref document: EP

Effective date: 20200720