WO2014162852A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
WO2014162852A1
WO2014162852A1 PCT/JP2014/056984 JP2014056984W WO2014162852A1 WO 2014162852 A1 WO2014162852 A1 WO 2014162852A1 JP 2014056984 W JP2014056984 W JP 2014056984W WO 2014162852 A1 WO2014162852 A1 WO 2014162852A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
viewpoint
display
real space
image processing
Prior art date
Application number
PCT/JP2014/056984
Other languages
English (en)
French (fr)
Inventor
俊一 笠原
暦本 純一
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2015509985A priority Critical patent/JP6304242B2/ja
Priority to EP14779795.5A priority patent/EP2983139A4/en
Priority to US14/779,452 priority patent/US9823739B2/en
Publication of WO2014162852A1 publication Critical patent/WO2014162852A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a program.
  • AR augmented reality
  • Information presented to the user in AR technology is also called annotation, and can be visualized using various forms of virtual objects such as text, icons, or animation.
  • Patent Document 1 describes a technique for realizing the operation of the AR virtual object without impairing the user's immersion in the AR space.
  • Patent Document 1 The AR technology proposed in the above-mentioned Patent Document 1 has not been developed yet, and it is hard to say that technologies for utilizing AR in various aspects have been sufficiently proposed.
  • a technique for facilitating the interaction between users using the AR technique is one that has not been sufficiently proposed.
  • the present disclosure proposes a new and improved image processing apparatus, image processing method, and program capable of facilitating the interaction between users using the AR technology.
  • the image processing unit includes an image processing unit that generates an output image using a first image obtained by capturing a real space from a first viewpoint as an input image, and the image processing unit includes the first viewpoint in the real space. Based on the position and orientation, a second image obtained by virtually capturing the real space from the second viewpoint having a position and orientation different from the first viewpoint in the real space is generated as the output image.
  • An image processing apparatus is provided.
  • a processor that generates an output image using a first image obtained by capturing a real space from a first viewpoint as an input image is based on the position and orientation of the first viewpoint in the real space.
  • An image processing method comprising: generating a second image obtained by virtually capturing the real space from the second viewpoint having a position and orientation different from the first viewpoint in the real space as the output image.
  • the computer that generates the output image using the first image obtained by capturing the real space from the first viewpoint as the input image is based on the position and orientation of the first viewpoint in the real space.
  • a program for realizing a function of generating, as the output image, a second image obtained by virtually capturing the real space from a second viewpoint having a position and orientation different from the first viewpoint in the real space Is provided.
  • interaction between users using AR technology can be made smoother.
  • FIG. 5 is a diagram illustrating an example of annotation input according to an embodiment of the present disclosure.
  • FIG. It is a figure which shows another example of the sharing of the captured image in one Embodiment of this indication.
  • 5 is a flowchart illustrating an example of processing of technology that can be used in an embodiment of the present disclosure.
  • 10 is a flowchart illustrating another example of processing of technology that can be used in an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example in which images of different viewpoints are displayed simultaneously in an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example in which images of different viewpoints are displayed simultaneously in an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example in which images of different viewpoints are displayed simultaneously in an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating a first example of annotation display according to an embodiment of the present disclosure. It is a figure showing the 2nd example of annotation display in one embodiment of this indication.
  • FIG. 14 is a diagram illustrating a third example of annotation display according to an embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating a fourth example of annotation display according to an embodiment of the present disclosure. It is a figure showing the 5th example of annotation display in one embodiment of this indication.
  • FIG. 16 is a diagram illustrating a sixth example of annotation display according to an embodiment of the present disclosure.
  • 5 is a diagram for describing an arrangement of annotations according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating an example of selection of annotation arrangement according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating a first example of display of annotations that are outside a visible range according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating a first example of display of annotations that are outside a visible range according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating a first example of display of annotations that are outside a visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a second example of displaying annotations that are outside the visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a second example of displaying annotations that are outside the visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a third example of display of annotations that are outside the visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a third example of display of annotations that are outside the visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a fourth example of displaying an annotation that is outside a visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a fifth example of display of annotations that are outside the visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a sixth example of display of annotations that are outside the visible range in an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a third example of display of annotations that are outside the visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a third example of display of annotations that are outside the visible range according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating
  • FIG. 6 is a diagram illustrating a display example of an annotation target object using edge detection according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of a streaming frame rollback display according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of a streaming frame rollback display according to an embodiment of the present disclosure.
  • FIG. It is a figure which shows the example of the application which shares a traveler's viewpoint using the technique which concerns on one Embodiment of this indication.
  • FIG. 1 is a diagram illustrating a schematic configuration of a system according to an embodiment of the present disclosure.
  • the system 10 includes a server 100 and clients 200 to 700.
  • the server 100 is a collection of functions realized by a single server device or a plurality of server devices connected via a wired or wireless network to cooperate, and provides a service to the clients 200 to 700.
  • the clients 200 to 700 are terminal devices connected to the server 100 through various wired or wireless networks.
  • the clients 200 to 700 realize at least one of the following functions (1) to (3) in the system 10.
  • An apparatus that has imaging means such as a camera and provides an image in real space to the server 100.
  • It has a display means such as a display and an operation means such as a touch panel, obtains an image provided from the apparatus of (1) from the server 100, provides it to the user's browsing, and annotates the image by the user A device that accepts input.
  • a device having display means such as a display, and directly or indirectly displaying an annotation whose input has been accepted by the device of (2) in the real space.
  • the client 200 is a wearable terminal (hereinafter also simply referred to as a wearable terminal 200).
  • the wearable terminal 200 includes, for example, either or both of an imaging unit and a display unit, and functions as either or both of the above (1) and (3).
  • the wearable terminal 200 is a glasses type, but is not limited to this example as long as the wearable terminal 200 can be worn on the user's body.
  • the wearable terminal 200 includes, for example, a camera installed in a frame portion of glasses as an imaging unit. With this camera, wearable terminal 200 can acquire an image in real space from a position close to the user's viewpoint. The acquired image is transmitted to the server 100.
  • the wearable terminal 200 when functioning as said (3) apparatus, has the display installed in the one part or all part of the lens part of spectacles, for example as a display means.
  • the wearable terminal 200 displays an image captured by the camera on the display and superimposes the annotation input by the device (2) on the image.
  • the display when the display is a transmissive type, the wearable terminal 200 may transparently superimpose and display the annotation on the real-world image that the user is directly viewing.
  • the client 300 is a tablet terminal (hereinafter also simply referred to as a tablet terminal 300).
  • the tablet terminal 300 includes at least a display unit and an operation unit, and can function as, for example, the device (2).
  • the tablet terminal 300 may further include an imaging unit and function as either or both of the above (1) and (3). That is, the tablet terminal 300 can function as an arbitrary device among the devices (1) to (3).
  • the tablet terminal 300 When functioning as the device (2), the tablet terminal 300 has a display as a display unit and a touch sensor on the display as an operation unit, for example, and is provided from the device (1) via the server 100. An image is displayed and a user annotation input for the image is accepted. The accepted annotation input is provided to the apparatus (3) via the server 100.
  • the tablet terminal 300 When functioning as the device of (1) above, the tablet terminal 300 has a camera as an imaging unit, for example, similar to the above-described wearable terminal 200, and the user holds the tablet terminal 300 in real space to An image of a real space on the extension line can be acquired. The acquired image is transmitted to the server 100.
  • the tablet terminal 300 displays an image captured by the camera on the display, and the device of (2) (for example, another tablet terminal) with respect to the image.
  • the annotation input by is superimposed and displayed.
  • the display is a transmissive type, the tablet terminal 300 may transparently superimpose and display the annotation on the real-world image that the user is directly viewing.
  • the client 400 is a mobile phone (smart phone) (hereinafter also simply referred to as the mobile phone 400).
  • the function of the mobile phone 400 in the system 10 is the same as that of the tablet terminal 300, detailed description is abbreviate
  • a device such as a portable game machine or a digital camera also includes a tablet terminal 300 or a mobile phone in the system 10 as long as it includes a communication unit, a display unit, an operation unit, or an imaging unit. It can function in the same way as 400.
  • the client 500 is a laptop PC (hereinafter also simply referred to as a laptop PC 500).
  • the laptop PC 500 has display means and operation means, and functions as the device (2).
  • the laptop PC 500 is treated as an example of a device that does not function as the device (1) because it is basically fixed and used.
  • a desktop PC or a television can function in the same manner as the laptop PC 500.
  • the laptop PC 500 has a display as a display means and a mouse and a keyboard as operation means.
  • the laptop PC 500 displays an image provided from the apparatus (1) via the server 100 and inputs a user annotation to the image. Accept.
  • the accepted annotation input is provided to the apparatus (3) via the server 100.
  • the laptop PC 500 can also function as the device (3). In this case, the laptop PC 500 does not superimpose the annotation on the real space image captured by itself, but displays the annotation as a part of the real space as in an example described later. Such an annotation can also be displayed on the tablet terminal 300 or the mobile phone 400 described above.
  • the client 600 is a fixed camera (hereinafter also simply referred to as a fixed camera 600).
  • the fixed camera 600 has an imaging unit and functions as the device (1).
  • the fixed camera 600 is treated as an example of an apparatus that does not function as the apparatuses (2) and (3) because the fixed camera 600 is used in a fixed manner and does not have a display unit.
  • a camera that projects the front of the screen is provided on a desktop PC or television, or when a movable device such as a digital camera is temporarily fixed to a tripod, These devices can function in the same manner as the fixed camera 600.
  • the fixed camera 600 has a camera as an imaging unit, and displays an image of a real space from a fixed viewpoint (including a case where the camera swings automatically or in response to a user's operation for viewing a captured image). Can be acquired. The acquired image is transmitted to the server 100.
  • the client 600 may be a camera attached to a moving body. The moving body may move according to the passenger's own intention such as an automobile or an animal.
  • a mobile body to which the client 600 is attached is a device (robot camera) that performs imaging while flying or running based on user control using wireless communication or the like, or automatically flying or running according to a program. It may be.
  • the client 700 is a projector (hereinafter also simply referred to as the projector 700).
  • the projector 700 has a projection device as display means, and functions as the device (3).
  • the projector 700 does not have an imaging unit and does not have an operation unit that receives an input to a displayed (projected) image, and thus does not function as the devices (1) and (2). It is treated as an example of a device.
  • the projector 700 displays an annotation in the real space by projecting an image on a screen or the surface of an object using a projection device.
  • the projector 700 is shown as a fixed type, but may be a handheld type.
  • the system 10 includes a device (wearable terminal 200, tablet terminal 300, mobile phone 400, fixed camera 600) capable of acquiring a real space image, and a real space image.
  • a device capable of receiving an annotation input to an image by the user and displaying an annotation directly or indirectly in real space (Wearable terminal 200, tablet terminal 300, mobile phone 400, laptop PC 500, projector 700).
  • the server 100 obtains an image of the real space by cooperating with each of the above-described devices, provides the image to the user (for example, a user who is not in the real space), and applies the image to the image by the user.
  • a function for receiving an annotation input and displaying the input annotation directly or indirectly in the real space is realized. With such a function, for example, an image of a real space where the first user is present is viewed by a second user, and an annotation added to the image by the second user is directly or indirectly added to the real space. Interaction between users using the AR technology, such as being displayed and visually recognized by the first user, becomes possible.
  • AR images for example, images in which annotations are displayed in real space
  • image processing for configuring an AR image is mainly executed by the server 100.
  • part or all of the image processing is, for example, the apparatus of (3) that displays an annotation in real space, or the apparatus of (2) that displays an image of real space and receives an annotation input. Etc. may be executed.
  • devices that execute such image processing are collectively referred to as “image processing devices”.
  • FIG. 2 is a diagram illustrating a schematic configuration of an apparatus according to an embodiment of the present disclosure.
  • the apparatus 900 includes a processor 910 and a memory 920.
  • the apparatus 900 may further include a display unit 930, an operation unit 940, a communication unit 950, an imaging unit 960, or a sensor 970. These components are connected to each other by a bus 980.
  • the device 900 can realize, for example, the server device constituting the server 100 and the clients 200 to 700 described above.
  • the processor 910 is a variety of processors such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), for example, and performs various functions by executing operations such as computation and control according to a program stored in the memory 920, for example. To realize.
  • the processor 910 realizes a control function of the entire apparatus of the server 100 and the clients 200 to 700, for example.
  • the processor 910 performs image processing for realizing display of an AR image as in an example described later.
  • the processor 910 executes display control for realizing display of an AR image as described later in the server 100, the wearable terminal 200, the tablet terminal 300, the mobile phone 400, the laptop PC 500, or the projector 700, for example. To do.
  • the memory 920 is configured by a storage medium such as a semiconductor memory or a hard disk, and stores a program and data for processing by the apparatus 900.
  • the memory 920 may store captured image data acquired by the imaging unit 960 and sensor data acquired by the sensor 970.
  • an external data source for example, a data server, a network storage, or an external memory
  • the display unit 930 is provided, for example, in a client having the above-described display means.
  • the display unit 930 can be a display corresponding to the shape of the device 900, for example.
  • the wearable terminal 200 may have a display having a shape corresponding to the lens portion of the glasses, for example.
  • the tablet terminal 300, the mobile phone 400, and the laptop PC 500 may have a flat panel display provided in each case.
  • the display unit 930 may be a projection device that projects an image on an object.
  • the projector 700 can have a projection device as a display unit.
  • the operation unit 940 is provided in, for example, a client having the above-described operation means.
  • the operation unit 940 is configured by combining a touch sensor (which forms a touch panel together with the display), a touch pad, a mouse, and other pointing devices provided on the display, with a keyboard, buttons, switches, and the like as necessary.
  • the operation unit 940 identifies a position in an image displayed on the display unit 930 by using, for example, a pointing device, and accepts a user operation for inputting some information to the position using a keyboard, a button, a switch, or the like.
  • the operation unit 940 may specify a position in an image displayed on the display unit 930 by a pointing device, and may accept a user's operation to input some information with respect to the position using the pointing device.
  • the operation unit 940 may acquire an operation for specifying a position in an image or inputting some information for the position based on a user's gesture instead of or together with the pointing device. Good.
  • the user's gesture is, for example, analyzing an image acquired by a camera module (which may be the same as or different from that of the imaging unit 960) and recognizing a motion of an operation body such as a body part of the user Is specified by
  • the user's gesture may be acquired based on a detection result of a motion sensor provided in a wearable device attached to a device different from a device having a display, for example, a user's finger or wrist facing the display. Good.
  • the user's gesture is specified based on the acceleration or angular velocity of the user's finger or wrist detected by the motion sensor.
  • the communication unit 950 is a communication interface that mediates communication between the device 900 and other devices.
  • the communication unit 950 supports any wireless communication protocol or wired communication protocol, and establishes a communication connection with another device.
  • the communication unit 950 is used for transmission of the real space image captured by the client and the input annotation information to the server 100, and transmission of the real space image and annotation information from the server 100 to the client. .
  • the imaging unit 960 is a camera module that captures an image.
  • the imaging unit 960 images a real space using an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and generates a captured image.
  • a series of captured images generated by the imaging unit 960 constitutes a video.
  • the imaging unit 960 is not necessarily a part of the apparatus 900.
  • an imaging device connected to the device 900 by wire or wireless may be handled as the imaging unit 960.
  • the imaging unit 960 may include a depth sensor that measures the distance between the imaging unit 960 and the subject for each pixel. The depth data output from the depth sensor can be used for environment recognition in an image obtained by capturing a real space as will be described later.
  • Sensor 970 may include various sensors such as a positioning sensor, an acceleration sensor, and a gyro sensor.
  • the measurement results obtained by the sensor 970 may be used in various applications such as support for environment recognition in an image captured in real space, acquisition of data specific to a geographical location, or detection of user input.
  • the sensor 970 can be provided in a device having the imaging unit 960, in the above example, the wearable terminal 200, the tablet terminal 300, the mobile phone 400, or the fixed camera 600.
  • FIG. 3A is a diagram illustrating an example of sharing a captured image according to an embodiment of the present disclosure.
  • an image in real space captured by the camera 260 (imaging unit) of the wearable terminal 200 is streamed to the tablet terminal 300 via the server 100 and displayed as an image 1300 on the display 330 (display unit).
  • the captured real space image is displayed on the display 230 (display unit) or the real space image is directly viewed through the display 230.
  • an image 1200 an image (including a background that is visible through transmission) displayed on the display 230 is referred to as an image 1200 below.
  • FIG. 3B is a diagram illustrating an example of annotation input according to an embodiment of the present disclosure.
  • a touch sensor 340 operation unit
  • a user's touch input for the image 1300 displayed on the display 330 can be acquired.
  • a user's touch input indicating a position in the image 1300 is acquired by the touch sensor 340, and a pointer 1310 is displayed at the position.
  • text input using a separately displayed screen keyboard or the like is displayed as a comment 1320 on the image 1300.
  • the pointer 1310 and the comment 1320 are transmitted as annotations to the wearable terminal 200 via the server 100.
  • annotations input on the tablet terminal 300 are displayed on the image 1200 as a pointer 1210 and a comment 1220.
  • the position where these annotations are displayed in the image 1200 corresponds to the position of the real space in the image 1300 displayed on the tablet terminal 300.
  • an interaction is established between the wearable terminal 200 which is a transmission side (streaming side) device and the tablet terminal 300 which is a reception side (viewer side) device.
  • a technique that can be used for matching the display positions of annotations between apparatuses or continuously displaying annotations will be described later.
  • FIG. 3B is a diagram illustrating another example of sharing of a captured image according to an embodiment of the present disclosure.
  • an image of the real space captured by the camera (imaging unit; not shown because it is on the back side) of the tablet terminal 300a is streamed to the tablet terminal 300b, and the image is displayed on the display 330b (display unit). It is displayed as 1300b.
  • the captured real space image is displayed on the display 330a, or the real space image is directly visible through the display 330a.
  • an image displayed on the display 330a (including a background that is visible through transmission) is referred to as an image 1300a below.
  • the tablet terminal 300a which is an apparatus on the transmission side (streaming side), and the reception side (viewer side) are displayed on the image 1300a by displaying annotations input to the image 1300b on the tablet terminal 300b.
  • the tablet terminal 300b which is the device of FIG.
  • the sharing of the real space image and the interaction between the users based on the real space image according to the present embodiment are not limited to the above-described examples related to the wearable terminal 200 and the tablet terminal 300, and the mobile phone 400, the laptop PC 500, which have already been described, and fixed
  • the camera 600 or the projector 700 also realizes the respective functions (for example, the functions (1) to (3) described above), any device is set as the transmission side (streaming side) and the reception side (viewer side). It can be established.
  • spatial information is added to real-space image data to be transmitted in the transmission-side apparatus. Spatial information is based on how the image capturing unit (the camera 260 of the wearable terminal 200 in the examples of FIGS. 3A and 3B and the camera of the tablet terminal 300a in the example of FIG. 4) moves in the real space. It is information that makes it possible to estimate whether or not.
  • the spatial information may be an environment recognition matrix recognized by a known image recognition technique such as SfM (Structure from Motion) method or SLAM (Simultaneous Localization And Mapping) method.
  • the environment recognition matrix indicates, for example, the relative position and orientation of the coordinate system of the reference environment (real space) with respect to the coordinate system unique to the device on the transmission side.
  • the processor of the transmitting device transmits a state variable including the position, posture, velocity and angular velocity of the device, and the position of at least one feature point included in the captured image to the extended Kalman filter. Updating is performed for each frame of the captured image based on the principle.
  • the position and orientation of the reference environment based on the position and orientation of the apparatus can be recognized using the input image from the monocular camera.
  • a detailed explanation of the SLAM method can be found in, for example, “Real-Time Simultaneous Localization and Mapping with a Single Camera” (Andrew J. Davison, Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410) It is described in.
  • the spatial information may be any information as long as it is information indicating the relative position and orientation of the imaging unit in the real space.
  • the environment recognition matrix may be recognized based on depth data from a depth sensor that can be provided in the imaging unit.
  • the environment recognition matrix may be recognized based on output data from an environment recognition system such as an infrared distance measuring system or a motion capture system.
  • an environment recognition system such as an infrared distance measuring system or a motion capture system.
  • An example of such a technology is described in, for example, S.Izadi, et al, KinectFusion: Real-time 3D Reconstruction and Interaction Using a Moving Depth Camera, ACM Symposium on User Interface Software and Technology, 2011.
  • various known techniques can be used for generating spatial information.
  • the spatial information may be generated by specifying the relative positional relationship of each frame image by stitching analysis of a series of frame images obtained by imaging the real space.
  • the stitching analysis may be a two-dimensional stitching analysis in which each frame image is pasted on the base plane, or a three-dimensional stitching analysis in which each frame image is pasted at an arbitrary position in the space.
  • the imaging unit acquires real space image data
  • the processor processes the information acquired by the imaging unit or the sensor as necessary to generate spatial information.
  • the image data and the spatial information are associated with each other and transmitted from the communication unit of wearable terminal 200 to server 100 (step S103).
  • the communication unit receives image data and spatial information from the wearable terminal 200, and transfers the image data to the tablet terminal 300 (receiving device) (step S105).
  • the processor associates the position in the image received using the spatial information with the position of the real space where the wearable terminal 200 exists (step S107).
  • the communication unit receives the image data from the server 100, and the processor displays the image 1300 on the display 330 based on the received image data (step S109).
  • the processor relates the annotation input to a position in the image 1300 (for example, the position of the pointer 1310), and communicates from the communication unit to the server 100. (Step S113).
  • the processor converts the position in the image included in the received information into the position in the real space (step) S115).
  • the annotation input associated with the converted real space position is transmitted from the communication unit to the wearable terminal 200 (step S117).
  • the communication unit receives the annotation input and the real space position information from the server 100, and the processor displays the real space position associated with the annotation information on the current display 230 using the spatial information.
  • the image is converted into a position in the image 1200 (step S119), and an annotation (for example, a pointer 1210 or a comment 1220) is displayed at the position (step S121).
  • FIG. 5B shows another example of the above processing.
  • the communication unit transmits the information on the position in the real space included in the image together with the image data to the tablet terminal 300 (steps). S201).
  • the image is displayed on the display 330 (step S109) as in the example of FIG. 5A described above, but the annotation input is not the position in the image but the real space received in step S201. It is transmitted in association with the position (step S203).
  • the communication unit may transfer the annotation input information associated with the real space position to the wearable terminal 200 (step S205).
  • the display range of the image 1200 displayed on the wearable terminal 200 is changed by the movement of the user or the device during the above time difference, and thus transmitted from the tablet terminal 300.
  • the annotation may be displayed at a position different from the position intended by the user of the tablet terminal 300 while viewing the image 1300.
  • the annotation can be associated with the position in the real space. Therefore, the wearable terminal 200 can be used by the user of the tablet terminal 300 regardless of the change in the display range of the image 1200.
  • An annotation can be displayed at an intended position (for example, a position corresponding to a specific object in the real space) while viewing the image 1300.
  • the real space image 1200 displayed on the wearable terminal 200 can be directly viewed through the display 230, or can be displayed in alignment with the real space image seen outside the display 230.
  • the range of the image 1200 is narrower than the range of the real space image captured by the camera 260 of the wearable terminal 200 (that is, the range visually recognized by the user of the wearable terminal 200). (The range of the captured image is wider than that).
  • the range of the image 1300 displayed on the display 330 of the tablet terminal 300 is wider than the range of the image 1200 of the wearable terminal 200, and the user of the tablet terminal 300 is outside the image 1200, that is, the wearable terminal 200. It may be possible to enter annotations in areas that are not visible to the user. Therefore, when an annotation is exchanged with reference to a position in the image, an annotation that is not displayed on the image 1200 of the wearable terminal 200 occurs even if the tablet terminal 300 can input the annotation.
  • the annotation can be associated with the position in the real space by applying the above technique, the position that is not within the display range of the image 1200 when received by the server 100 or the wearable terminal 200. Can be displayed on the image 1200, for example, when the display range of the image 1200 subsequently changes to include the position of the annotation.
  • the transmission-side apparatus adds the spatial information to the real space image data and transmits it.
  • the spatial information is information indicating, for example, the position and orientation in the real space of the imaging unit of the transmitting device. If this information is used, as will be described below, the receiving side generates an image for observing the real space from a free viewpoint, regardless of the viewpoint of the first person image (the real space image captured by the imaging unit). It is possible to provide the apparatus.
  • the operations of the transmission side device, the reception side device, and the server will be described using the example shown in FIGS. 3A and 3B.
  • the present invention is not limited to an example, and may be realized by a combination of arbitrary devices in the system 10 described above.
  • FIG. 6 is a diagram illustrating a display example of a first person image according to an embodiment of the present disclosure.
  • FIG. 6 shows a first person image 1010.
  • the first person image 1010 is an image captured by the camera 260 of the wearable terminal 200 (device on the transmission side), and may be the same as the image 1200 displayed on the display 230 by the wearable terminal 200. It is called “personal image”. Since the first person image 1010 is a streaming frame, that is, a series of frame images captured by the camera 260, the display range thereof changes every moment with the movement of the user wearing the wearable terminal 200, for example.
  • (3rd person image) 7 to 9 are diagrams illustrating display examples of third-person images according to an embodiment of the present disclosure.
  • the third person image 1020 shown in FIGS. 7 to 9 is a virtual image of the real space where the camera 260 of the wearable terminal 200 exists from a different viewpoint from the first person image based on the spatial information provided together with the data of the captured image. It is the image which was picked up automatically.
  • the third person image 1020 can be generated from a position set in the real space of the camera 260 of the wearable terminal 200, that is, from a viewpoint that is set freely regardless of the viewpoint of the apparatus on the transmission side. In the specification, it is referred to as “third-person image”.
  • the third person image 1020 is generated by, for example, the processor of the server 100 processing an image of the real space acquired by the camera 260 of the wearable terminal 200 based on the spatial information provided from the wearable terminal 200, and is transmitted by the communication unit. It can be transmitted to the tablet terminal 300.
  • an image captured by the camera 260 can be displayed as a streaming frame 1021.
  • the streaming frame 1021 is, for example, the same image as the first person image 1010 described above, and is arranged in a rectangular area corresponding to the screen of the streaming frame 1021 in the displayed real space according to the spatial information.
  • the shape of this area can be transformed into, for example, a trapezoidal shape or an unequal-sided square shape according to the inclination of the viewpoint of the third person image 1020 with respect to the streaming frame 1021.
  • a viewpoint that allows the streaming frame 1021 to be outside the display range of the third-person image 1020 can be set, or on the back side of the streaming frame 1021. It may be possible to set a viewpoint. In such a case, the streaming frame 1021 may not be displayed on the third person image 1020. Further, in this case, the link between the third person image 1020 and the wearable terminal 200 having the camera 260 that provides the streaming frame may be released, and the third person image 1020 may temporarily leave the transmission side device.
  • the viewpoint of the third person image 1020 it is possible to move the viewpoint of the third person image 1020 further based on the cache of the spatial information at the time of leaving, for example, the streaming frame 1021 or the streaming frame provided from another transmitting device is again
  • the display range of the third person image 1020 is entered, the link between the third person image 1020 and the transmitting apparatus can be resumed.
  • the viewpoint of the third person image 1020 is set on the back side of the streaming frame 1021, the display of the streaming frame 1021 may be continued as a frame only.
  • the setting of the viewpoint in the third person image 1020 may be limited to exclude the range where the normal display of the streaming frame 1021 is not performed as described above.
  • a real-time image is not provided.
  • a wire frame or the like is schematically displayed as in the illustrated example. sell.
  • the wire frame shown in the figure shows a square room, but this does not necessarily mean that the real space is such a room.
  • the streaming frame 1024 provided in the past may be displayed by being pasted on the streaming frame 1021 using, for example, a result of stitching analysis.
  • a peripheral area image similar to a 1.3 person image described later may be displayed around the streaming frame 1021.
  • the third-person image 1020 may display a first-person image viewpoint object 1022 and a 1.3-person image viewpoint object 1023.
  • the viewpoint object 1022 of the first person image indicates the viewpoint of the first person image, that is, the streaming frame 1021.
  • a 1.3 person image viewpoint object 1023 indicates a viewpoint that is virtually set when a 1.3 person image described later is generated. The positions of these viewpoints can be specified based on the spatial information.
  • the viewpoint may be automatically changed based on an object recognized in the real space so that the object is facing and / or enlarged.
  • the display range of the third person image 1020 may not be affected by the change in the display range of the streaming frame 1021 due to the movement of the camera 260 of the wearable terminal 200, for example.
  • the display area and display content of the streaming frame 1021 change, and the viewpoint object 1022 of the first person image can move, but the display range of the third person image 1020 can be maintained.
  • the viewpoint object 1023 of the 1.3 person image can also move as the camera 260 moves.
  • the display range of the third person image 1020 can be changed, for example, when an instruction to change the viewpoint is acquired from a user viewing the third person image 1020 on the tablet terminal 300.
  • the third person image 1020 does not necessarily have to be generated based only on a real space image acquired by a single transmission device, for example, the camera 260 of the wearable terminal 200.
  • the third person image 1020 is generated by, for example, further combining real space images acquired by other devices (for example, the fixed camera 600) existing in the same real space (for example, the same room) as the wearable terminal 200. May be.
  • the fixed camera 600 also provides the server 100 with the spatial information added to the real space image data.
  • the server 100 can generate a third person image 1020 that combines image data of a plurality of real spaces based on the spatial information provided from each device.
  • a plurality of streaming frames 1021 may be displayed.
  • FIG. 10A is a diagram illustrating a display example of a 1.3 person image according to an embodiment of the present disclosure.
  • FIG. 10A shows a 1.3 person image 1030.
  • the person image 1030 is an image obtained by virtually capturing the real space from the viewpoint on the back side of the camera 260 based on the image captured by the camera 260 of the wearable terminal 200.
  • the viewpoint of the first person image 1030 can be set separately from the viewpoint of the first person image 1010, but is not set freely like the viewpoint of the third person image 1020.
  • “1.3 person image” is used as a term that means an image having an intermediate property between an image and a third person image.
  • the relationship between the viewpoint of the first person image 1030 and the viewpoint of the first person image 1010 is the relationship between the viewpoint object 1022 and the viewpoint object 1023 displayed in the third person image 1020 shown in FIGS. 7 and 8, for example. It can be easily understood by referring.
  • the streaming frame 1031 can be, for example, the same image as the first person image 1010 described above.
  • the viewpoint of the 1.3 person image 1030 is set on the back side of the camera 260, the position of the streaming frame 1031 is typically near the center of the 1.3 person image 1030, and the shape of the streaming frame 1031 is Is typically rectangular.
  • the display range of the 1.3 person image 1030 can also change following the streaming frame 1031.
  • the processor of the server 100 may process the displacement of the camera 260 calculated based on the spatial information using a noise filter or a low-pass filter, and then reflect the displacement in the viewpoint of the first person image 1030. Good. Accordingly, for example, even when the streaming frame 1031 is shaken due to a fine movement of the camera 260, the shake of the first person image 1030 can be suppressed.
  • the display range of the first person image 1030 can be smoothly followed to determine what kind of viewpoint It can be made easier for a user viewing the 1.3 person image 1030 to recognize whether a change has occurred.
  • the streaming frame 1031 is temporarily displayed at a position other than the center of the 1.3 person image 1030. Or 1.3 may not be displayed on the person image 1030.
  • the peripheral area image 1032 can be displayed around the streaming frame 1031.
  • the peripheral area image 1032 is pasted around the streaming frame 1031 using the result of stitching analysis or the like, as in the example shown with reference to FIG. 9 for the third person image 1020. Can be generated.
  • a feature point detected by the SLAM method or the like, a spatial model around the streaming frame 1031 generated using dense mapping three-dimensional data, or the like may be displayed as the peripheral region image 1032.
  • an image extracted from a past streaming frame may be pasted as a texture on a surface included in the space model.
  • the actual space may be displayed because there are few images accumulated as the past streaming frame 1031, or time has passed since the streaming frame 1031 was out of the display range. The situation may have changed, or the accuracy of the spatial model may be low. In such a case, the peripheral area image 1032 may not be displayed partially or may be partially blurred as shown in the figure.
  • FIG. 10B and FIG. 10C are diagrams for explaining a 1.3 person image in an embodiment of the present disclosure.
  • the above-described 1.3 person image will be further described from another viewpoint.
  • the viewpoint CP2 of the first person image is a position where the viewpoint CP1 of the first person image is virtually moved backward in the coordinate system of the real space acquired by the SLAM method, for example.
  • the processor of the server 100 sets a predetermined upper limit value for the moving speed when the viewpoint CP2 follows the viewpoint CP1 (hereinafter also referred to as the following speed of the viewpoint CP2), or sets the moving speed of the viewpoint CP1 to one.
  • the viewpoint CP2 can be smoothly tracked even when the viewpoint CP1 moves suddenly. This makes it possible for the user viewing the 1.3 person image to easily recognize what kind of change has occurred in the viewpoint.
  • the frame FRM acquired by the viewpoint CP1 that is, the latest frame of the first person image is out of the range of the 1.3 person image
  • the context of the space displayed in the 1.3 person image may be retained. It becomes difficult. Therefore, for example, even when the follow-up speed of the viewpoint CP2 is suppressed by setting the upper limit value and the gain as described above, the moving speed of the viewpoint CP1 is high, so that the frame FRM exceeds a predetermined ratio. Is outside the 1.3 person image range, for example, the upper limit value and the gain value are increased to increase the follow-up speed of the viewpoint CP2, and the frame FRM is kept within the 1.3 person image range. Control may be added.
  • FIG. 10C shows an example of an image displayed when the above control is performed, for example.
  • A a first person image 1010 is displayed.
  • B the display of the first person image 1030 is started by virtually moving the viewpoint of the first person image 1010 backward.
  • nothing is displayed in the portion other than the frame FRM of the 1.3 person image 1030.
  • the viewpoint CP1 moves with the 1.3 person image 1030 displayed, and the viewpoint CP2 of the 1.3 person image also moves following the viewpoint CP1.
  • the movement of the display range of the third person image 1030 is slightly delayed with respect to the movement of the frame FRM. Accordingly, the frame FRM is located slightly off the center of the 1.3 person image 1030.
  • an object is displayed in a portion other than the latest frame FRM by using an image of the past frame FRM displayed in B or the like.
  • the processor of the server 100 operates the 1.3 person image 1030 such as the tablet terminal 300 (for example, When an operation to the 1.3 person image 1030 via the touch panel or the like is acquired in an apparatus that obtains an annotation input), the movement of the viewpoint CP2 is suppressed to suppress the movement of the 1.3 person image 1030.
  • the display range may be fixed. Thereby, for example, the user can easily perform an operation on a specific position displayed on the first person image 1030.
  • the processor of the server 100 displays the first person image 1010 when the viewpoint position of the camera is not recognized (being searched).
  • the processor may switch the displayed image to the 1.3 person image 1030.
  • the image displayed by the processor may be returned to the first person image 1010. Note that the transition from the first person image 1010 to the first person image 1030 and the transition from the first person image 1030 to the first person image 1010 in this example may both be displayed with animation.
  • the receiving device in the receiving device (tablet terminal 300 in the above example), the range captured by the imaging unit of the transmitting device (wearable terminal 200 in the above example) is captured. It is possible to provide an image that displays the real space beyond. As a result, the user of the receiving device can share the real space image from a free viewpoint regardless of the viewpoint of the user of the transmitting device.
  • the out-of-body viewpoint image is a virtual camera in which a user viewing an image controls a virtual space in which a past frame (first person image frame) and a real-time frame (latest frame FRM) are arranged. produced by rendering the image from the viewpoint M v. Rendering frames placed in space, each with a transparency determined based on the pose difference between the virtual camera pose and the placed frame to reduce visual inconsistencies due to stitching errors Frame is displayed.
  • Mv is maintained for a predetermined time, while past frames gradually disappear, and only real-time frames are drawn and updated.
  • the space recognition is restored within a predetermined time, the drawing of the past frame is restored.
  • the space recognition is initialized and the construction of the out-of-body viewpoint is started again.
  • three modes are roughly set for the out-of-body viewpoint image.
  • the three modes are referred to as a follow-up mode, a viewpoint movement mode, and a pointing mode, but these names are for convenience.
  • the processor of the server 100 controls switching of these modes and the like by an operation of a user who browses images.
  • the follow-up mode illustrated in FIG. 10D is a mode that is set when a user U who browses an image (hereinafter also referred to as a browsing user) is browsing an out-of-body viewpoint image without performing a special operation.
  • a follow-up mode image 1030d is displayed. For example, each of the translation component T bc (t) and the rotation component R bc (t) obtained from the posture / position M bc (t) of the camera 260 of the wearable terminal 200 (transmission-side device) estimated by the SLAM method or the like.
  • the position and orientation M v (t) of the virtual camera are determined so that a wider range can be seen from the camera orientation M ′ bc (t) smoothed in time series. Is controlled so as to approach the position moved virtually backward by the offset amount T offset at each time.
  • the coefficient kv is set to control how much the camera 260 follows the viewpoint.
  • the coefficient kv is set to a smaller value (the virtual camera provides a localized image in space without moving much), and the real-time frame (FRM) is set to the coefficient k v Gayori large value when not within the range of the image (virtual camera to track the real-time frame).
  • the control using such a coefficient kv is expressed as the following Expression 2, for example.
  • the browsing user can simultaneously view a real-time frame and a past frame in a state where the movement is smoothed based on the movement of the camera 260 and is spatially localized and stitched. . Accordingly, the browsing user can look around the space wider than the camera 260 (the user wearing the camera) and can recognize the position of the camera 260 (the user wearing the camera) in the current visual field space. In the follow-up mode, the relationship between the respective fields of view is automatically updated without user intervention, so that for example, it is not necessary for both the viewing user and the user wearing the camera 260 to perform field-of-view setting control.
  • Viewpoint movement mode In the viewpoint movement mode shown in FIG. 10E, for example, a user U (hereinafter also referred to as a viewing user) who browses an image executes a pointing operation away from a display by a predetermined distance or more (in the illustrated example, the pointing operation is performed by a gesture). Is executed, but it may be a pointing operation using a pointing device or the like).
  • the viewpoint moving mode, image 1030e moving the position M v of the virtual camera may be displayed.
  • the user U performs a pointing operation on the image 1030d in the follow-up mode at a position separated from the display by a predetermined distance or more.
  • the processor of the server 100 performs hit determination between the position in the image specified by the pointing operation and each frame displayed in the follow-up mode, and the user U is pointing based on the result.
  • a focus frame FRM ′ is specified.
  • the processor sets a new position M ′ v of the virtual camera at a position virtually moved backward from the position M ′ f of the feeble frame FRM ′ by a predetermined offset amount T (d) offset .
  • T (d) offset a predetermined offset amount
  • the position of the virtual camera can be controlled independently of the direction of the latest camera 260.
  • the above-described offset T (d) offset may be set to a larger value than the offset T offset in the follow-up mode. In this case, in the viewpoint movement mode, it is possible to observe the surroundings with a wider field of view than in the follow-up mode.
  • a user U who browses an image (hereinafter also referred to as a viewing user) executes a pointing operation within a predetermined distance from the display (in the illustrated example, the pointing operation is executed by a gesture). However, it may be a pointing operation using a pointing device or the like).
  • the position M ′ v of the virtual camera can be determined by the same algorithm as in the viewpoint movement mode.
  • the position M ′ v of the virtual camera may be set to a position where the focus frame FRM ′ can be further viewed. Thereby, the browsing user can observe the focus frame FRM ′ in more detail. Result of setting of the position M 'v of such a virtual camera, an image 1030f is provided for reading user.
  • the processor of the server 100 determines the position (two-dimensional pointing coordinates) in the image specified by the pointing operation and the feature point groups P 0 , P 1 ,. Compared with the two-dimensional coordinates of N , three feature points P ′ 0 , P ′ 1 , and P ′ 2 located closest to the pointing coordinates are extracted from the feature point group.
  • the processor assumes that the three-dimensional pointing coordinate in the space is a point on the plane including the above three points (P ′ 0 , P ′ 1 , P ′ 2 ), and for example, the pointing coordinate P ′ by Equation 3 below. (X, y, z) is calculated.
  • points on the plane including the above three points can be obtained.
  • the above processing executed by the processor of the server 100 allows the viewing user to perform pointing to a three-dimensional point in the spatial coordinates recognized from the frame, instead of pointing to the pixel of the frame. .
  • switching between the viewpoint movement mode and the pointing mode is executed according to the distance from the display of the user U.
  • this distance is determined from the display to the user when the display is relatively large, for example. It may be the distance to the standing position of U.
  • the distance used for switching between the viewpoint movement mode and the pointing mode is the hand (finger) of the user U who is performing the gesture. ) Or a distance to the pointing device held by the user U.
  • the viewpoint movement mode is selected. Thereafter, when the distance from the display to the hand is equal to or less than the threshold value, the viewpoint movement mode may be switched to the pointing mode as described above.
  • annotation example 2 Furthermore, as already described, in the present embodiment, it is possible to use a technique for exchanging annotations based on the position of the real space. If this technology is used, the user of the tablet terminal 300 (reception-side device) inputs annotations to areas other than the streaming frames 1021 and 1031 displayed in the third person image 1020 and the 1.3 person image 1030. can do. Accordingly, for example, it is possible to add an annotation to an object or a position in the real space that the wearable terminal 200 (transmission-side device) has seen in the past but is not currently viewing. This annotation may be displayed, for example, when the streaming frames 1021 and 1031 are moved later, and a notification indicating that the annotation exists outside the image 1200 in the wearable terminal 200 as in an example described later. May be displayed.
  • FIG. 11 and FIG. 12 are diagrams illustrating an example in which images of different viewpoints are displayed simultaneously in an embodiment of the present disclosure.
  • the third person image 1020 and the first person image 1010 are displayed at the same time.
  • the viewpoint object 1022 of the first person image may be highlighted.
  • the first person image 1010 is displayed as a child screen of the screen of the third person image 1020.
  • the third person image 1020 may be displayed as a child screen of the screen of the first person image 1010. .
  • the third person image 1020 and the 1.3 person image 1030 are displayed at the same time.
  • the viewpoint object 1023 of the 1.3 person image may be highlighted.
  • the 1.3 person image 1030 is displayed as a child screen of the screen of the third person image 1020, but conversely, the third person image 1020 is displayed as a child screen of the screen of the 1.3 person image 1030. May be.
  • spatial information is added to real space image data transmitted by the transmission-side apparatus.
  • the spatial information is information indicating, for example, the position and orientation in the real space of the imaging unit of the transmitting device.
  • FIG. 13 is a diagram illustrating a first example of annotation display according to an embodiment of the present disclosure.
  • FIG. 13 shows a tablet terminal 300c and a tablet terminal 300d.
  • the tablet terminal 300c captures an image of real space with a camera (imaging unit) (not illustrated), and causes the display 330c (display unit) to display the image as an image 1300c.
  • the user of the tablet terminal 300c inputs an annotation 1310c for the image 1300c using a touch sensor 340 (operation unit) provided on the display 330c.
  • a touch sensor 340 operation unit
  • the position in the real space can be specified based on the spatial information acquired together with the captured image by the tablet terminal 300c.
  • the relative position based on the imaging unit of the tablet terminal 300c, or the feature in the space can be expressed as a position based on a point or the like.
  • the tablet terminal 300d also captures an image of real space with a camera (imaging unit) (not shown) and displays it as an image 1300d on the display 330d (display unit).
  • a camera imaging unit
  • the tablet terminal 300c ′ is reflected in the image 1300d.
  • the information of the annotation 1310c for the image 1300c input in the tablet terminal 300c is transmitted to the tablet terminal 300d via the server 100 or by inter-device communication, and is displayed as the annotation 1310d in the image 1300d.
  • the annotation 1310d is displayed at a position in the real space designated on the tablet terminal 300c. This is expressed by the annotation 1310d being displayed in the air away from the tablet terminal 300c 'in the image 1300d.
  • the tablet terminal 300d can also acquire spatial information together with the captured image, and the position of the tablet terminal 300c in the space, the position of the feature point in the space, or the like can be specified by the acquired spatial information. Therefore, the tablet terminal 300d can specify the position of the annotation 1310d in the space based on the information indicating the position in the real space acquired from the tablet terminal 300c and the spatial information acquired by the tablet terminal 300d, for example.
  • the tablet terminal 300c functions as the devices (1) and (2), and the tablet terminal 300d serves as the device (3). It is functioning.
  • the information of the annotation 1310c input in the tablet terminal 300c may be transmitted to the tablet terminal 300d by inter-device communication.
  • the above example shows a modification of the system 10 in which each device communicates without going through a server, and image processing using spatial information is executed in any device.
  • FIG. 14 is a diagram illustrating a second example of annotation display according to an embodiment of the present disclosure.
  • FIG. 14 shows a tablet terminal 300 and a screen (SCREEN) on which an image is projected by a projector 700 (not shown).
  • the tablet terminal 300 captures an image of real space with a camera (imaging unit) (not illustrated), and displays the image as an image 1300 on the display 330 (display unit).
  • the screen (SCREEN ') is shown in the image 1300.
  • the user of the tablet terminal 300 inputs the annotation 1310 for the image 1300 using the touch sensor 340 (operation unit) provided on the display 330.
  • the annotation 1310 is a graffiti drawn on the screen (SCREEN ').
  • the annotation 1310 is associated with a position on the screen (SCREEN) in the real space based on, for example, spatial information that the tablet terminal 300 acquires together with the captured image.
  • Information on the annotation 1310 input in the tablet terminal 300 is transmitted to the projector 700 via the server 100 or by inter-device communication together with real space position information (indicating the position of the screen).
  • the projector 700 does not acquire a captured image, but acquires spatial information in the same manner as the tablet terminal 300, and recognizes the position of the screen (SCREEN) in real space. Therefore, the projector 700 can project the same annotation 1710 (graffiti) input as the annotation 1310 on the tablet terminal 300 onto the screen (SCREEN). In this case, it can be said that the projector 700 directly displays the annotation input to the image 1300 (virtual space) displayed on the display 330 with the tablet terminal 300 in the real space. .
  • FIG. 15 is a diagram illustrating a third example of annotation display according to an embodiment of the present disclosure.
  • FIG. 15 shows a tablet terminal 300 and a laptop PC 500.
  • the tablet terminal 300 captures an image of real space with a camera (imaging unit) (not illustrated), and displays the image as an image 1300 on the display 330 (display unit).
  • the display 1530 since the angle of view of the camera of the tablet terminal 300 includes the display 530 (display unit) of the laptop PC 500, the display 1530 'is shown in the image 1300.
  • the user of the tablet terminal 300 inputs the annotation 1310 for the image 1300 using the touch sensor 340 (operation unit) provided on the display 330.
  • the annotation 1310 is a circle surrounding one of the thumbnail images of the content displayed on the display 530 '.
  • the annotation 1310 is associated with the position of the display 530 in the real space based on, for example, spatial information that the tablet terminal 300 acquires together with the captured image.
  • the information of the annotation 1310 input in the tablet terminal 300 is transmitted to the laptop PC 500 via the server 100 or by inter-device communication together with the position information of the real space (indicating the position of the display 530).
  • the laptop PC 500 does not acquire a captured image, but acquires spatial information in the same manner as the tablet terminal 300, and recognizes the position of the display 530 in real space. Accordingly, the laptop PC 500 causes the display 530 to display the same annotation 1510 (a circle surrounding one of the thumbnail images) that is input as the annotation 1310 in correspondence with the annotation 1310 input in the tablet terminal 300. Can do. In this case, the laptop PC 500 displays the annotation input to the image 1300 (virtual space) displayed on the display 330 with the tablet terminal 300 on the display 530 that constitutes a part of the real space. It can be said that it is displayed directly in the space.
  • FIG. 16 is a diagram illustrating a fourth example of annotation display according to an embodiment of the present disclosure.
  • FIG. 16 shows a wearable terminal 200, a tablet terminal 300, and a projector 700.
  • the wearable terminal 200 captures an image of real space with the camera 260 (imaging unit) and acquires spatial information, and transmits the captured image data to the tablet terminal 300 via the server 100 together with the spatial information.
  • the tablet terminal 300 may exist in a place different from the wearable terminal 200 and the projector 700, for example.
  • the tablet terminal 300 displays the received image as an image 1300 on the display 330 (display unit).
  • the image 1300 includes a table in the same space as the wearable terminal 200, and a cup, a plate, and a key (KEY ') on the table.
  • a user of the tablet terminal 300 inputs an annotation 1310 for the image 1300 using a touch sensor 340 (operation unit) provided on the display 330.
  • the annotation 1310 includes a circle surrounding the key (KEY ′) and a message “Please bring this”.
  • the annotation 1310 is associated with the position of the key (KEY) in the real space based on the spatial information received together with the image from the wearable terminal 200.
  • Information on the annotation 1310 input in the tablet terminal 300 is transmitted to the projector 700 via the server 100 together with real space position information (for example, indicating the position of the key (KEY)).
  • the projector 700 does not acquire a captured image, but acquires spatial information in the same manner as the wearable terminal 200, and recognizes the position of the surface on which the image is projected (for example, the surface of the table in the illustrated example) in real space. ing. Therefore, the projector 700 can project the annotation 1710 (circle and message) similar to that input as the annotation 1310 in the tablet terminal 300 around the key (KEY) on the table. Accordingly, the user of wearable terminal 200 can directly view annotation 1710 projected on the surface of the table. Therefore, in this case, wearable terminal 200 may not have a display unit such as a display.
  • the annotation input in the tablet terminal 300 is obtained by using the real space position information specified based on the spatial information added to the real space image captured by the wearable terminal 200 as a reference.
  • the projector 700 which is a device different from the device that captured the image, can be displayed in real space.
  • the wearable terminal 200 does not necessarily have a display unit such as a display, and the degree of freedom of the device configuration when practicing the interaction between users using the AR technology can be improved.
  • FIG. 17 is a diagram illustrating a fifth example of annotation display according to an embodiment of the present disclosure.
  • FIG. 17 shows a fixed camera 600, a tablet terminal 300, and a projector 700.
  • the projector 700 can be a handheld type, unlike the fixed type shown in the above examples.
  • the fixed camera 600 captures an image of real space by the camera 660 (imaging unit) and acquires spatial information, and transmits the captured image data to the tablet terminal 300 via the server 100 together with the spatial information.
  • the tablet terminal 300 may exist in a place different from the fixed camera 600 and the projector 700, for example.
  • the spatial information in the fixed camera 600 may be acquired by a method different from the case of the wearable terminal 200 or the like described above.
  • the spatial information in the fixed camera 600 may be fixed information set by measuring the surrounding environment at the time of installation or the like.
  • the fixed camera 600 does not need to have a sensor or the like for acquiring spatial information other than having the spatial information stored in the memory. Such acquisition of spatial information is also possible in other fixed devices.
  • the tablet terminal 300 displays the received image as an image 1300 on the display 330 (display unit).
  • the image 1300 includes a table under the fixed camera 600 and a key (KEY ') on the table.
  • a user of the tablet terminal 300 inputs an annotation 1310 for the image 1300 using a touch sensor 340 (operation unit) provided on the display 330.
  • the annotation 1310 includes a circle surrounding the key (KEY ').
  • the annotation 1310 is associated with the position of the key (KEY) in the real space based on the spatial information received together with the image from the fixed camera 600.
  • Information on the annotation 1310 input in the tablet terminal 300 is transmitted to the projector 700 via the server 100 together with real space position information (for example, indicating the position of the key (KEY)).
  • the projector 700 does not acquire a captured image (but may acquire), but has acquired spatial information, and recognizes a position in a real space of a surface (for example, the surface of a table in the illustrated example) on which the image is projected. ing. Therefore, the projector 700 can project the annotation 1710 (circle) similar to that input as the annotation 1310 in the tablet terminal 1310 around the key (KEY) on the table.
  • the projector 700 is a handheld type and can be easily moved by being carried by the user. Therefore, the method of acquiring spatial information in the projector 700 can be the same as that of a portable terminal such as the wearable terminal 200, for example.
  • the annotation input in the tablet terminal 300 is based on the positional information of the real space specified based on the spatial information added to the real space image captured by the fixed camera 600.
  • the image is directly displayed in real space by the projector 700, which is a device different from the device that captured the image.
  • the projector 700 is a handheld type, and can be carried by a user to project an image at an arbitrary position in the real space. Therefore, for example, the user uses the projector 700 to project an image on various places in the real space as if searching for the darkness using a flashlight. It is possible to search for the object or position indicated by the annotation. In this case, the user does not need to wear a device such as the wearable terminal 200, and can more freely practice the interaction between users using the AR technology.
  • FIG. 18 is a diagram illustrating a sixth example of annotation display according to an embodiment of the present disclosure.
  • the example of FIG. 18 can be said to be a modification of the example described above with reference to FIG.
  • a wearable terminal 200 and a tablet terminal 300 are shown.
  • the wearable terminal 200 captures an image of real space with a camera 260 (imaging unit) and acquires spatial information, and the data of the captured image together with the spatial information via the server 100 and the wearable terminal 200 and The data is transmitted to a device in a different location from the tablet terminal 300.
  • the transmission destination device is not shown.
  • the tablet terminal 300 receives the annotation information input in the transmission destination device from the server 100.
  • the tablet terminal 300 is placed on a table in the same space as the wearable terminal 200.
  • the tablet terminal 300 has not acquired a captured image (the imaging unit itself may have), but has acquired spatial information in the same manner as the wearable terminal 200, and recognizes the position of the display 330 in real space. ing.
  • the display 330 of the tablet terminal 300 placed on the table displays an arrow 1310 that points to the adjacent key (KEY). This arrow may be a display corresponding to the annotation input to the key displayed on the image in the destination device.
  • FIG. 19 is a diagram for describing the arrangement of annotations according to an embodiment of the present disclosure.
  • the wearable terminal 200 illustrated in FIG. 19 transmits the real space image captured by the camera 260 (imaging unit) to the server 100 together with the spatial information. Further, the wearable terminal 200 receives the annotation information input by another device with respect to the transmitted image together with the position information of the real space, and transmits the display 230 (display unit) based on the received information.
  • An annotation 1210 is displayed so as to be superimposed on the image of the real space that is visually recognized. Note that the annotation 1210 is shown at a position recognized by the user of the wearable terminal 200 as a result of being virtually displayed superimposed on the image of the real space. That is, the annotation 1210 as shown is not visible to users other than the wearable terminal 200 user.
  • the annotation 1210 is displayed by pointing to a key (KEY) on the table, and two examples are shown in the figure.
  • the two examples here are the annotation 1210a arranged in space and the annotation 1210b arranged in object.
  • the annotation 1210a is displayed in the air above the key (KEY).
  • KY key
  • Such a spatial arrangement of annotations is easy to attract the attention of a user who visually recognizes an image, and is suitable, for example, when it is desired to specify a direction using annotations.
  • the position where the camera was placed at the time of taking a photograph is often in the air (because the camera is usually held by a user or installed on a tripod, etc. ).
  • the spatial arrangement of annotations can be useful.
  • the spatial arrangement of the annotations described above may be possible, for example, when the annotations are displayed as images on a display, and the annotations are projected and displayed by a projector as in the examples of FIGS. 16 and 17, for example.
  • the projector is a 3D projector, it is possible.
  • the annotation 1210b is displayed in the vicinity of the key (KEY) on the table where the key (KEY) is placed.
  • Such an annotation object arrangement is suitable when, for example, it is desired to indicate an object by annotation because the relationship with the object to be annotated is easily recognized.
  • feature points detected by the SLAM method, dense mapping three-dimensional data, or the like can be used to specify a target object.
  • a target object may be specified from those objects.
  • the annotation spatial arrangement and object arrangement as described above are selected by some method.
  • the processor of the tablet terminal 300 or the server 100 may automatically initialize the spatial arrangement or the object arrangement according to the type of annotation that the user is going to input.
  • the spatial arrangement can be automatically selected in the case of the direction instruction and the photographing angle display, and the object arrangement can be automatically selected in the case of the object instruction.
  • the arrangement of annotations may be selectable by a user operation on the operation unit of the apparatus.
  • an annotation 1310 is input to the image 1300 displayed on the display 330 of the tablet terminal 300 using the touch sensor 340, the object is arranged with the spatially arranged annotation 1310 a.
  • An annotation 1310b may be displayed, and a GUI (Graphical User Interface) may be provided for the user to select one by a touch operation.
  • GUI Graphic User Interface
  • the annotation 1310a arranged in space makes it easy to identify that it is arranged in the air by displaying a shadow using the upper part of the real space reflected in the image 1300 as a light source. May be.
  • a perpendicular line from the spatially arranged annotation 1310 to the surface of the object below it may be displayed.
  • a grid may be displayed in the depth direction of the image 1300.
  • pinch-in / out using the touch sensor 340 or a forward / backward movement button provided separately may be used.
  • the movement of the sensor of the tablet terminal 300 may be detected by moving the tablet terminal 300 itself forward / backward when viewed from the user, and the processor may reflect the movement on the position of the annotation 1310 in the depth direction.
  • the image is captured by the camera 260 (imaging unit) rather than the display range of the image 1200 displayed on the display 230 (display unit) by the wearable terminal 200 (transmission side device).
  • the display range of the image 1300 displayed on the tablet terminal 300 (receiving device) is wider.
  • the tablet terminal 300 can input the annotations 1310 and 1320 even for positions in the real space that are not included in the display range of the image 1200 displayed on the wearable terminal 200 at the present time.
  • the input annotation is stored in the tablet terminal 300, the server 100, or the wearable terminal 200 in association with the position information in the real space defined based on the spatial information acquired by the wearable terminal 200, and later the camera together with the wearable terminal 200
  • the image 1200 can be displayed as annotations 1210 and 1220.
  • an image in a range exceeding the first person image 1010 visually recognized by the transmission side device is displayed as the third person image 1020 or 1.3 person image 1030.
  • a user who browses these images on the receiving apparatus can input annotations to the real space that is outside the display range of the first person image 1010.
  • the input annotation is retained in association with the position information in the real space defined based on the spatial information acquired by the transmission side device, and the display range of the first person image 1010 is moved later. It can be displayed when the position is included.
  • the wearable terminal 200 As an example, if the user of the transmitting device (hereinafter referred to as the wearable terminal 200 as an example) does not know the presence of the annotation, the annotation has not been included in the display range of the image 1200 and time has elapsed. There is a possibility.
  • a user of a receiving device hereinafter referred to as a tablet terminal 300 as an example
  • the presence of the annotation is preferably notified to the user of wearable terminal 200.
  • information related to annotations outside the viewable range can be displayed.
  • the display of such information is also a kind of annotation, but in the following description, what is input by the user of the receiving apparatus may be particularly referred to as an annotation to be distinguished.
  • the display control for these displays may be executed by, for example, a processor of a device (for example, the wearable terminal 200 or the tablet terminal 300) that displays an annotation, or recognizes a viewable range outside these devices. It may be executed by the processor of the server 100. Note that the following example can be applied uniformly when there is a possibility that an annotation is input outside the viewable range of the real space image, for example, independently of the various examples described above.
  • FIG. 21 to FIG. 23 are diagrams illustrating a first example of displaying an annotation that is outside the visible range according to an embodiment of the present disclosure.
  • FIG. 21 shows a display example when the annotation is in the image 1200 (viewable range).
  • the annotation is displayed for a cup (CUP) placed on the table, and includes a pointer 1210 and a comment 1220.
  • CUP cup
  • FIG. 22 shows a display example when the cup (CUP) to be an annotation is outside the image 1200.
  • a direction display 1230 indicating the direction in which the annotation target exists may be displayed.
  • the direction display 1230 can be displayed, for example, by specifying the positional relationship between the display range of the image 1200 and the annotation target based on the spatial information acquired by the wearable terminal 200.
  • the comment 1220 in the annotation may be displayed together with the direction display 1230. Since the comment 1220 is information indicating the content or type of the annotation, the comment 1220 is useful even if displayed with the direction display 1230 instead of the pointer 1210.
  • FIG. 23 shows that the display range of the image 1200 is moved by the user of the wearable terminal 200 changing the direction of the camera 260 in accordance with the direction display 1230, and a part of the cup (CUP) that is the annotation target is the image 1200.
  • CUP part of the cup
  • An example of the display when it comes to be included in is shown. In this case, even if the entire object is not included in the image 1200, a part of the pointer 1210 and the comment 1220 may be displayed as annotations.
  • FIG. 24 and FIG. 25 are diagrams illustrating a second example of displaying annotations that are outside the visible range according to an embodiment of the present disclosure.
  • the distance to the annotation target is displayed.
  • FIG. 24 is a diagram illustrating an example of display for two images having different distances from the visible range to the annotation target.
  • a circle 1240 indicates that an annotation exists outside the visible range.
  • the circle 1240 is displayed with a radius corresponding to the distance from the annotation target to the visible range.
  • FIG. 25A when the distance from the annotation of the subject to visual range (image 1200a) is large, circular 1240a of larger radius r 1 is displayed.
  • FIG. 25B when the distance from the annotation of the subject to visual range (image 1200 b) is small, a circle 1240b of smaller radius r 2 is displayed.
  • the radius r of the circle 1240 may be set continuously according to the distance to the annotation target, or may be set in stages.
  • a comment 1220 in the annotation may be displayed together with a circle 1240.
  • the user viewing the image 1200 can move not only that the annotation is outside the viewable range but also how much the display range of the image 1200 is moved in which direction. For example, it can be intuitively understood whether the annotation can be visually recognized.
  • FIG. 26 and FIG. 27 are diagrams illustrating a third example of displaying an annotation that is outside the visible range according to an embodiment of the present disclosure.
  • FIG. 26 shows a display example when the apple (APPLE) that is the subject of the annotation is outside the image 1200.
  • the target icon 1251 can be displayed together with the direction display 1250 similar to the example of FIG.
  • the icon 1251 is obtained by cutting out the apple APPLE portion from the image captured by the camera 260 by the processor of the server 100 or the wearable terminal 200. Can be generated.
  • the icon 1251 does not need to change according to the change of the frame image acquired by the camera 260, and may be a still image, for example.
  • an illustration or a photograph representing the apple may be displayed as the icon 1251 regardless of the image captured by the camera 260.
  • the comment 1220 in the annotation may be displayed together with the direction display 1250 and the icon 1251.
  • the display range of the image 1200 is moved by the user of the wearable terminal 200 changing the direction of the camera 260 in accordance with the direction display 1230, and a part of the apple (APPLE) to be annotated is displayed in the image 1200.
  • APPLE apple
  • An example of display when it comes to be included in is shown.
  • the display of the direction display 1250 and the icon 1251 is terminated, and a part of the pointer 1210 and the comment 1220 may be displayed as annotations as in the example of FIG.
  • the user who is viewing the image 1200 can grasp not only that the annotation exists outside the viewable range but also what the annotation target is, It can make it easier to decide whether to watch now or later.
  • FIG. 28 is a diagram illustrating a fourth example of displaying an annotation outside the viewable range according to an embodiment of the present disclosure.
  • the end portion 1260 of the image 1200 closer to the apple shines.
  • the image 1200a since the apple is in the lower right direction of the screen, the lower right end portion 1260a shines.
  • the upper left end portion 1260b shines.
  • the image 1200c since the apple is in the lower left direction of the screen, the lower left end portion 1260c shines.
  • the region of the end portion 1260 can be set based on the direction in which the annotation target exists as viewed from the image 1200.
  • the example in the oblique direction is shown in the figure, in another example, when the apple is in the left direction of the image 1200, the left end portion 1260 may shine. In this case, the end portion 1260 may be the entire left side of the image 1200.
  • the ratio between the vertical portion and the horizontal portion of the end portion 1260 sandwiching the corner is the direction in which the annotation target exists. It may be set according to the angle.
  • the horizontal portion (along the upper side of the image 1200) can be longer than the vertical portion (along the left side of the image 1200) of the end portion 1260.
  • the vertical portion (along the left side of the image 1200) may be longer than the horizontal portion (along the upper side of the image 1200) of the end portion 1260.
  • the end portion 1260 may be colored with a predetermined color (which may be a transmission color) instead of being illuminated.
  • FIG. 29 is a diagram illustrating a fifth example of displaying an annotation outside the visible range according to an embodiment of the present disclosure.
  • a comment 1220 is displayed as an annotation.
  • the comment 1220 since the comment 1220 is horizontally long, it cannot be displayed in the image 1200.
  • a non-display portion 1221 caused thereby is also shown.
  • the non-display portion 1221 of the comment 1220 is also an annotation outside the visible range.
  • a light emitting region 1280 is displayed at a portion where the comment 1220 is in contact with the end portion of the image 1200.
  • the length of the light emitting region 1280 may be expressed by the length of the non-display portion 1221 (for example, the number of pixels in the length direction, the ratio of the comment 1220 to the display portion, and other non-display portions 1221). May be expressed in accordance with the ratio of
  • the light emitting region 1280a is displayed for the non-display portion 1221a of the comment 1220a
  • the light emitting region 1280b is displayed for the non-display portion 1221b of the comment 1220b, but the non-display portion 1221b is more than the non-display portion 1221a. Reflecting that is longer, the light emitting area 1280b may be displayed longer than the light emitting area 1280a.
  • the display of the light emitting area 1280 when the display of the light emitting area 1280 notifies that the annotation exists outside the visible range, the display can be completed inside the comment 1220 that is the annotation, and thus the display of the image 1200 is obstructed. It is possible to notify the presence of annotations.
  • the length of the light emitting region 1280 is set according to the length of the non-display portion 1221, the user can intuitively understand how long the comment 1220 is as a whole, so that the user can see immediately. It is easy to decide what to do later.
  • the display range of the image 1200 may be moved, or the comment 1220 may be moved to the inside of the image 1200 (the comment in the illustrated example). It may be dragged to the left side for 1220a and to the right side for comment 1220b.
  • FIG. 30 is a diagram illustrating a sixth example of displaying an annotation outside the visible range according to an embodiment of the present disclosure.
  • an arrow annotation 1210 indicating a direction is displayed in the road guide.
  • This annotation 1210 is visible when the user is viewing the image 1200b, for example, but is not visible when the user is viewing the image 1200a. Therefore, when the user is viewing the image 1200a, a shadow 1290 of the annotation 1210 can be displayed. By displaying the shadow 1290, the user viewing the image 1200a can recognize that the annotation exists outside the upper part of the screen.
  • the display of the shadow 1290 may be terminated or may be continued.
  • the shadow 1290 is continuously displayed together with the annotation 1210, the user can easily recognize the position of the annotation 1210 arranged in the air in the depth direction by displaying the shadow 1290.
  • the presence of the annotation can be notified to the user by a display without a sense of incongruity, although there is a restriction due to the direction of the virtual light source.
  • FIG. 31 and FIG. 32 are diagrams illustrating an application example of displaying an annotation outside the visible range according to an embodiment of the present disclosure.
  • the display of the annotation changes while the image 1200 viewed by the user of the wearable terminal 200 changes from the image 1200a to the image 1200b and further to the image 1200c.
  • a pointer 1210, a direction display 1230, and a comment 1220 are displayed as annotations.
  • the pointer 1210 is continuously displayed near the center of the image 1200, for example, as an icon indicating a user's gaze area, unlike some examples described above.
  • the user of the wearable terminal 200 is guided by the direction display 1230 so that the annotation target (pan (PAN) in the illustrated example) input by the user of the tablet terminal 300 enters the pointer 1210, for example.
  • the annotation target pan (PAN) in the illustrated example
  • the direction display 1230a and the direction display 1230b indicating the direction in which the pan is present are displayed.
  • the user moves the display range of the image 1200 according to the direction display 1230, captures the pan in the display range in the image 1200c, and puts the pan into the pointer 1210, the comment 1220 is displayed for the first time.
  • An image 1200c at this time is separately shown in FIG.
  • Such a display change occurs because it is determined that the user of the wearable terminal 200 can confirm the annotation for the pan when the pan (PAN) to be annotated enters the pointer 1210. .
  • the entire annotation is displayed with the recognition that the annotation target has entered a user's gaze area (or focus area).
  • the user may be continuously guided to put the target in the gaze area (or focus area) by the direction display 1230 or the like.
  • the state where the user can confirm the annotation is recognized not only because the annotation target has entered the gaze area (or focus area) but also because a predetermined time has passed in that state. Also good.
  • FIG. 33 is a diagram illustrating a display example of an annotation target object using edge detection according to an embodiment of the present disclosure.
  • an annotation 1210 is input for a vehicle (VEHICLE).
  • VEHICLE vehicle
  • an annotation 1210 is displayed and an effect 1285 shining on the edge of the car is displayed.
  • Such a display is possible, for example, when the edge of the vehicle (VEHICLE) is detected by analysis of feature points or the like by the generation process of spatial information in the wearable terminal 200.
  • the effect 1285 By displaying the effect 1285 on the basis of the edge, for example, even when the target object is not recognized and the annotation is input by specifying the position “this area”, the target of the annotation can be expressed. .
  • the effect 1285 may be displayed for the edge of the object.
  • FIG. 34 and 35 are diagrams illustrating examples of streaming frame rollback display according to an embodiment of the present disclosure.
  • an image 1200 viewed by a user of wearable terminal 200 changes from image 1200p to image 1200q, image 1200r, and image 1200s. All of these images are sequentially transmitted as a streaming frame to the tablet terminal 300 (an example of a receiving device) via the server 100.
  • the user of the tablet terminal 300 can input an annotation for each of the above images.
  • an annotation 1210p (comment A) is input to the image 1200p
  • an annotation 1210q (comment B) is input to the image 1200q.
  • These annotations may be displayed on the image 1200 in real time, or may not be displayed on the image 1200 in real time because, for example, the display range of the image 1200 has moved.
  • the list display screen 1205 displays streaming frames in which annotations are input, that is, images 1200p and 1200q.
  • annotations 1210p and 1210q that may not be displayed in real time may be displayed.
  • the server 100 detects that an annotation 1210p has been input to the image 1200p, the image can be displayed by saving the image 1200p as a snapshot in the streaming frame and associating the information of the annotation 1210p. Can be.
  • a position where the image 1200p or the image 1200q is acquired in the image 1200 that is, a position where the display range of the image 1200 is the same as the image 1200p or the image 1200q again).
  • Navigation that guides the user of wearable terminal 200 may be displayed.
  • the annotation 1210p or the annotation 1210q may be displayed on the image 1200.
  • FIG. 36 is a diagram illustrating an example of an application that shares a traveler's viewpoint using the technology according to an embodiment of the present disclosure.
  • a general traveler to wear a transmission-side device such as the wearable terminal 200 and provide a real space image of a travel destination (a professional reporter may be used).
  • a user who views an image 1300 provided by using a receiving-side device such as the tablet terminal 300 may, for example, comment 1320 (an example of annotation) on the entire image or on a specific object or position in the image. ) Can be entered.
  • the input comment 1320 may be displayed on the display of the wearable terminal 200 and used to convey a request or advice to a traveler.
  • the comment 1320 may be displayed on the image 1300 of the tablet terminal 300 as illustrated.
  • the comments 1320 respectively input by a plurality of users may be displayed on the image 1300, so that communication between users sharing the traveler's viewpoint may occur.
  • FIG. 37 is a diagram illustrating an example of an application that shares a mountaineer's viewpoint using the technology according to an embodiment of the present disclosure.
  • a general climber to wear a wearable terminal 200 or the like and provide a real space image (a professional reporter may be used).
  • a user who views an image 1300 provided by using the tablet terminal 300 or the like inputs a comment 1320 (an example of an annotation) for the entire image or a specific object or position in the image, for example. Is possible.
  • the user who views the image 1300 may capture the image 1300 and save it like a photograph.
  • the input comment 1320 may be used for communication between the users who share the viewpoint of the climber or give advice or the like to the climber.
  • FIG. 38 is a diagram illustrating an example of an application that shares the viewpoint of a person who cooks using the technology according to an embodiment of the present disclosure.
  • a user who wears the wearable terminal 200 or the like and provides an image of a real space of a travel destination can be, for example, a general user who is good at cooking (or a cooking teacher).
  • a user who views an image 1300 provided using the tablet terminal 300 or the like can input a comment 1320 with respect to, for example, the entire image or a specific position in the image.
  • the comment 1320 is displayed on the display of the wearable terminal 200, for example, and can be used to convey a question or the like to a user serving as a teacher.
  • FIG. 39 is a diagram illustrating an example of an application that shares the viewpoint of a person who performs shopping using the technology according to an embodiment of the present disclosure.
  • a user who shares the image using the tablet terminal 300 or the like is a user who is permitted to share an individual image, for example, It may be a family of users who provide images. That is, in the example of FIG. 39, the real space image is shared within a private range. Whether the real space image is shared privately or publicly, for example, what kind of real space image is provided, and what information the user who provides the image wants to obtain as an annotation Can be set as appropriate.
  • the comment 1320 a shopping list 1320p and a comment 1320q designating one of the apples are input.
  • the comment 1320q that designates an apple is preferably displayed on the same apple even if the display range of the image changes due to the movement of the wearable terminal 200. Therefore, the comment 1320q is located at a position in the real space around the wearable terminal 200. Can be associated.
  • the shopping list 1320p since it is desirable that the shopping list 1320p be continuously displayed at the same position of the image even if the display range of the image changes due to the movement of the wearable terminal 200, the shopping list 1320p may be associated with the position in the image 1300.
  • the processor of the device for example, the tablet terminal 300
  • the annotation switches between associating the annotation with the position in the real space or with the position in the image according to the type of annotation or user operation. May be.
  • FIG. 40 is a diagram illustrating an example of an application that shares a viewpoint of a person who performs a work using the technique according to an embodiment of the present disclosure.
  • a user who shares the image using the tablet terminal 300 or the like is designated in advance by the user who provides the image as a teacher. It can be a user.
  • the teacher role user can view the image 1300 and input an annotation such as a comment 1320s (advice that calls attention to the fact that parts are easily broken).
  • a user who provides an image may also be able to input a comment 1320t such as a question to a user serving as a teacher, for example, using voice recognition or the like (which may be input using a keyboard or the like).
  • an interactive conversation relating to, for example, a work can be performed between the user who provides the image and the user serving as a teacher via the comment 1320.
  • the comment 1320 is associated with the position in the real space, so that the comment can be accurately displayed at the position of the target component or the like.
  • This image may be shared with another user.
  • the input of the comment 1320 by a user other than the user who provides the image and the user serving as a teacher may be restricted.
  • the comment 1320 input by another user may be displayed on the image 1300 only between the other users.
  • 41 to 44 are diagrams illustrating examples of applications that share by switching the viewpoints of a plurality of users using the technology according to an embodiment of the present disclosure.
  • FIG. 41 is a diagram for conceptually explaining viewpoint switching.
  • FIG. 41 shows a state where two wearable terminals 200a and 200b existing in the same real space each have an imaging unit and acquire images 1200a and 1200b.
  • the positions (viewpoint positions) of each other can be recognized via the position information of the real space. Therefore, for example, the display of the image 1200a and the display of the image 1200b can be switched by selecting the wearable terminal 200b shown in the image 1200a or the wearable terminal 200a shown in the image 1200b.
  • FIG. 42 is a diagram illustrating an example of viewpoint switching using a third person image.
  • a third person image 1020 is displayed on the display 330 of the tablet terminal 300, and two streaming frames 1021a and 1021b are displayed there. These streaming frames may be acquired by the wearable terminals 200a and 200b shown in FIG. 41, for example.
  • the user selects one of the streaming frames 1021 by a touch operation on the touch sensor 340 on the display 330, thereby switching and sharing the image from the viewpoint of the wearable terminal 200a and the image from the viewpoint of the wearable terminal 200b. can do.
  • the first person image 1010 displays a pointer 1011 indicating a switchable viewpoint and information 1012 regarding the viewpoint.
  • the pointer 1011 may be, for example, a display that points to a device that provides an image from another viewpoint, and may represent the angle of view of the image provided by that device as shown.
  • the information 1012 is, for example, what kind of image the image provided by another device is (“Camera View” in the illustrated example), who is the image provided, and the like. Indicates.
  • the display can be switched to the first person image 1010 'from another viewpoint as shown in FIG.
  • the image shown in FIG. 43 is an image from the viewpoint of a spectator who sees a model appearing in a fashion show.
  • the image shown in FIG. 44 is an image from the viewpoint of the above model, and shows a spectator on the side of the runway.
  • attributes such as, for example, public or private, paid or free, may be set in each of a plurality of switchable viewpoint images as described above.
  • the third person image 1020 shown in FIG. 42 and the first person image 1010 shown in FIG. 43 can be viewed because they are public or private and have already been given permission.
  • the pointer 1011 and the information 1012 may be displayed only for possible images.
  • the image is free or can be viewed because it has already been purchased even if there is a charge depending on the setting of the user viewing the image.
  • the pointer 1011 and the information 1012 may be displayed.
  • Embodiments of the present disclosure include, for example, an image processing apparatus (server or client) as described above, a system, an image processing method executed by the image processing apparatus or system, a program for causing the image processing apparatus to function, and It may include a non-transitory tangible medium on which the program is recorded.
  • An image processing unit that generates an output image using a first image obtained by imaging a real space from a first viewpoint as an input image, Based on the position and orientation of the first viewpoint in the real space, the image processing unit virtualizes the real space from a second viewpoint having a position and orientation different from the first viewpoint in the real space.
  • An image processing apparatus that generates a second image that is captured as an output image.
  • a display control unit for controlling the display unit of the terminal device to display the output image;
  • the image processing unit virtually images the real space from a third viewpoint in which the position and orientation are freely set in the real space based on the position and orientation of the first viewpoint in the real space. Generating a third image as the output image;
  • the display control unit displays at least the third image on the display unit,
  • an operation acquisition unit that acquires information based on a user operation on the image displayed on the display unit;
  • the image processing unit converts the second image together with the third image or the third image.
  • the image processing apparatus according to (4) which is provided as the output image instead.
  • the image processing device according to any one of (2) to (5), wherein the second viewpoint is a viewpoint obtained by setting back the first viewpoint.
  • the image processing unit continuously generates the second image based on the first image captured continuously,
  • the image processing apparatus according to any one of (2) to (6), wherein the position and orientation of the second viewpoint changes following the position and orientation of the first viewpoint.
  • the image processing device smoothes changes in the position and orientation of the first viewpoint and reflects them in the position and orientation of the second viewpoint.
  • the image processing unit sets a limit on the amount of change in the position and orientation of the second viewpoint, and the relationship between the position and orientation of the first viewpoint and the position and orientation of the second viewpoint.
  • the image processing device (1), wherein the position and orientation of the second viewpoint are set with reference to the position and orientation of an object arranged in the real space.
  • the image processing unit displays an icon indicating the first viewpoint on the second image when the first viewpoint is included in a range of the second image.
  • the image processing apparatus according to any one of (10) to (10).
  • (12) a display control unit for controlling the display unit of the terminal device to display the output image;
  • An operation acquisition unit that acquires information based on a user operation on the image displayed on the display unit;
  • the image processing unit replaces the first image with the second image or the second image.
  • the image processing apparatus according to (11), wherein the image processing apparatus is provided as the output image.
  • the image processing unit generates the second image by using any one of a plurality of viewpoints having different positions and orientations in the real space as the second viewpoint, and the plurality of the plurality of viewpoints. Any one of (1) to (12), wherein an icon indicating the other viewpoint is displayed on the second image when another viewpoint among the viewpoints is included in the range of the second image.
  • the image processing apparatus according to item.
  • a display control unit that controls the display unit of the terminal device to display the output image, and an operation acquisition unit that acquires information based on a user operation on the image displayed on the display unit, When information based on a user operation for selecting an icon indicating the other viewpoint is acquired, the image processing unit uses the other viewpoint corresponding to the selected icon as the second viewpoint as the second viewpoint.
  • the image processing unit includes the first image modified based on the relationship between the position and orientation of the first viewpoint and the position and orientation of the second viewpoint in the second image.
  • the image processing apparatus according to any one of (1) to (14), which is displayed.
  • the image processing unit continuously generates the second image based on the first image that is continuously captured, and the latest first image is included in the second image.
  • the image processing device according to (15), wherein the image processing device generates a portion other than the latest first image of the second image based on the past first image.
  • the image processing unit may perform the second image by stitching between the latest first image and the past first image, or between the past first images.
  • the image processing unit generates the output image using a plurality of the first images obtained by capturing the real space from a plurality of the first viewpoints having different positions and orientations in the real space as input images.
  • the plurality of first images modified based on the relationship between the position and orientation of each of the plurality of first viewpoints and the position and orientation of the first viewpoint are displayed in the second image.
  • the image processing device according to any one of (15) to (17).
  • a processor that generates an output image using a first image obtained by imaging a real space from a first viewpoint as an input image, Based on the position and orientation of the first viewpoint in the real space, a second image obtained by virtually imaging the real space from a second viewpoint having a position and orientation different from the first viewpoint in the real space.
  • An image processing method comprising: generating the image as the output image.
  • a computer that generates an output image using a first image obtained by capturing a real space from a first viewpoint as an input image; Based on the position and orientation of the first viewpoint in the real space, a second image obtained by virtually imaging the real space from a second viewpoint having a position and orientation different from the first viewpoint in the real space.
  • System 100 Server 200, 300, 400, 500, 600, 700
  • Client 900 Device 910 Processor 920 Memory 930 Display Unit 940 Operation Unit 950 Communication Unit 960 Imaging Unit 970 Sensor

Abstract

【課題】AR技術を利用したユーザ間のインタラクションをより円滑にする。 【解決手段】第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成する画像処理部を備え、上記画像処理部は、上記実空間における上記第1の視点の位置および姿勢に基づいて、上記実空間において上記第1の視点とは異なる位置および姿勢を有する第2の視点から上記実空間を仮想的に撮像した第2の画像を上記出力画像として生成する画像処理装置が提供される。

Description

画像処理装置、画像処理方法およびプログラム
 本開示は、画像処理装置、画像処理方法およびプログラムに関する。
 近年、実世界に付加的な情報を重畳してユーザに提示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに提示される情報は、アノテーションとも呼ばれ、テキスト、アイコンまたはアニメーションなど様々な形態の仮想的なオブジェクトを用いて可視化されうる。例えば、特許文献1には、こうしたARの仮想オブジェクトの操作を、AR空間へのユーザの没入感を損なうことなく実現するための技術が記載されている。
特開2012-212345号公報
 上記の特許文献1などで提案されているAR技術は、未だ開発されてから日が浅く、さまざまな局面でARを活用するための技術が十分に提案されているとはいいがたい。例えば、AR技術を利用したユーザ間のインタラクションを円滑にするための技術も、十分には提案されていないものの一つである。
 そこで、本開示では、AR技術を利用したユーザ間のインタラクションをより円滑にすることが可能な、新規かつ改良された画像処理装置、画像処理方法およびプログラムを提案する。
 本開示によれば、第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成する画像処理部を備え、上記画像処理部は、上記実空間における上記第1の視点の位置および姿勢に基づいて、上記実空間において上記第1の視点とは異なる位置および姿勢を有する第2の視点から上記実空間を仮想的に撮像した第2の画像を上記出力画像として生成する画像処理装置が提供される。
 また、本開示によれば、第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するプロセッサが、上記実空間における上記第1の視点の位置および姿勢に基づいて、上記実空間において上記第1の視点とは異なる位置および姿勢を有する第2の視点から上記実空間を仮想的に撮像した第2の画像を上記出力画像として生成することを含む画像処理方法が提供される。
 また、本開示によれば、第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するコンピュータに、上記実空間における上記第1の視点の位置および姿勢に基づいて、上記実空間において上記第1の視点とは異なる位置および姿勢を有する第2の視点から上記実空間を仮想的に撮像した第2の画像を上記出力画像として生成する機能を実現させるためのプログラムが提供される。
 以上説明したように本開示によれば、AR技術を利用したユーザ間のインタラクションをより円滑にすることができる。
本開示の一実施形態に係るシステムの概略的な構成を示す図である。 本開示の一実施形態に係る装置の概略的な構成を示す図である。 本開示の一実施形態における撮像画像の共有の例を示す図である。 本開示の一実施形態におけるアノテーション入力の例を示す図である。 本開示の一実施形態における撮像画像の共有の別の例を示す図である。 本開示の一実施形態において利用されうる技術の処理の例を示すフローチャートである。 本開示の一実施形態において利用されうる技術の処理の別の例を示すフローチャートである。 本開示の一実施形態における1人称画像の表示例を示す図である。 本開示の一実施形態における3人称画像の表示例を示す図である。 本開示の一実施形態における3人称画像の表示例を示す図である。 本開示の一実施形態における3人称画像の表示例を示す図である。 本開示の一実施形態における1.3人称画像の表示例を示す図である。 本開示の一実施形態における1.3人称画像について説明するための図である。 本開示の一実施形態における1.3人称画像について説明するための図である。 本開示の一実施形態における1.3人称画像および3人称画像の例について説明するための図である。 本開示の一実施形態における1.3人称画像および3人称画像の例について説明するための図である。 本開示の一実施形態における1.3人称画像および3人称画像の例について説明するための図である。 本開示の一実施形態において異なる視点の画像が同時に表示される例を示す図である。 本開示の一実施形態において異なる視点の画像が同時に表示される例を示す図である。 本開示の一実施形態におけるアノテーション表示の第1の例を示す図である。 本開示の一実施形態におけるアノテーション表示の第2の例を示す図である。 本開示の一実施形態におけるアノテーション表示の第3の例を示す図である。 本開示の一実施形態におけるアノテーション表示の第4の例を示す図である。 本開示の一実施形態におけるアノテーション表示の第5の例を示す図である。 本開示の一実施形態におけるアノテーション表示の第6の例を示す図である。 本開示の一実施形態におけるアノテーションの配置について説明するための図である。 本開示の一実施形態におけるアノテーションの配置の選択の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第1の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第1の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第1の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第2の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第2の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第3の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第3の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第4の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第5の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第6の例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の応用例を示す図である。 本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の応用例を示す図である。 本開示の一実施形態におけるエッジ検出を利用したアノテーション対象物体の表示例を示す図である。 本開示の一実施形態におけるストリーミングフレームのロールバック表示の例を示す図である。 本開示の一実施形態におけるストリーミングフレームのロールバック表示の例を示す図である。 本開示の一実施形態に係る技術を利用して旅行者の視点を共有するアプリケーションの例を示す図である。 本開示の一実施形態に係る技術を利用して登山者の視点を共有するアプリケーションの例を示す図である。 本開示の一実施形態に係る技術を利用して料理をする人の視点を共有するアプリケーションの例を示す図である。 本開示の一実施形態に係る技術を利用して買い物をする人の視点を共有するアプリケーションの例を示す図である。 本開示の一実施形態に係る技術を利用して工作をする人の視点を共有するアプリケーションの例を示す図である。 本開示の一実施形態に係る技術を利用して複数のユーザの視点を切り替えて共有するアプリケーションの例を示す図である。 本開示の一実施形態に係る技術を利用して複数のユーザの視点を切り替えて共有するアプリケーションの例を示す図である。 本開示の一実施形態に係る技術を利用して複数のユーザの視点を切り替えて共有するアプリケーションの例を示す図である。 本開示の一実施形態に係る技術を利用して複数のユーザの視点を切り替えて共有するアプリケーションの例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.システムおよび装置の構成
  1-1.システム構成
  1-2.装置構成
 2.実空間画像の共有およびインタラクション
  2-1.インタラクションの概念
  2-2.利用されうる技術
 3.可変視点画像の表示の例
 4.アノテーションの実空間への表示
  4-1.表示例
  4-2.アノテーションの配置
 5.視認可能範囲外にあるアノテーションの表示
 6.その他の表示例
 7.アプリケーションの例
 8.補足
 (1.システムおよび装置の構成)
 (1-1.システム構成)
 図1は、本開示の一実施形態に係るシステムの概略的な構成を示す図である。図1を参照すると、システム10は、サーバ100と、クライアント200~700とを有する。
 サーバ100は、単一のサーバ装置、または有線または無線の各種ネットワークで接続されて協働する複数のサーバ装置によって実現される機能の集合体であり、クライアント200~700にサービスを提供する。
 クライアント200~700は、サーバ100と有線または無線の各種ネットワークで接続された端末装置である。クライアント200~700は、システム10の中で以下の(1)~(3)の少なくともいずれかの機能を実現する。
 (1)カメラなどの撮像手段を有し、実空間の画像をサーバ100に提供する装置。
 (2)ディスプレイなどの表示手段と、タッチパネルなどの操作手段とを有し、(1)の装置から提供された画像をサーバ100から取得し、ユーザの閲覧に供するとともに、ユーザによる画像へのアノテーション入力を受け付ける装置。
 (3)ディスプレイなどの表示手段を有し、(2)の装置によって入力が受け付けられたアノテーションを実空間に直接的または間接的に表示させる装置。
 クライアント200は、ウェアラブル端末である(以下、単にウェアラブル端末200ともいう)。ウェアラブル端末200は、例えば撮像手段または表示手段のいずれかまたは両方を有し、上記(1)または(3)のいずれかまたは両方の装置として機能する。図示された例においてウェアラブル端末200は眼鏡型であるが、ユーザの身体に装着可能な形状であればこの例には限られない。上記(1)の装置として機能する場合、ウェアラブル端末200は、撮像手段として、例えば眼鏡のフレーム部分に設置されたカメラを有する。このカメラによって、ウェアラブル端末200は、ユーザの視点に近い位置から実空間の画像を取得することができる。取得した画像は、サーバ100に送信される。また、上記(3)の装置として機能する場合、ウェアラブル端末200は、表示手段として、例えば眼鏡のレンズ部分の一部または全部に設置されたディスプレイを有する。ウェアラブル端末200は、上記のカメラによって撮像された画像をこのディスプレイに表示させるとともに、当該画像に対して上記(2)の装置によって入力されたアノテーションを重畳表示させる。あるいは、ディスプレイが透過型である場合、ウェアラブル端末200は、ユーザが直接視認している実世界の像にアノテーションを透過的に重畳表示させてもよい。
 クライアント300は、タブレット端末である(以下、単にタブレット端末300ともいう)。タブレット端末300は、少なくとも表示手段および操作手段を有し、例えば上記(2)の装置として機能しうる。タブレット端末300は、さらに撮像手段を有し、上記の(1)または(3)のいずれかまたは両方の装置として機能してもよい。つまり、タブレット端末300は、上記の(1)~(3)の装置のうちの任意の装置として機能しうる。上記(2)の装置として機能する場合、タブレット端末300は、例えば表示手段としてディスプレイを、操作手段としてディスプレイ上のタッチセンサを有し、上記(1)の装置からサーバ100を介して提供される画像を表示するとともに、当該画像に対するユーザのアノテーション入力を受け付ける。受け付けられたアノテーション入力は、サーバ100を介して上記(3)の装置に提供される。上記(1)の装置として機能する場合、タブレット端末300は、例えば上記のウェアラブル端末200と同様に撮像手段としてカメラを有し、ユーザがタブレット端末300を実空間にかざすことによって、ユーザの視線の延長線上にある実空間の画像を取得することができる。取得した画像は、サーバ100に送信される。上記(3)の装置として機能する場合、タブレット端末300は、上記のカメラによって撮像された画像をディスプレイに表示させるとともに、当該画像に対して上記(2)の装置(例えば他のタブレット端末など)によって入力されたアノテーションを重畳表示させる。あるいは、ディスプレイが透過型である場合、タブレット端末300は、ユーザが直接視認している実世界の像にアノテーションを透過的に重畳表示させてもよい。
 クライアント400は、携帯電話(スマートフォン)である(以下、単に携帯電話400ともいう)。なお、システム10における携帯電話400の機能は、タブレット端末300と同様であるため、詳細な説明は省略する。なお、図示していないが、例えば携帯型ゲーム機やデジタルカメラのような装置も、通信手段と表示手段、操作手段または撮像手段とを有していれば、システム10においてタブレット端末300や携帯電話400と同様に機能しうる。
 クライアント500は、ラップトップPC(Personal Computer)である(以下、単にラップトップPC500ともいう)。ラップトップPC500は、表示手段および操作手段を有し、上記(2)の装置として機能する。図示された例において、ラップトップPC500は、基本的に固定して使用されるために上記(1)の装置としては機能しない装置の例として扱われている。図示していないが、例えばデスクトップPCやテレビなども、ラップトップPC500と同様に機能しうる。ラップトップPC500は、表示手段としてディスプレイを、操作手段としてマウスやキーボードを有し、上記(1)の装置からサーバ100を介して提供される画像を表示するとともに、当該画像に対するユーザのアノテーション入力を受け付ける。受け付けられたアノテーション入力は、サーバ100を介して上記(3)の装置に提供される。また、ラップトップPC500は、上記(3)の装置として機能することも可能である。この場合、ラップトップPC500は、自ら撮像した実空間の画像にアノテーションを重畳表示させるのではなく、後述する例のように、実空間の一部となってアノテーションを表示する。なお、このようなアノテーションの表示は、上記のタブレット端末300や携帯電話400などでも可能である。
 クライアント600は、固定カメラである(以下、単に固定カメラ600ともいう)。固定カメラ600は、撮像手段を有し、上記(1)の装置として機能する。図示された例において、固定カメラ600は、固定して使用され、かつ表示手段を有さないために上記(2)および(3)の装置としては機能しない装置の例として扱われている。図示していないが、例えばテスクトップPCやテレビに画面の前を映すカメラが設けられている場合や、デジタルカメラのような移動可能な装置が三脚などに一時的に固定されている場合も、これらの装置は固定カメラ600と同様に機能しうる。固定カメラ600は、撮像手段としてカメラを有し、固定された視点(カメラが自動的に、または撮像画像を閲覧するユーザの操作に応じてスイングするような場合も含む)から実空間の画像を取得することができる。取得した画像は、サーバ100に送信される。あるいは、クライアント600は、移動体に取り付けられたカメラであってもよい。移動体は、例えば、自動車や動物など、搭乗者またはそれ自身の意思によって移動してもよい。また、クライアント600が取り付けられる移動体は、無線通信などを用いたユーザの制御に基づいて飛行または走行したり、プログラムに従って自動的に飛行または走行したりしながら撮像を実行する装置(ロボットカメラ)であってもよい。
 クライアント700は、プロジェクタである(以下、単にプロジェクタ700ともいう)。プロジェクタ700は、表示手段として投影装置を有し、上記(3)の装置として機能する。図示された例において、プロジェクタ700は、撮像手段を有さず、また表示(投影)した画像に対する入力を受け付ける操作手段も有さないため、上記(1)および(2)の装置としては機能しない装置の例として扱われている。プロジェクタ700は、投影装置を用いてスクリーンやオブジェクトの表面に画像を投影することによって、実空間にアノテーションを表示させる。なお、プロジェクタ700は、固定型のものが図示されているが、ハンドヘルド型のものであってもよい。
 以上、本開示の一実施形態に係るシステムについて説明した。図1に示されたように、本実施形態に係るシステム10は、実空間の画像を取得可能な装置(ウェアラブル端末200、タブレット端末300、携帯電話400、固定カメラ600)と、実空間の画像をユーザの閲覧に供するとともにユーザによる画像へのアノテーション入力を受け付けることが可能な装置(タブレット端末300、携帯電話400、ラップトップPC500)と、アノテーションを実空間に直接的または間接的に表示させる装置(ウェアラブル端末200、タブレット端末300、携帯電話400、ラップトップPC500、プロジェクタ700)とを含みうる。
 サーバ100は、上記の各装置と協働することによって、実空間の画像を取得し、その画像をユーザ(例えば上記実空間にはいないユーザでありうる)の閲覧に供するとともにユーザによる画像へのアノテーション入力を受け付け、入力されたアノテーションを上記実空間に直接的または間接的に表示させる機能を実現する。このような機能によって、例えば、第1のユーザがいる実空間の画像を第2のユーザが閲覧し、第2のユーザが画像に対して加えたアノテーションが上記実空間に直接的または間接的に表示されて第1のユーザによって視認されるといったような、AR技術を利用したユーザ間のインタラクションが可能になる。
 上記のようなシステム10において表示されるAR画像(例えば、実空間にアノテーションが表示された画像)の具体的な例については後述する。図示された例のシステム10において、AR画像を構成するための画像処理は、主にサーバ100で実行される。しかし、他の例では、画像処理の一部または全部が、例えば実空間にアノテーションを表示させる上記(3)の装置や、実空間の画像を表示するとともにアノテーション入力を受け付ける上記(2)の装置などで実行されてもよい。本明細書では、このような画像処理を実行する装置を総称して「画像処理装置」という。
 (1-2.装置構成)
 図2は、本開示の一実施形態に係る装置の概略的な構成を示す図である。図2を参照すると、装置900は、プロセッサ910、およびメモリ920を含む。装置900は、さらに、表示部930、操作部940、通信部950、撮像部960、またはセンサ970を含みうる。これらの構成要素は、バス980によって相互に接続される。装置900は、例えば、上記のサーバ100を構成するサーバ装置、およびクライアント200~700を実現しうる。
 プロセッサ910は、例えばCPU(Central Processing Unit)またはDSP(Digital Signal Processor)といったような各種のプロセッサであり、例えばメモリ920に格納されたプログラムに従って演算や制御などの動作を実行することによって各種の機能を実現する。プロセッサ910は、例えば上記のサーバ100およびクライアント200~700の装置全体の制御機能を実現する。プロセッサ910は、例えばサーバ100において、後述する例のようなAR画像の表示を実現するための画像処理を実行する。また、プロセッサ910は、例えばサーバ100、ウェアラブル端末200、タブレット端末300、携帯電話400、ラップトップPC500、またはプロジェクタ700において、後述する例のようなAR画像の表示を実現するための表示制御を実行する。
 メモリ920は、半導体メモリまたはハードディスクなどの記憶媒体によって構成され、装置900による処理のためのプログラムおよびデータを格納する。メモリ920は、例えば、撮像部960によって取得された撮像画像データや、センサ970によって取得されたセンサデータを格納してもよい。なお、本明細書で説明するプログラムおよびデータの一部は、メモリ920に格納されることなく、外部のデータソース(例えばデータサーバ、ネットワークストレージまたは外付けメモリなど)から取得されてもよい。
 表示部930は、例えば上述した表示手段を有するクライアントに設けられる。表示部930は、例えば装置900の形状に応じたディスプレイでありうる。例えば、上記の例でいえば、ウェアラブル端末200は、例えば眼鏡のレンズ部分に対応した形状のディスプレイを有しうる。また、タブレット端末300や携帯電話400、ラップトップPC500は、それぞれの筐体に設けられる平板型のディスプレイを有しうる。あるいは、表示部930は、オブジェクトに画像を投影する投影装置であってもよい。上記の例では、プロジェクタ700が表示部として投影装置を有しうる。
 操作部940は、例えば、上述した操作手段を有するクライアントに設けられる。操作部940は、例えばディスプレイ上に設けられたタッチセンサ(ディスプレイとあわせてタッチパネルを構成する)やタッチパッド、マウスなどのポインティングデバイスに、必要に応じてキーボード、ボタン、スイッチなどを組み合わせて構成される。操作部940は、例えばポインティングデバイスによって表示部930に表示された画像中の位置を特定し、その位置に対してキーボードやボタン、スイッチなどによって何らかの情報を入力するユーザの操作を受け付ける。あるいは、操作部940は、ポインティングデバイスによって表示部930に表示された画像中の位置を特定し、さらにポインティングデバイスによってその位置に対して何らかの情報を入力するユーザの操作を受け付けてもよい。操作部940は、ポインティングデバイスに代えて、またはポインティングデバイスとともに、ユーザのジェスチャに基づいて、画像中の位置を特定したり、その位置に対して何らかの情報を入力するための操作を取得してもよい。ユーザのジェスチャは、例えば、カメラモジュール(撮像部960と同じであってもよいし、異なってもよい)によって取得された画像を解析し、ユーザの体の部分などの操作体の動きを認識することによって特定される。また、例えば、ユーザのジェスチャは、ディスプレイを有する装置とは別の装置、例えばディスプレイに向き合うユーザの指や手首などに装着されるウェアラブル装置に設けられるモーションセンサの検出結果に基づいて取得されてもよい。この場合、例えば、モーションセンサによって検出されるユーザの指や手首などの加速度や角速度に基づいて、ユーザのジェスチャが特定される。
 通信部950は、装置900による他の装置との間の通信を仲介する通信インターフェースである。通信部950は、任意の無線通信プロトコルまたは有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。上記の例では、クライアントで撮像された実空間の画像や入力されたアノテーション情報のサーバ100への送信、およびサーバ100からクライアントへの実空間の画像やアノテーション情報の送信に通信部950が用いられる。
 撮像部960は、画像を撮像するカメラモジュールである。撮像部960は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部960によって生成される一連の撮像画像は、映像を構成する。なお、撮像部960は、必ずしも装置900の一部でなくてもよい。例えば、装置900と有線または無線で接続される撮像装置が撮像部960として扱われてもよい。また、撮像部960は、撮像部960と被写体との間の距離を画素ごとに測定する深度(depth)センサを含んでいてもよい。深度センサから出力される深度データは、後述するように実空間を撮像した画像における環境の認識のために利用されうる。
 センサ970は、測位センサ、加速度センサおよびジャイロセンサなどのさまざまなセンサを含みうる。センサ970において得られる測定結果は、実空間を撮像した画像における環境の認識の支援、地理的な位置に特化したデータの取得、またはユーザ入力の検出などのさまざまな用途で利用されてもよい。なお、センサ970は、撮像部960を有する装置、上記の例ではウェアラブル端末200やタブレット端末300、携帯電話400、または固定カメラ600に設けられうる。
 (2.実空間画像の共有およびインタラクション)
 次に、図3A~図4を参照して、本開示の一実施形態に係るインタラクションの基本的な概念について説明する。
 (2-1.インタラクションの概念)
 図3Aは、本開示の一実施形態における撮像画像の共有の例を示す図である。図示された例では、ウェアラブル端末200のカメラ260(撮像部)によって撮像された実空間の画像がサーバ100を介してタブレット端末300にストリーミング配信され、ディスプレイ330(表示部)に画像1300として表示される。このとき、ウェアラブル端末200では、撮像された実空間の画像がディスプレイ230(表示部)に表示されるか、実空間の像がディスプレイ230を透過して直接視認される。このときディスプレイ230に表示されている像(透過して視認される背景を含む)を、以下では画像1200として参照する。
 図3Bは、本開示の一実施形態におけるアノテーション入力の例を示す図である。タブレット端末300では、ディスプレイ330上にタッチセンサ340(操作部)が設けられており、ディスプレイ330に表示された画像1300に対するユーザのタッチ入力を取得することが可能である。図示された例では、画像1300内のある位置を指示するユーザのタッチ入力がタッチセンサ340によって取得され、その位置にポインタ1310が表示されている。さらに、例えば別途表示されるスクリーンキーボードなどを用いて入力されたテキストが、画像1300にコメント1320として表示されている。このポインタ1310およびコメント1320が、アノテーションとしてサーバ100を介してウェアラブル端末200に送信される。
 ウェアラブル端末200では、タブレット端末300で入力されたアノテーションが、画像1200にポインタ1210およびコメント1220として表示される。画像1200においてこれらのアノテーションが表示される位置は、タブレット端末300で表示される画像1300における実空間の位置に対応している。このようにして、送信側(ストリーミング側)の装置であるウェアラブル端末200と、受信側(視聴者側)の装置であるタブレット端末300との間でのインタラクションが成立する。なお、この例において、装置間でアノテーションの表示位置を対応させたり、アノテーションを継続的に表示させたりするために用いられうる技術については後述する。
 図3Bは、本開示の一実施形態における撮像画像の共有の別の例を示す図である。図示された例では、タブレット端末300aのカメラ(撮像部;背面側にあるため図示されていない)によって撮像された実空間の画像がタブレット端末300bにストリーミング配信され、ディスプレイ330b(表示部)に画像1300bとして表示される。このとき、タブレット端末300aでは、撮像された実空間の画像がディスプレイ330aに表示されるか、実空間の像がディスプレイ330aを透過して直接視認されている。このときディスプレイ330aに表示されている像(透過して視認される背景を含む)を、以下では画像1300aとして参照する。図示された例でも、タブレット端末300bで画像1300bに対して入力されたアノテーションを画像1300aに表示させることによって、送信側(ストリーミング側)の装置であるタブレット端末300aと、受信側(視聴者側)の装置であるタブレット端末300bとの間でのインタラクションが成立しうる。
 なお、本実施形態における実空間の画像の共有とそれに基づくユーザ間のインタラクションは、ウェアラブル端末200およびタブレット端末300に係る上記の例には限られず、既に説明した携帯電話400、ラップトップPC500、固定カメラ600、またはプロジェクタ700も、それぞれの機能(例えば上述した(1)~(3)の機能)を実現する限りにおいて、任意の装置を送信側(ストリーミング側)および受信側(視聴者側)として成立しうる。
 (2-2.利用されうる技術)
 本実施形態では、上述した実空間画像の共有とインタラクションを実現するにあたって、いくつかの技術が利用される。まず、本実施形態では、送信側の装置において、送信される実空間の画像データに空間情報が付加される。空間情報は、送信側の装置の撮像部(図3Aおよび図3Bの例ではウェアラブル端末200のカメラ260、図4の例ではタブレット端末300aのカメラ)が実空間の中でどのように移動しているかを推定することを可能にする情報である。
 例えば、空間情報は、SfM(Structure from Motion)法またはSLAM(Simultaneous Localization And Mapping)法などの公知の画像認識技術によって認識される環境認識行列でありうる。環境認識行列は、例えば送信側の装置固有の座標系に対する基準環境(実空間)の座標系の相対的な位置および姿勢を示す。例えば、SLAM法が利用される場合、送信側の装置のプロセッサが、装置の位置、姿勢、速度および角速度、ならびに撮像画像に含まれる少なくとも1つの特徴点の位置を含む状態変数を、拡張カルマンフィルタの原理に基づいて撮像画像のフレームごとに更新する。これによって、装置の位置および姿勢を基準とする基準環境の位置および姿勢を、単眼カメラからの入力画像を利用して認識することができる。なお、SLAM法の詳しい説明は、例えば“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Andrew J.Davison,Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されている。
 他にも、空間情報は、撮像部の実空間における相対的な位置および姿勢を示す情報であればどのようなものであってもよい。例えば、撮像部に設けられうる深度センサからの深度データに基づいて環境認識行列が認識されてもよい。また、赤外線測距システムまたはモーションキャプチャシステムなどの環境認識システムからの出力データに基づいて環境認識行列が認識されてもよい。こうした技術の一例は、例えばS.Izadi, et al, KinectFusion: Real-time 3D Reconstruction and Interaction Using a Moving Depth Camera, ACM Symposium on User Interface Software and Technology, 2011に記載されているが、この例には限られず、公知の様々な技術が空間情報の生成に利用可能である。
 あるいは、空間情報は、実空間を撮像した一連のフレーム画像のステッチング解析によって、各フレーム画像の相対的な位置関係を特定することによって生成されてもよい。この場合、ステッチング解析は、基底平面上に各フレーム画像を貼りつける2次元ステッチング解析、または空間内の任意の位置に各フレーム画像を貼りつける3次元ステッチング解析でありうる。
 以下、上記の技術に係る送信側の装置、受信側の装置、およびサーバの処理の例について、図5Aのフローチャートを参照しながら、図3Aおよび図3Bに示した例を用いて説明する。なお、上記の技術は、図3Aおよび図3Bの例に関わらず上述したシステム10における任意の装置の組み合わせについて適用可能でありうる。
 まず、ウェアラブル端末200(送信側の装置)において、撮像部が実空間の画像データを取得するとともに、撮像部またはセンサが取得した情報を必要に応じてプロセッサが処理することによって空間情報が生成される(ステップS101)。画像データと空間情報とは、互いに関連付けられてウェアラブル端末200の通信部からサーバ100に送信される(ステップS103)。サーバ100では、通信部がウェアラブル端末200から画像データおよび空間情報を受信し、画像データをタブレット端末300(受信側の装置)に転送する(ステップS105)。また、サーバ100では、プロセッサが空間情報を用いて受信された画像内の位置とウェアラブル端末200が存在する実空間の位置とを関係づける(ステップS107)。
 タブレット端末300では、通信部がサーバ100から画像データを受信し、受信された画像データに基づいてプロセッサがディスプレイ330に画像1300を表示させる(ステップS109)。ここで、タッチセンサ340によって画像1300に対するユーザのアノテーション入力が取得された場合(ステップS111)、プロセッサはアノテーション入力を画像1300内の位置(例えばポインタ1310の位置)に関係づけ、通信部からサーバ100に送信する(ステップS113)。
 サーバ100では、通信部がタブレット端末300から送信されたアノテーション入力および画像内の位置の情報を受信すると、プロセッサが受信された情報に含まれる画像内の位置を実空間の位置に変換する(ステップS115)。変換後の実空間の位置に関連付けられたアノテーション入力は、通信部からウェアラブル端末200に送信される(ステップS117)。
 ウェアラブル端末200では、通信部がサーバ100からアノテーション入力および実空間の位置の情報を受信し、プロセッサが空間情報を用いてアノテーション情報に関連付けられた実空間の位置を現在ディスプレイ230に表示されている画像1200内の位置に変換し(ステップS119)、その位置にアノテーション(例えばポインタ1210やコメント1220)を表示させる(ステップS121)。
 図5Bに、上記の処理の別の例を示す。この例では、サーバ100のプロセッサが画像内の位置と実空間の位置とを関係づけた後に、通信部が画像データとともに画像に含まれる実空間の位置の情報をタブレット端末300に送信する(ステップS201)。タブレット端末300では、ディスプレイ330に画像が表示される(ステップS109)のは上記の図5Aの例と同様であるが、アノテーション入力が、画像内の位置ではなくステップS201で受信された実空間の位置に関連付けて送信される(ステップS203)。従って、サーバ100では、通信部が実空間の位置が関連付けられたアノテーション入力の情報をウェアラブル端末200に転送すればよい(ステップS205)。
  (第1の利点)
 上記で説明した技術には、いくつかの利点がある。例えば、ウェアラブル端末200で実空間の画像が取得されてから、タブレット端末300で当該画像に対するアノテーションが入力され、さらにそのアノテーションがウェアラブル端末200に送信されるまでには時間差が生じていることが多い。
 従って、画像内の位置を基準にしてアノテーションをやりとりすると、上記の時間差の間にユーザや装置の移動によってウェアラブル端末200で表示される画像1200の表示範囲が変化したために、タブレット端末300から送信されたアノテーションが、ウェアラブル端末200ではタブレット端末300のユーザが画像1300を見ながら意図した位置とは異なった位置に表示される場合がある。
 これに対して、上記の技術を適用すれば、アノテーションを実空間の位置に関連付けることが可能であるため、画像1200の表示範囲の変化に関わらず、ウェアラブル端末200でも、タブレット端末300のユーザが画像1300を見ながら意図した位置(例えば実空間にある特定のオブジェクトに対応する位置)にアノテーションが表示されうる。
  (第2の利点)
 また、例えば、ウェアラブル端末200で表示される実空間の画像1200が、ディスプレイ230を透過して直接視認されるものであったり、ディスプレイ230の外側に見えている実空間の像と整合させてディスプレイ230に表示されるものであったりする場合、画像1200の範囲が、ウェアラブル端末200のカメラ260が撮像する実空間の画像の範囲よりも狭い(つまり、ウェアラブル端末200のユーザが視認している範囲よりも、撮像画像の範囲の方が広い)場合がありうる。
 このような場合、タブレット端末300のディスプレイ330に表示される画像1300の範囲がウェアラブル端末200の画像1200の範囲よりも広くなり、タブレット端末300のユーザが、画像1200の外側、つまりウェアラブル端末200のユーザには見えていない領域にアノテーションを入力することが可能になりうる。従って、画像内の位置を基準にしてアノテーションをやりとりすると、タブレット端末300では入力可能であっても、ウェアラブル端末200の画像1200には表示されないアノテーションが発生してしまう。
 これに対して、上記の技術を適用すれば、アノテーションを実空間の位置に関連付けることが可能であるため、サーバ100またはウェアラブル端末200に受信された時点では画像1200の表示範囲に入っていない位置に対するアノテーションであっても、例えばその後に画像1200の表示範囲が変化してアノテーションの位置を含むようになった場合に画像1200に表示することができる。
 なお、上記の技術には、ここで説明したものには限られず、利用される状況に応じて他の利点が存在しうる。それらの利点は、以下の説明の中で明示または示唆されうる。
 (3.可変視点画像の表示の例)
 次に、図6~図12を参照して、本開示の一実施形態に係る可変視点画像の表示について説明する。本実施形態では、上記のように、送信側の装置が、実空間の画像データに空間情報を付加して送信する。空間情報は、例えば送信側の装置の撮像部の実空間における位置および姿勢を示す情報である。この情報を利用すれば、以下で説明するように、1人称画像(撮像部が撮像した実空間の画像)の視点にとらわれず、自由な視点で実空間を観察する画像を生成して受信側の装置に提供することが可能である。
 なお、以下の説明では、送信側の装置、受信側の装置、およびサーバの動作について、図3Aおよび図3Bに示した例を用いて説明するが、同様の構成は、図3Aおよび図3Bの例に限らず上述したシステム10における任意の装置の組み合わせによって実現されうる。
  (1人称画像)
 図6は、本開示の一実施形態における1人称画像の表示例を示す図である。図6には、1人称画像1010が示されている。1人称画像1010は、ウェアラブル端末200(送信側の装置)のカメラ260が撮像した画像であり、ウェアラブル端末200でディスプレイ230に表示される画像1200と同一でありうるため、本明細書では「1人称画像」という。1人称画像1010はストリーミングフレーム、つまりカメラ260が撮像している一連のフレーム画像であるため、その表示範囲は例えばウェアラブル端末200を装着したユーザの動きに伴って刻々と変化する。
  (3人称画像)
 図7~図9は、本開示の一実施形態における3人称画像の表示例を示す図である。図7~図9に示された3人称画像1020は、ウェアラブル端末200のカメラ260が存在する実空間を、撮像画像のデータとともに提供された空間情報に基づいて1人称画像とは異なる視点から仮想的に撮像した画像である。3人称画像1020は、1人称画像1010とは異なり、ウェアラブル端末200のカメラ260の実空間での位置、すなわち送信側の装置の視点に関わらず自由に設定された視点で生成されうるため、本明細書では「3人称画像」という。3人称画像1020は、例えば、サーバ100のプロセッサが、ウェアラブル端末200から提供された空間情報に基づいてウェアラブル端末200のカメラ260が取得した実空間の画像を加工することによって生成され、通信部によってタブレット端末300に送信されうる。
 3人称画像1020では、カメラ260が撮像した画像がストリーミングフレーム1021として表示されうる。ストリーミングフレーム1021は、例えば上記の1人称画像1010と同じ画像であり、空間情報に従って、表示されている実空間の中でストリーミングフレーム1021の画面に対応する四角形の領域に配置される。この領域の形状は、例えば3人称画像1020の視点のストリーミングフレーム1021に対する傾きに応じて、例えば台形や不等辺四角形などの形状に変形されうる。
 なお、3人称画像1020で完全に自由な視点の設定が可能である場合、例えばストリーミングフレーム1021が3人称画像1020の表示範囲外になるような視点を設定したり、ストリーミングフレーム1021の背面側に視点を設定したりすることも可能でありうる。このような場合、3人称画像1020にはストリーミングフレーム1021が表示されなくなってもよい。さらに、この場合、3人称画像1020とストリーミングフレームを提供するカメラ260を有するウェアラブル端末200とのリンクが解除され、3人称画像1020が一時的に送信側の装置から離脱してもよい。この場合、離脱したときの空間情報のキャッシュに基づいてさらに3人称画像1020の視点を移動させることが可能でありえ、例えばストリーミングフレーム1021や、他の送信側の装置から提供されるストリーミングフレームが再び3人称画像1020の表示範囲に入った場合に、3人称画像1020と送信側の装置とのリンクが再開されうる。また、3人称画像1020の視点がストリーミングフレーム1021の背面側に設定された場合、ストリーミングフレーム1021の表示は枠だけになって継続されてもよい。あるいは、3人称画像1020における視点の設定は、上記のようにストリーミングフレーム1021の通常の表示がされない範囲を除くように制限されてもよい。
 3人称画像1020におけるストリーミングフレーム1021以外の部分は、空間情報によって認識されていてもリアルタイムの画像は提供されていないため、例えば図示された例のようにワイヤーフレームなどを用いて模式的に表示されうる。なお、図示されたワイヤーフレームは四角い部屋を示しているが、これは必ずしも実空間がこのような部屋であることを意味せず、例えば広い実空間において上下を認識させるために表示されるものであってもよい。また、図9に示す例のように、過去に提供されたストリーミングフレーム1024が、例えばステッチング解析の結果を利用してストリーミングフレーム1021に貼り合わされて表示されてもよい。あるいは、ストリーミングフレーム1021の周囲には、後述する1.3人称画像と同様の周辺領域画像が表示されてもよい。
 さらに、図7および図8に示されるように、3人称画像1020には、1人称画像の視点オブジェクト1022と、1.3人称画像の視点オブジェクト1023とが表示されてもよい。1人称画像の視点オブジェクト1022は、1人称画像、すなわちストリーミングフレーム1021の視点を示す。また、1.3人称画像の視点オブジェクト1023は、後述する1.3人称画像を生成するにあたり、仮想的に設定される視点を示す。これらの視点の位置は、いずれも空間情報に基づいて特定されうる。3人称画像1020では、例えば視点オブジェクト1022または視点オブジェクト1023を選択することによって、それぞれの視点に対応する画像、すなわち1人称画像1010または後述する1.3人称画像への切り替えが可能であってもよい。また、3人称画像1020では、実空間において認識されているオブジェクトを基準にして、当該オブジェクトが正対および/または拡大されるように自動的に視点を変更することが可能であってもよい。
 このような表示のため、3人称画像1020の表示範囲は、例えばウェアラブル端末200のカメラ260が移動したことによるストリーミングフレーム1021の表示範囲の変化の影響を受けなくてもよい。例えば、カメラ260が移動すると、ストリーミングフレーム1021の表示領域および表示内容が変化し、1人称画像の視点オブジェクト1022が移動しうるが、3人称画像1020の表示範囲は維持されうる。また、1.3人称画像の視点オブジェクト1023も、カメラ260の移動に伴って移動しうる。3人称画像1020の表示範囲は、例えばタブレット端末300において3人称画像1020を閲覧するユーザからの視点変更の指示が取得された場合に変更されうる。
 なお、3人称画像1020は、必ずしも単一の送信側の装置、例えばウェアラブル端末200のカメラ260によって取得された実空間の画像のみに基づいて生成されなくてもよい。例えば、3人称画像1020は、例えば、ウェアラブル端末200と同じ実空間(例えば同じ部屋など)に存在する他の装置(例えば固定カメラ600)によって取得された実空間の画像をさらに組み合わせることによって生成されてもよい。この場合、固定カメラ600も、実空間の画像データに空間情報を付加してサーバ100に提供する。サーバ100は、それぞれの装置から提供された空間情報に基づいて、複数の実空間の画像データを組み合わせた3人称画像1020を生成しうる。この場合、3人称画像1020では、複数のストリーミングフレーム1021が表示されてもよい。
  (1.3人称画像)
 図10Aは、本開示の一実施形態における1.3人称画像の表示例を示す図である。図10Aには、1.3人称画像1030が示されている。1.3人称画像1030は、ウェアラブル端末200のカメラ260が撮像した画像に基づいて、カメラ260の背面側の視点から実空間を仮想的に撮像した画像である。1.3人称画像1030の視点は、1人称画像1010の視点とは別に設定されうるが、3人称画像1020の視点のように自由に設定されるわけではないため、本明細書では、1人称画像と3人称画像との中間的な性質を有する画像を意味する用語として「1.3人称画像」を用いる。なお、1.3人称画像1030の視点と1人称画像1010の視点との関係は、例えば図7および図8に示された3人称画像1020で表示される視点オブジェクト1022および視点オブジェクト1023の関係を参照すれば容易に理解できる。
 1.3人称画像1030では、例えば、カメラ260が撮像した画像がストリーミングフレーム1031として表示される。ストリーミングフレーム1031は、例えば上記の1人称画像1010と同一の画像でありうる。ここで、1.3人称画像1030の視点はカメラ260の背面側に設定されるため、ストリーミングフレーム1031の位置は典型的には1.3人称画像1030の中央付近であり、ストリーミングフレーム1031の形状は典型的には矩形である。
 ここで、カメラ260が移動した場合、1.3人称画像1030の表示範囲もストリーミングフレーム1031に追従して変化しうる。このとき、例えばサーバ100のプロセッサが、空間情報に基づいて算出されるカメラ260の変位をノイズフィルタまたはローパスフィルタなどによって処理した上で、1.3人称画像1030の視点の変位に反映させてもよい。これによって、例えばカメラ260の細かい動きによってストリーミングフレーム1031にぶれが生じている場合にも、1.3人称画像1030のぶれを抑制できる。また、例えばウェアラブル端末200のユーザが振り向くなどしてカメラ260の位置または姿勢が急に変化した場合にも、1.3人称画像1030の表示範囲を滑らかに追従させることによって、視点にどのような変化が生じたかを1.3人称画像1030を閲覧しているユーザが認識することを容易にすることができる。このように、ストリーミングフレーム1031の表示範囲変化に対する1.3人称画像1030の表示範囲の変化に調整が加えられる場合、ストリーミングフレーム1031は一時的に1.3人称画像1030の中央以外の位置に表示されたり、1.3人称画像1030に表示されなかったりすることがありうる。
 また、1.3人称画像1030では、ストリーミングフレーム1031の周囲に、周辺領域画像1032が表示されうる。周辺領域画像1032は、3人称画像1020について図9を参照して示した例のように、過去に提供されたストリーミングフレームをステッチング解析などの結果を利用してストリーミングフレーム1031の周囲に貼り合わせることによって生成されうる。あるいは、SLAM法などによって検出された特徴点や、デンスマッピングの3次元データなどを用いて生成されたストリーミングフレーム1031の周囲の空間モデルが周辺領域画像1032として表示されてもよい。このとき、空間モデルに含まれる面に過去のストリーミングフレームから抽出された画像がテクスチャとして貼り付けられてもよい。例えばストリーミングフレーム1031から遠い1.3人称画像1030の辺縁部などでは、過去のストリーミングフレーム1031として蓄積された画像が少なかったり、ストリーミングフレーム1031の表示範囲から外れてから時間が経ったために実空間の状況が変化している可能性があったり、空間モデルの精度が低かったりする可能性がある。そのような場合、周辺領域画像1032は、図示されているように、部分的に表示されないか、部分的にぼかして表示されてもよい。
 図10Bおよび図10Cは、本開示の一実施形態における1.3人称画像について説明するための図である。これらの図を参照して、上述した1.3人称画像について、別の観点からさらに説明する。図10Bに示されているように、1.3人称画像の視点CP2は、例えばSLAM法などによって取得される実空間の座標系において、1人称画像の視点CP1を仮想的に後ろに移動した位置に設定される。
 ここで、例えばサーバ100のプロセッサは、視点CP2が視点CP1に追従するときの移動速度(以下、視点CP2の追従速度ともいう)に所定の上限値を設定したり、視点CP1の移動速度に1よりも小さいゲインをかけて視点CP2の追従速度を設定したりすることによって、視点CP1が急に移動した場合でも視点CP2を滑らかに追従させることができる。これによって、視点にどのような変化が生じたかを1.3人称画像を閲覧するユーザに容易に認識させることができる。
 しかしながら、視点CP1によって取得されるフレームFRM、すなわち1人称画像の最新のフレームが1.3人称画像の範囲から外れてしまうと、1.3人称画像に表示される空間のコンテキストを保持することが困難になる。そこで、例えば上記のように上限値やゲインが設定されることによって視点CP2の追従速度が抑制されるような場合であっても、視点CP1の移動速度が大きいためにフレームFRMの所定の割合以上の領域が1.3人称画像の範囲から外れた場合には、例えば上限値やゲインの値をより大きくして視点CP2の追従速度を上げ、フレームFRMを1.3人称画像の範囲内に保つ制御が追加されてもよい。
 図10Cは、例えば上記のような制御が実施される場合に表示される画像の例を示す。Aでは、1人称画像1010が表示されている。Bでは、1人称画像1010の視点を仮想的に後ろに移動させることによって、1.3人称画像1030の表示が開始される。図示された例では、このとき過去のフレーム画像はまだ蓄積されていないため、1.3人称画像1030のフレームFRM以外の部分には何も表示されていない。
 Cでは、1.3人称画像1030が表示された状態で視点CP1が移動し、1.3人称画像の視点CP2も視点CP1に追従して移動している。ただし、上記の例のように視点CP2の追従速度が抑制されているため、1.3人称画像1030の表示範囲の移動はフレームFRMの移動に対して少し遅れる。従って、フレームFRMは、1.3人称画像1030の中央からは少し外れて位置している。一方、このとき、例えばBなどで表示されていた過去のフレームFRMの画像を利用して、最新のフレームFRM以外の部分にもオブジェクトが表示されている。
 Dでは、視点CP1の移動速度が大きかったために、視点CP2が抑制された追従速度では視点CP1に追従しきれず、フレームFRMの一部が1.3人称画像1030の表示範囲から外れている。このとき、例えばサーバ100のプロセッサは、上限値やゲインの値をより大きくして視点CP2の追従速度を上げる。結果として、Eでは、フレームFRMの全体が再び1.3人称画像1030の表示範囲に戻っている。
 上述したような視点CP1の移動速度およびフレームFRMの表示状態による視点CP2の追従速度の制御に加えて、例えばサーバ100のプロセッサは、タブレット端末300などの1.3人称画像1030への操作(例えばアノテーションの入力など)を取得する装置において、タッチパネルなどを介した1.3人称画像1030への操作が取得されている場合には、視点CP2の移動を抑制することによって1.3人称画像1030の表示範囲を固定させてもよい。これによって、例えば、ユーザが1.3人称画像1030に表示された特定の位置に対してする操作が容易になる。
 また、1人称画像1010と1.3人称画像1030との表示の切り替えについて、例えば以下のような構成が可能である。まず、例えばサーバ100のプロセッサは、カメラの視点位置が認識されていない(探索中である)場合には、1人称画像1010を表示させる。ここで、例えばSLAM法などによって視点位置が認識され、トラッキングが開始された場合、プロセッサは表示される画像を1.3人称画像1030に切り替えてもよい。その後、例えばSLAM法などによるトラッキングが失敗し、視点位置の探索が再開された場合には、プロセッサが表示される画像を1人称画像1010に戻してもよい。なお、この例における1人称画像1010から1.3人称画像1030への遷移や、1.3人称画像1030から1人称画像1010への遷移は、いずれもアニメーションを伴って表示されてもよい。
 以上で説明したように、本実施形態では、受信側の装置(上記の例ではタブレット端末300)において、送信側の装置(上記の例ではウェアラブル端末200)の撮像部が撮像している範囲を超えて実空間を表示する画像を提供することが可能である。これによって、受信側の装置のユーザは、送信側の装置のユーザの視点にとらわれず、自由な視点で実空間の画像を共有することができる。
  (応用例1)
 さらに、図10D~図10Fを参照して、本開示の一実施形態における1.3人称画像および3人称画像の例について説明する。なお、この項での説明では、1.3人称画像と3人称画像とを総称して体外離脱視点画像ともいう。
 体外離脱視点画像は、過去のフレーム(1人称画像のフレーム)とリアルタイムのフレーム(最新のフレームFRM)とが配置されている仮想的な空間を、画像を閲覧するユーザがコントロールする仮想的なカメラ視点Mからの映像としてレンダリングすることによって生成される。空間に配置されたフレームのレンダリングでは、ステッチングのエラーによる視覚的な不整合を軽減するために、仮想カメラの姿勢と配置されているフレームとの姿勢差分に基づいて決定される透過度でそれぞれのフレームが表示される。
 空間認識が失敗された場合、Mは所定の時間維持されつつ、過去のフレームは徐々に消失し、リアルタイムのフレームのみが描画更新される。所定の時間内に空間認識が復帰した場合には、過去のフレームの描画を復帰する。一方、所定の時間内に空間認識が復帰しない場合には、空間認識を初期化して再び体外離脱視点の構築を開始する。
 ここで、この例において、体外離脱視点画像には大きく分けて3つのモードが設定される。以下の説明では、3つのモードを、追従モード、視点移動モード、およびポインティングモードと称するが、この名称は便宜的なものである。例えばサーバ100のプロセッサは、画像を閲覧するユーザの操作によってこれらのモードの切替えなどを制御する。
  (追従モード)
 図10Dに示す追従モードは、画像を閲覧するユーザU(以下、閲覧ユーザともいう)が特段の操作をすることなく体外離脱視点画像を閲覧している場合に設定されるモードである。仮想カメラの位置姿勢が図示されるように決定されることによって、追従モードの画像1030dが表示される。例えばSLAM法などによって推定されたウェアラブル端末200(送信側の装置)のカメラ260の姿勢・位置Mbc(t)から得られる平行移動成分Tbc(t)および回転成分Rbc(t)のそれぞれをk,kの係数として平滑化したT’bc(t),R’bc(t)から、以下の式1によって平滑化されたカメラ姿勢M’bc(t)を得ることができる。
Figure JPOXMLDOC01-appb-M000001
 図10Dに示されているように、仮想カメラの位置および姿勢M(t)は、時系列的に平滑化されたカメラ姿勢M’bc(t)から、より広い範囲が見られるように所定のオフセット量Toffsetだけ仮想的に後方に移動した位置に、各時刻において近づくように制御される。ここで、係数kが、どの程度カメラ260の視点に追従するかを制御するために設定される。本例では、リアルタイムのフレーム(FRM)が画像の範囲に収まっているときには係数kがより小さい値に設定され(仮想カメラはあまり動かずに空間に定位した画像を提供する)、リアルタイムのフレーム(FRM)が画像の範囲に収まっていないときには係数kがより大きな値に設定される(仮想カメラがリアルタイムのフレームを追跡する)。このような係数kvを用いた制御は、例えば以下の式2のように表される。
Figure JPOXMLDOC01-appb-M000002
 これによって、閲覧ユーザは、カメラ260の動きを基にして平滑化された動きで、空間的に定位ししてステッチされた状態で、リアルタイムのフレームと過去のフレームとを同時に閲覧することができる。従って、閲覧ユーザは、カメラ260(を装着したユーザ)よりも空間を広く見回せるとともに、カメラ260(を装着したユーザ)の現在の視野の空間における位置を認識することが可能である。追従モードでは、このようなそれぞれの視野の関係がユーザの介入なしに自動的に更新されるので、例えば、閲覧ユーザ、カメラ260を装着したユーザともに視野の設定制御をする必要はない。
  (視点移動モード)
 図10Eに示す視点移動モードは、例えば、画像を閲覧するユーザU(以下、閲覧ユーザともいう)が、ディスプレイから所定の距離以上離れてポインティング操作を実行した(図示された例ではジェスチャによってポインティング操作が実行されているが、ポインティングデバイスなどを使用したポインティング操作であってもよい)場合に設定されるモードである。視点移動モードでは、仮想カメラの位置Mを移動させた画像1030eが表示されうる。
 例えば、ユーザUは、ディスプレイから所定の距離以上離れた位置で、追従モードの画像1030dに対するポインティング操作を実行する。このとき、サーバ100のプロセッサは、ポインティング操作によって特定された画像内の位置と、追従モードにおいて表示される各フレームとのヒット判定を実行し、この結果に基づいて、ユーザUによってポインティングされているフォーカスフレームFRM’を特定する。さらに、プロセッサは、フィーかすフレームFRM’の位置M’から所定のオフセット量T(d)offsetだけ仮想的に後方に移動した位置に仮想カメラの新たな位置M’を設定する。これによって、仮想カメラの位置は、それまでの追従モードにおける位置Mから視点移動モードにおける位置M’へと移動する。この移動は、例えばアニメーションを伴って実行されてもよい。
 視点移動モードでは、最新のカメラ260の向きとは独立して、仮想カメラの位置を制御することができる。なお、上記のオフセットT(d)offsetは、追従モードでのオフセットToffsetに比べてより大きい値に設定されてもよい。この場合、視点移動モードでは、追従モードに比べてより広い視野で周囲を観察することが可能になる。
  (ポインティングモード)
 図10Fに示すポインティングモードは、例えば、画像を閲覧するユーザU(以下、閲覧ユーザともいう)が、ディスプレイから所定の距離以内でポインティング操作を実行した(図示された例ではジェスチャによってポインティング操作が実行されているが、ポインティングデバイスなどを使用したポインティング操作であってもよい)場合に設定されるモードである。ポインティングモードにおいて、仮想カメラの位置M’は、上記の視点移動モードと同様のアルゴリズムによって決定されうる。ただし、仮想カメラの位置M’は、さらに、フォーカスフレームFRM’をズームして見ることができる位置に設定されてもよい。これによって、閲覧ユーザは、フォーカスフレームFRM’をより詳細に観察することができる。このような仮想カメラの位置M’の設定の結果、閲覧ユーザには画像1030fが提供される。
 さらに、ポインティングモードでは、カメラ260が存在する空間に対して固定されたポインティングを実行することが可能である。この場合、例えば、サーバ100のプロセッサは、ポインティング操作によって特定された画像内の位置(2次元のポインティング座標)と、画像に含まれる空間の特徴点群P,P,・・・,Pの2次元座標とを比較し、特徴点群の中から、ポインティング座標に対して最近傍に位置する3つの特徴点P’,P’,P’を抽出する。プロセッサは、空間における3次元のポインティング座標を、上記の3点(P’,P’,P’)を含む平面上の点と仮定して、例えば以下の式3によってポインティング座標P’(x,y,z)を算出する。
Figure JPOXMLDOC01-appb-M000003
 上記の式3において、aおよびbの値を求めれば、上記の3点を含む平面上の点を求めることができる。例えばサーバ100のプロセッサによって実行される以上のような処理によって、閲覧ユーザは、フレームのピクセルへのポインティングではなく、フレームから認識された空間座標における3次元の点へのポインティングを実行することができる。
 なお、上記の例では、ユーザUのディスプレイからの距離に応じて視点移動モードとポインティングモードとの切替えが実行されたが、この距離は、例えばディスプレイが比較的大型である場合にはディスプレイからユーザUの立ち位置までの距離であってもよい。また、例えば、タブレット端末やスマートフォンなどに設けられた比較的小型のディスプレイの場合には、視点移動モードとポインティングモードとの切替えに用いられる距離が、ジェスチャを実行しているユーザUの手(指)までの距離や、ユーザUが把持しているポインティングデバイスまでの距離として特定されてもよい。例えば、ユーザUが手のジェスチャによってポインティング操作を開始した場合、ディスプレイから手までの距離が閾値を超えている場合には視点移動モードが選択される。その後、ディスプレイから手までの距離が閾値以下になった場合に、上述のように視点移動モードがポインティングモードに切り替えられてもよい。
  (応用例2)
 さらに、既に述べたように、本実施形態では実空間の位置を基準にしてアノテーションをやりとりする技術を利用することが可能である。この技術を利用すれば、タブレット端末300(受信側の装置)のユーザは、3人称画像1020や1.3人称画像1030において表示されるストリーミングフレーム1021,1031以外の領域に対してもアノテーションを入力することができる。これによって、例えば、ウェアラブル端末200(送信側の装置)が過去に見ていたが現在は見ていないオブジェクトや実空間内の位置に対してもアノテーションを加えることが可能である。このアノテーションは、例えば、後にストリーミングフレーム1021,1031が移動した場合に表示されてもよいし、後述する例のように、ウェアラブル端末200において、画像1200の外にアノテーションが存在することを示す通知が表示されてもよい。
 図11および図12は、本開示の一実施形態において異なる視点の画像が同時に表示される例を示す図である。図11に例示する画像1040では、3人称画像1020と1人称画像1010とが同時に表示されている。このとき、3人称画像1020では、例えば1人称画像の視点オブジェクト1022が強調表示されてもよい。また、図示された例では3人称画像1020の画面の子画面として1人称画像1010が表示されているが、逆に1人称画像1010の画面の子画面として3人称画像1020が表示されてもよい。
 一方、図12に例示する画像1050では、3人称画像1020と1.3人称画像1030とが同時に表示されている。このとき、3人称画像1020では、例えば1.3人称画像の視点オブジェクト1023が強調表示されてもよい。また、図示された例では3人称画像1020の画面の子画面として1.3人称画像1030が表示されているが、逆に1.3人称画像1030の画面の子画面として3人称画像1020が表示されてもよい。
 このように、異なる視点の画像を同時に表示して受信側の装置(上記の例ではタブレット端末300)のユーザに提供することによって、例えば、ユーザが所望する共有体験を提供する画像がどの視点からの画像であるかを容易に発見することができる。
 (4.アノテーションの実空間への表示)
 続いて、図13~図20を参照して、本開示の一実施形態におけるアノテーションの実空間への表示について説明する。本実施形態では、上記のように、送信側の装置において送信される実空間の画像データに空間情報が付加される。空間情報は、例えば送信側の装置の撮像部の実空間における位置および姿勢を示す情報である。この情報を利用すれば、受信側の装置で入力されたアノテーションを、さまざまな形で送信側の装置がある実空間に直接的または間接的に表示させることが可能である。
 なお、以下の説明では、送信側の装置、受信側の装置、およびサーバの動作について、特定の装置の例を用いて説明するが、同様の構成は、これらの例に関わらず上述したシステム10における任意の装置の組み合わせによって実現されうる。
 (4-1.表示例)
 図13は、本開示の一実施形態におけるアノテーション表示の第1の例を示す図である。図13には、タブレット端末300cとタブレット端末300dとが示されている。図示された例において、タブレット端末300cは、図示しないカメラ(撮像部)によって実空間の画像を撮像し、それをディスプレイ330c(表示部)に画像1300cとして表示させる。タブレット端末300cのユーザは、ディスプレイ330c上に設けられたタッチセンサ340(操作部)によって画像1300cに対するアノテーション1310cを入力する。ここで、タブレット端末300cでは、画像1300c内の位置ではなく、画像1300cによってとらえられている実空間内の位置を指定してアノテーション1310cが入力される。実空間内の位置は、タブレット端末300cが撮像画像とともに取得する空間情報に基づいて指定することが可能であり、例えばタブレット端末300cの撮像部を基準にした相対的な位置、または空間内の特徴点などを基準とした位置として表現されうる。
 一方、タブレット端末300dも、図示しないカメラ(撮像部)によって実空間の画像を撮像し、それをディスプレイ330d(表示部)に画像1300dとして表示させている。図示されているように、タブレット端末300cとタブレット端末300dとは同じ空間にあり、タブレット端末300dのカメラの画角にはタブレット端末300cが含まれるため、画像1300dにはタブレット端末300c’が映っている。さらに、タブレット端末300cにおいて入力された画像1300cに対するアノテーション1310cの情報は、サーバ100を介して、または機器間通信によってタブレット端末300dに送信されており、画像1300dにおいてアノテーション1310dとして表示される。
 ここで、アノテーション1310dは、タブレット端末300cにおいて指定された実空間内の位置に表示される。このことは、アノテーション1310dが画像1300d内でタブレット端末300c’から離れた空中に表示されていることによって表現されている。タブレット端末300dも撮像画像とともに空間情報を取得することが可能であり、取得した空間情報によって空間内でのタブレット端末300cの位置、または空間内の特徴点の位置などを特定することができる。従って、タブレット端末300dは、例えばタブレット端末300cから取得した実空間内の位置を示す情報と、自ら取得した空間情報とに基づいてアノテーション1310dの空間内での位置を特定することができる。
 なお、上記の例を、図1を参照して説明したシステム10に対応付けると、タブレット端末300cが(1)および(2)の装置として機能しており、タブレット端末300dが(3)の装置として機能していることになる。上記のように、タブレット端末300cにおいて入力されたアノテーション1310cの情報は機器間通信によってタブレット端末300dに送信されてもよい。この場合、上記の例は、各装置がサーバを介さずに通信し、いずれかの装置において空間情報を利用した画像処理が実行されるシステム10の変形例を示しているともいえる。
 図14は、本開示の一実施形態におけるアノテーション表示の第2の例を示す図である。図14には、タブレット端末300と、プロジェクタ700(図示せず)によって画像が投影されるスクリーン(SCREEN)とが示されている。図示された例において、タブレット端末300は、図示しないカメラ(撮像部)によって実空間の画像を撮像し、それをディスプレイ330(表示部)に画像1300として表示させる。図示されているように、タブレット端末300のカメラの画角にはスクリーンが含まれるため、画像1300にはスクリーン(SCREEN’)が映っている。
 タブレット端末300のユーザは、ディスプレイ330上に設けられたタッチセンサ340(操作部)によって画像1300に対するアノテーション1310を入力する。図示された例において、アノテーション1310は、スクリーン(SCREEN’)上に描かれる落書きである。アノテーション1310は、例えばタブレット端末300が撮像画像とともに取得する空間情報に基づいて、実空間におけるスクリーン(SCREEN)上の位置に関連付けられる。タブレット端末300において入力されたアノテーション1310の情報は、実空間の位置情報(スクリーンの位置を示す)とともに、サーバ100を介して、または機器間通信によってプロジェクタ700に送信される。
 プロジェクタ700は、撮像画像は取得しないが、タブレット端末300と同様に空間情報を取得しており、スクリーン(SCREEN)の実空間における位置を認識している。従って、プロジェクタ700は、タブレット端末300においてアノテーション1310として入力されたのと同様のアノテーション1710(落書き)をスクリーン(SCREEN)に投影することができる。この場合、プロジェクタ700は、タブレット端末300でディスプレイ330に表示されている画像1300(仮想空間)に対して入力されたアノテーションを、に投影することによって実空間に直接的に表示させているともいえる。
 図15には、本開示の一実施形態におけるアノテーション表示の第3の例を示す図である。図15には、タブレット端末300と、ラップトップPC500とが示されている。図示された例において、タブレット端末300は、図示しないカメラ(撮像部)によって実空間の画像を撮像し、それをディスプレイ330(表示部)に画像1300として表示させる。図示されているように、タブレット端末300のカメラの画角にはラップトップPC500のディスプレイ530(表示部)が含まれるため、画像1300にはディスプレイ530’が映っている。
 タブレット端末300のユーザは、ディスプレイ330上に設けられたタッチセンサ340(操作部)によって画像1300に対するアノテーション1310を入力する。図示された例において、アノテーション1310は、ディスプレイ530’上に表示されたコンテンツのサムネイル画像の1つを囲む円である。アノテーション1310は、例えばタブレット端末300が撮像画像とともに取得する空間情報に基づいて、実空間におけるディスプレイ530の位置に関連付けられる。タブレット端末300において入力されたアノテーション1310の情報は、実空間の位置情報(ディスプレイ530の位置を示す)とともに、サーバ100を介して、または機器間通信によってラップトップPC500に送信される。
 ラップトップPC500は、撮像画像は取得しないが、タブレット端末300と同様に空間情報を取得しており、実空間におけるディスプレイ530の位置を認識している。従って、ラップトップPC500は、タブレット端末300において入力されたアノテーション1310に対応して、アノテーション1310として入力されたのと同様のアノテーション1510(サムネイル画像の1つを囲む円)をディスプレイ530に表示させることができる。この場合、ラップトップPC500は、タブレット端末300でディスプレイ330に表示されている画像1300(仮想空間)に対して入力されたアノテーションを、実空間の一部を構成するディスプレイ530に表示させることによって実空間に直接的に表示させているといえる。
 図16は、本開示の一実施形態におけるアノテーション表示の第4の例を示す図である。図16には、ウェアラブル端末200と、タブレット端末300と、プロジェクタ700とが示されている。図示された例において、ウェアラブル端末200は、カメラ260(撮像部)によって実空間の画像を撮像するとともに空間情報を取得し、撮像画像のデータを空間情報とともにサーバ100を介してタブレット端末300に送信する。ここで、タブレット端末300は、例えばウェアラブル端末200およびプロジェクタ700とは異なる場所に存在してもよい。
 タブレット端末300は、受信した画像をディスプレイ330(表示部)に画像1300として表示させる。図示されているように、画像1300には、ウェアラブル端末200と同じ空間にあるテーブルと、テーブルの上のカップ、皿、鍵(KEY’)が含まれる。タブレット端末300のユーザは、ディスプレイ330上に設けられたタッチセンサ340(操作部)によって画像1300に対するアノテーション1310を入力する。図示された例において、アノテーション1310は、鍵(KEY’)を囲む円と、「Please bring this(これをもってきて)」というメッセージとを含む。アノテーション1310は、ウェアラブル端末200から画像とともに受信された空間情報に基づいて、実空間における鍵(KEY)の位置に関連付けられる。タブレット端末300において入力されたアノテーション1310の情報は、実空間の位置情報(例えば鍵(KEY)の位置を示す)とともに、サーバ100を介してプロジェクタ700に送信される。
 プロジェクタ700は、撮像画像は取得しないが、ウェアラブル端末200と同様に空間情報を取得しており、画像が投影される面(図示された例では例えばテーブルの表面)の実空間における位置を認識している。従って、プロジェクタ700は、タブレット端末300においてアノテーション1310として入力されたのと同様のアノテーション1710(円およびメッセージ)を、テーブルの上の鍵(KEY)の周りに投影することができる。これによって、ウェアラブル端末200のユーザは、テーブルの表面に投影されたアノテーション1710を直接視認することができうる。従って、この場合、ウェアラブル端末200は、ディスプレイなどの表示部を有さなくてもよい。
 上記の例では、ウェアラブル端末200において撮像された実空間の画像に付加された空間情報に基づいて特定される実空間の位置情報を基準にすることによって、タブレット端末300において入力されたアノテーションを、画像を撮影した装置とは異なる装置であるプロジェクタ700によって実空間に表示させることが可能になる。このような構成よって、例えばウェアラブル端末200が必ずしもディスプレイなどの表示部を有さなくてもよくなり、AR技術を利用したユーザ間のインタラクションを実践するにあたっての装置構成の自由度が向上しうる。
 図17は、本開示の一実施形態におけるアノテーション表示の第5の例を示す図である。図17には、固定カメラ600と、タブレット端末300と、プロジェクタ700とが示されている。なお、プロジェクタ700は、これまでの例で示された固定型のものとは異なり、ハンドヘルド型でありうる。図示された例において、固定カメラ600は、カメラ660(撮像部)によって実空間の画像を撮像するとともに空間情報を取得し、撮像画像のデータを空間情報とともにサーバ100を介してタブレット端末300に送信する。ここで、タブレット端末300は、例えば固定カメラ600およびプロジェクタ700とは異なる場所に存在してもよい。
 なお、固定カメラ600は移動しないため、固定カメラ600における空間情報は上記の例えばウェアラブル端末200などの場合とは異なる方法で取得されてもよい。例えば、固定カメラ600における空間情報は、設置時などに周辺環境を計測して設定された固定の情報であってもよい。この場合、固定カメラ600は、メモリに格納された空間情報を有するほかは、空間情報の取得のためのセンサなどは有さなくてもよい。このような空間情報の取得は、他の固定型の装置においても可能である。
 タブレット端末300は、受信した画像をディスプレイ330(表示部)に画像1300として表示させる。図示されているように、画像1300には、固定カメラ600の下にあるテーブルと、テーブルの上の鍵(KEY’)が含まれる。タブレット端末300のユーザは、ディスプレイ330上に設けられたタッチセンサ340(操作部)によって画像1300に対するアノテーション1310を入力する。図示された例において、アノテーション1310は、鍵(KEY’)を囲む円を含む。アノテーション1310は、固定カメラ600から画像とともに受信された空間情報に基づいて、実空間における鍵(KEY)の位置に関連付けられる。タブレット端末300において入力されたアノテーション1310の情報は、実空間の位置情報(例えば鍵(KEY)の位置を示す)とともに、サーバ100を介してプロジェクタ700に送信される。
 プロジェクタ700は、撮像画像は取得しないが(してもよい)、空間情報を取得しており、画像が投影される面(図示された例では例えばテーブルの表面)の実空間における位置を認識している。従って、プロジェクタ700は、タブレット端末1310においてアノテーション1310として入力されたのと同様のアノテーション1710(円)を、テーブルの上の鍵(KEY)の周りに投影することができる。なお、プロジェクタ700はハンドヘルド型であり、ユーザに携帯されて容易に移動することが可能である。従って、プロジェクタ700における空間情報の取得方法は、例えばウェアラブル端末200などの携帯型の端末と同様でありうる。
 上記の例では、固定カメラ600において撮像された実空間の画像に付加された空間情報に基づいて特定される実空間の位置情報を基準にすることによって、タブレット端末300において入力されたアノテーションが、画像を撮像した装置とは異なる装置であるプロジェクタ700によって実空間に直接的に表示される。この例において、プロジェクタ700はハンドヘルド型であり、ユーザに携帯されて実空間内の任意の位置に画像を投影することが可能である。それゆえ、例えば、ユーザは、あたかも懐中電灯を用いて暗闇の中を探索するかのように、プロジェクタ700で実空間内のいろいろな場所に画像を投影させることによって、タブレット端末300のユーザが入力したアノテーションによってよって指示されたオブジェクトまたは位置を探索することができる。この場合、ユーザは、ウェアラブル端末200のような装置を装着する必要すらなく、より自由にAR技術を利用したユーザ間のインタラクションを実践することができる。
 図18は、本開示の一実施形態におけるアノテーション表示の第6の例を示す図である。図18の例は、上記で図16を参照して説明した例の変形例ともいえる。図には、ウェアラブル端末200と、タブレット端末300とが示されている。図示された例において、ウェアラブル端末200は、カメラ260(撮像部)によって実空間の画像を撮像するとともに空間情報を取得し、撮像画像のデータを空間情報とともにサーバ100を介して、ウェアラブル端末200およびタブレット端末300とは異なる場所にある装置に送信する。なお、図では送信先の装置は図示されていない。
 タブレット端末300は、上記送信先の装置において入力されたアノテーションの情報をサーバ100から受信する。タブレット端末300は、ウェアラブル端末200と同じ空間にあるテーブルの上に置かれている。タブレット端末300は、撮像画像を取得していないが(撮像部自体は有していてもよい)、ウェアラブル端末200と同様に空間情報を取得しており、実空間におけるディスプレイ330の位置を認識している。図示された例において、テーブルの上に置かれたタブレット端末300のディスプレイ330には、隣にある鍵(KEY)を指す矢印1310が表示されている。この矢印は、上記送信先の装置において、画像に表示された鍵に対して入力されたアノテーションに対応する表示でありうる。
 (4-2.アノテーションの配置)
 図19は、本開示の一実施形態におけるアノテーションの配置について説明するための図である。図19に示されたウェアラブル端末200は、カメラ260(撮像部)で撮像した実空間の画像を空間情報とともにサーバ100に送信する。さらに、ウェアラブル端末200は、送信した画像に対して他の装置で入力されたアノテーションの情報を実空間の位置情報とともに受信し、受信した情報に基づいて、ディスプレイ230(表示部)を透過して視認される実空間の像に重畳してアノテーション1210を表示させる。なお、アノテーション1210は、実空間の像に重畳して仮想的に表示された結果ウェアラブル端末200のユーザに認識される位置に図示されている。つまり、図示されたようなアノテーション1210は、ウェアラブル端末200のユーザ以外には不可視である。
 アノテーション1210は、テーブルの上にある鍵(KEY)を指して表示されるが、図ではその2つの例が示されている。ここでいう2つの例とは、空間配置されるアノテーション1210a、およびオブジェクト配置されるアノテーション1210bである。
 図示された例において、アノテーション1210aは、鍵(KEY)の上方の空中に表示される。このようなアノテーションの空間配置は、画像を視認するユーザの注意を惹きやすいため、例えばアノテーションによって方向を指示したい場合などに適する。また、例えば写真の撮影アングルなどを表現したい場合、写真撮影時にカメラが配置されていた位置は空中であることが多いので(カメラは通常ユーザに把持されるか三脚などの上に設置されるため)、アノテーションの空間配置は有用でありうる。なお、上記のアノテーションの空間配置は、例えばアノテーションがディスプレイに画像として表示される場合に可能でありうる他、例えば上記の図16および図17の例のようにアノテーションがプロジェクタによって投影して表示される場合にも、例えばプロジェクタが3Dプロジェクタであれば可能である。
 一方、アノテーション1210bは、鍵(KEY)が置かれたテーブルの上で、鍵(KEY)の近傍に表示される。このようなアノテーションのオブジェクト配置は、アノテーションの対象になっているオブジェクトとの関係が認識されやすいため、例えばアノテーションによってオブジェクトを指示したい場合などに適する。なお、アノテーションをオブジェクト配置する場合、対象となるオブジェクトを特定するために、SLAM法などによって検出された特徴点や、デンスマッピングの3次元データなどが用いられうる。あるいは、公知のオブジェクト認識技術によって個々のオブジェクトが認識されている場合、それらのオブジェクトの中から対象となるオブジェクトが特定されてもよい。オブジェクトが認識されている場合、例えばオブジェクトが(ユーザの手で移動されるなどして)空間とは独立して移動したような場合でも、オブジェクトを追尾してアノテーションを配置することが可能である。
 アノテーション入力を受け付ける装置(以下、例としてタブレット端末300とするが、他の装置であってもよい)では、上記のようなアノテーションの空間配置とオブジェクト配置とが、何らかの方法で選択される。例えば、タブレット端末300またはサーバ100のプロセッサが、ユーザが入力しようとしているアノテーションの種類に応じて空間配置またはオブジェクト配置を自動的に初期設定してもよい。上記のように、方向の指示や撮影アングルの表示の場合には空間配置が自動的に選択され、オブジェクトの指示の場合にはオブジェクト配置が自動的に選択されうる。また、アノテーションの配置は、装置の操作部に対するユーザの操作によって選択可能であってもよい。
 例えば、図20に示した例のように、タブレット端末300のディスプレイ330に表示された画像1300に対してタッチセンサ340を用いてアノテーション1310を入力する場合、空間配置されたアノテーション1310aとオブジェクト配置されたアノテーション1310bとが両方表示され、ユーザがタッチ操作によっていずれかを選択するGUI(Graphical User Interface)が提供されてもよい。
 例えばこのようなGUIによってアノテーション1310の配置を切り替える場合、アノテーション1310が空間配置によって空中に表示されているのか、オブジェクト配置によってその奥のオブジェクトの面に表示されているのかが識別しにくい場合がある。そのような場合のために、例えば、空間配置されたアノテーション1310aについては、画像1300に映った実空間の上方を光源として影を表示させることによって、空中に配置されていることを識別しやすくしてもよい。同様の表示として、空間配置されたアノテーション1310から、その下のオブジェクトの面までの垂線を表示してもよい。また、アノテーション1310の奥行き方向の位置を認識しやすくするために、画像1300の奥行き方向にグリッドを表示してもよい。アノテーション1310の奥行き方向の位置の調整には、タッチセンサ340を利用したピンチイン/アウトや、別途設けられる手前/奥への移動ボタンが用いられてもよい。また、タブレット端末300のセンサがタブレット端末300自体をユーザから見て手前/奥に動かす動きを検出して、プロセッサがその動きをアノテーション1310の奥行き方向の位置に反映されてもよい。
 (5.視認可能範囲外にあるアノテーションの表示)
 続いて、図21~図32を参照して、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示について説明する。本実施形態では、上記のように、送信側の装置において送信される実空間の画像データに空間情報が付加される。この空間情報を利用すれば、受信側の装置では、送信側の装置で表示されている画像の表示範囲に関わらず、実空間の任意の位置に対してアノテーションを入力することが可能である。
 例えば、上述した図3Aおよび図3Bの例では、ウェアラブル端末200(送信側の装置)でディスプレイ230(表示部)に表示される画像1200の表示範囲よりも、カメラ260(撮像部)によって撮像されてタブレット端末300(受信側の装置)において表示される画像1300の表示範囲の方が広い。このような場合、タブレット端末300では、現時点ではウェアラブル端末200で表示される画像1200の表示範囲に含まれていない実空間の位置に対してもアノテーション1310,1320を入力することが可能である。入力されたアノテーションは、ウェアラブル端末200で取得された空間情報に基づいて定義される実空間での位置情報に関連付けてタブレット端末300、サーバ100またはウェアラブル端末200で保持され、後にウェアラブル端末200とともにカメラ260が移動したことによってその位置が画像1200の表示範囲内になった場合に、画像1200にアノテーション1210,1220として表示されうる。
 また、例えば、上述した図7~図10Cの例では、3人称画像1020または1.3人称画像1030として、送信側の装置で視認されている1人称画像1010を超えた範囲の画像が表示され、受信側の装置でこれらの画像を閲覧するユーザは、1人称画像1010の表示範囲の外にある実空間に対してもアノテーションを入力することが可能である。この場合も、入力されたアノテーションは、送信側の装置で取得された空間情報に基づいて定義される実空間での位置情報に関連付けて保持され、後に1人称画像1010の表示範囲が移動してその位置を含むようになった場合に表示されうる。
 上記のような場合、例えば送信側の装置(以下、例としてウェアラブル端末200とする)のユーザがアノテーションの存在を知らなければ、アノテーションが画像1200の表示範囲に含まれることなく時間が経過してしまう可能性がある。AR技術を利用したユーザ間のインタラクションでは、多くのアノテーションは受信側の装置(以下、例としてタブレット端末300とする)のユーザがウェアラブル端末200のユーザに何かを伝えるために入力すると考えられるため、アノテーションの存在はウェアラブル端末200のユーザに知らされる方が望ましい。
 そこで、本実施形態では、以下の例に示すように、視認可能範囲外にあるアノテーションに関する情報が表示されうる。これらの情報の表示もまたアノテーションの一種であるが、以下の説明では、受信側の装置のユーザによって入力されたものを特にアノテーションと呼んで区別する場合がある。これらの表示のための表示制御は、例えばアノテーションを表示させる装置(例えばウェアラブル端末200やタブレット端末300など)のプロセッサで実行されてもよいし、これらの装置における視認可能範囲外を認識しているサーバ100のプロセッサによって実行されてもよい。なお、以下の例は、例えば上述したさまざまな例とは独立して、実空間の画像の視認可能範囲外にアノテーションが入力される可能性がある場合には遍く適用されうる。
  (第1の例)
 図21~図23は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第1の例を示す図である。
 図21は、アノテーションが画像1200(視認可能範囲)の中にある場合の表示例を示す。この場合、アノテーションは、テーブルの上に置かれたカップ(CUP)を対象として表示され、ポインタ1210と、コメント1220とを含む。
 図22は、アノテーションの対象であるカップ(CUP)が画像1200の外にある場合の表示例を示す。この場合、図21に示したようなアノテーションの代わりに、アノテーションの対象が存在する方向を示す方向表示1230が表示されうる。方向表示1230は、例えば、ウェアラブル端末200が取得している空間情報に基づいて、画像1200の表示範囲とアノテーションの対象との位置関係を特定することによって表示可能になる。また、このとき、アノテーションのうちのコメント1220が、方向表示1230とともに表示されてもよい。コメント1220は、アノテーションの内容または種類などを示す情報であるため、ポインタ1210ではなく方向表示1230とともに表示されても有用である。
 図23は、ウェアラブル端末200のユーザが方向表示1230に応じてカメラ260の向きを変えたことなどによって画像1200の表示範囲が移動し、アノテーションの対象であるカップ(CUP)の一部が画像1200に含まれるようになった場合の表示例を示す。この場合、対象の全部が画像1200に含まれていなくても、ポインタ1210の一部とコメント1220とがアノテーションとして表示されてもよい。
  (第2の例)
 図24および図25は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第2の例を示す図である。この第2の例では、視認可能範囲外にアノテーションの対象が存在することに加えて、アノテーションの対象までの距離が表示される。
 図24は、視認可能範囲からアノテーションの対象までの距離が異なる2つの画像に対する表示の例を示す図である。この例では、視認可能範囲外にアノテーションが存在することが、円1240によって表示される。円1240は、図25にも示すように、アノテーションの対象から視認可能範囲までの距離に応じた半径で表示される。図25Aに示されるように、アノテーションの対象から視認可能範囲(画像1200a)までの距離が大きい場合、より大きい半径rの円1240aが表示される。また、図25Bに示されるように、アノテーションの対象から視認可能範囲(画像1200b)までの距離が小さい場合、より小さい半径rの円1240bが表示される。円1240の半径rは、アノテーションの対象までの距離に応じて連続的に設定されてもよいし、段階的に設定されてもよい。また、図24に示されるように、円1240とともに、アノテーションのうちのコメント1220が表示されてもよい。
 このように円1240を表示することによって、例えば、画像1200を見ているユーザが、視認可能範囲外にアノテーションが存在することだけではなく、画像1200の表示範囲をどの方向にどの程度移動させればアノテーションを視認することができるかを直感的に把握することができうる。
  (第3の例)
 図26および図27は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第3の例を示す図である。
 図26は、アノテーションの対象であるリンゴ(APPLE)が画像1200の外にある場合の表示例を示す。この場合、図22の例と同様の方向表示1250とともに、対象のアイコン1251が表示されうる。アイコン1251は、例えば現在または過去においてカメラ260が撮像した画像にリンゴ(APPLE)が含まれる場合、サーバ100またはウェアラブル端末200のプロセッサがカメラ260によって撮像された画像からリンゴAPPLEの部分を切り出すことによって生成されうる。この場合、アイコン1251は、カメラ260が取得するフレーム画像の変化に応じて変化する必要はなく、例えば静止画であってよい。あるいは、リンゴAPPLEがオブジェクト認識されている場合であれば、カメラ260が撮像した画像に関係なく、リンゴを表すイラストや写真がアイコン1251として表示されてもよい。また、このとき、アノテーションのうちのコメント1220が、方向表示1250およびアイコン1251とともに表示されてもよい。
 図27は、ウェアラブル端末200のユーザが方向表示1230に応じてカメラ260の向きを変えたことなどによって画像1200の表示範囲が移動し、アノテーションの対象であるリンゴ(APPLE)の一部が画像1200に含まれるようになった場合の表示例を示す。この場合、方向表示1250およびアイコン1251の表示が終了し、図23の例と同様にポインタ1210の一部とコメント1220とがアノテーションとして表示されてもよい。
 このようにアイコン1251を表示することによって、例えば、画像1200を見ているユーザが、視認可能範囲外にアノテーションが存在することだけではなく、アノテーションの対象が何であるかを把握することができ、すぐに見るか、後で見るかといった行動の決定が容易になりうる。
  (第4の例)
 図28は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第4の例を示す図である。図示された例では、アノテーションの対象であるリンゴ(APPLE)が画像1200の外にある場合に、リンゴにより近い画像1200の端部分1260が光る。例えば、画像1200aでは、リンゴが画面の右下の方向にあるため、右下の端部分1260aが光る。また、画像1200bでは、リンゴが画面の左上の方向にあるため、左上の端部分1260bが光る。画像1200cでは、リンゴが画面の左下の方向にあるため、左下の端部分1260cが光る。
 上記の例において、端部分1260の領域は、画像1200からみてアノテーションの対象が存在する方向に基づいて設定されうる。図には斜め方向の例が示されているが、他の例では、リンゴが画像1200の左方向にある場合に、左の端部分1260が光ってもよい。この場合、端部分1260は、画像1200の左側の辺の全体であってもよい。また、アノテーションの対象が斜め方向に存在し、画像1200の角を含む端部分1260が光る場合、角を挟んだ端部分1260の縦部分と横部分の比率は、アノテーションの対象が存在する方向の角度に応じて設定されてもよい。この場合、例えば、より上に近い左上に対象が存在すれば端部分1260の縦部分(画像1200の左辺に沿う)よりも横部分(画像1200の上辺に沿う)が長くなりうる。逆に、より左に近い左上に対象が存在すれば端部分1260の横部分(画像1200の上辺に沿う)よりも縦部分(画像1200の左辺に沿う)が長くなりうる。また、別の例において、端部分1260は光る代わりに所定の色(透過色でありうる)で着色されてもよい。
 このように、端部分1260の表示の変化によって視認可能範囲外にアノテーションが存在することを通知する場合、例えば矢印などによる別途の方向表示をしなくてもよいため、画像1200の表示を邪魔することなくアノテーションの存在を通知することができる。
  (第5の例)
 図29は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第5の例を示す図である。図示された例では、アノテーションとしてコメント1220が表示されている。しかし、コメント1220は横に長いため、画像1200には表示しきれていない。図では、これによって生じる非表示部分1221も示されている。この場合のコメント1220の非表示部分1221も、視認可能範囲外にあるアノテーションであるといえる。この非表示部分1221の存在を示すために、コメント1220が画像1200の端部に当接した部分に発光領域1280が表示される。
 ここで、発光領域1280の長さは、非表示部分1221の長さ(例えば長さ方向のピクセル数などで表現されてもよく、コメント1220の表示部分との比率や他の非表示部分1221との比率によって表現されてもよい)に応じて設定されうる。図示された例では、コメント1220aの非表示部分1221aについて発光領域1280aが表示され、コメント1220bの非表示部分1221bについて発光領域1280bが表示されるが、非表示部分1221aよりも非表示部分1221bの方が長いことを反映して、発光領域1280aよりも発光領域1280bの方が長く表示されてもよい。
 このように、発光領域1280の表示によって視認可能範囲外にアノテーションが存在することを通知する場合、アノテーションであるコメント1220の内部で表示を完結させることができるため、画像1200の表示を邪魔することなくアノテーションの存在を通知することができる。また、非表示部分1221の長さに応じて発光領域1280の長さが設定される場合、コメント1220が全体としてどのくらいの長さであるかがユーザに直感的に把握されるため、すぐに見るか、後で見るかといった行動の決定が容易になる。なお、コメント1220の非表示部分1221を画像1200の表示に含めようとする場合、例えば画像1200の表示範囲を移動させてもよいし、あるいはコメント1220を画像1200の内側(図示された例のコメント1220aであれば左側、コメント1220bであれば右側)にドラッグしてもよい。
  (第6の例)
 図30は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第6の例を示す図である。図示された例では、道案内で方向を示す矢印のアノテーション1210が表示されている。このアノテーション1210は、例えばユーザが画像1200bを見ている場合には視認可能であるが、画像1200aを見ている場合には視認可能ではない。そこで、ユーザが画像1200aを見ている場合には、アノテーション1210の影1290が表示されうる。影1290が表示されることによって、画像1200aを見ているユーザは、画面の上方の外にアノテーションが存在することを認識することができる。
 その後、ユーザが画像1200bを見るようになった場合、影1290の表示は終了してもよいし、継続されてもよい。影1290がアノテーション1210とともに継続して表示される場合、影1290が表示されることによって、ユーザは空中に配置されたアノテーション1210の奥行き方向の位置を認識することが容易になりうる。
 このように影1290を表示することによって、仮想的な光源の方向による制約はあるものの、違和感のない表示によってユーザにアノテーションの存在を通知することができる。
  (応用例)
 図31および図32は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の応用例を示す図である。図示された例では、ウェアラブル端末200のユーザが見ている画像1200が画像1200aから画像1200b、さらに画像1200cへと変化する中で、アノテーションの表示が変化する。画像1200には、アノテーションとして、ポインタ1210と、方向表示1230と、コメント1220とが表示される。
 なお、ポインタ1210は、上記のいくつかの例とは異なり、例えばユーザの注視領域を示すアイコンとして画像1200の中央付近に継続して表示される。ウェアラブル端末200のユーザは、例えばタブレット端末300のユーザによって入力されたアノテーションの対象(図示された例では鍋(PAN))がポインタ1210に入るように、方向表示1230によって誘導される。
 画像1200aおよび画像1200bでは、鍋(PAN)がユーザの視認可能範囲外にあるため、鍋のある方向を示す方向表示1230aおよび方向表示1230bが表示される。ユーザが方向表示1230に従って画像1200の表示範囲を移動させ、画像1200cで鍋を表示範囲に捉え、さらにポインタ1210の中に鍋を入れると、そこで初めてコメント1220が表示される。このときの画像1200cを、図32に別途示す。
 このような表示の変化は、アノテーションの対象である鍋(PAN)がポインタ1210の中に入ったことによって、ウェアラブル端末200のユーザが鍋に対するアノテーションを確認できる状態になったと判断されるために生じる。このように、確認が必要とされるアノテーションについては、アノテーションの対象がユーザの注視領域(またはフォーカス領域)に入った場合に確認可能な状態になったと認定してアノテーションの全体を表示することとし、それまでは方向表示1230などによって対象を注視領域(またはフォーカス領域)に入れるようユーザを誘導し続けてもよい。
 なお、ユーザがアノテーションを確認可能な状態になったことは、単にアノテーションの対象が注視領域(またはフォーカス領域)に入ったことだけではなく、その状態で所定の時間が経過したことによって認定されてもよい。
 (6.その他の表示例)
 続いて、図33~図35を参照して、本開示の一実施形態におけるその他の表示例について説明する。
 図33は、本開示の一実施形態におけるエッジ検出を利用したアノテーション対象物体の表示例を示す図である。図示された例では、車(VEHICLE)を対象にしてアノテーション1210が入力されている。画像1200では、アノテーション1210が表示されるとともに、車のエッジに光るエフェクト1285が表示される。このような表示は、例えば、ウェアラブル端末200での空間情報の生成処理によって、特徴点の解析などによって車(VEHICLE)のエッジが検出されている場合に可能である。
 エッジを基準にしてエフェクト1285を表示させることによって、例えば対象のオブジェクトが認識されておらず「この辺り」という位置の指定によってアノテーションが入力された場合にも、アノテーションの対象を表現することができる。対象のオブジェクトが認識されている場合には、そのオブジェクトのエッジについてエフェクト1285を表示させてもよい。
 図34および図35は、本開示の一実施形態におけるストリーミングフレームのロールバック表示の例を示す図である。この例では、図34に示されるように、ウェアラブル端末200(送信側の装置の例)のユーザが見ている画像1200が、画像1200pから画像1200q、画像1200r、画像1200sへと変化する。これらの画像は、いずれもストリーミングフレームとして順次サーバ100を介してタブレット端末300(受信側の装置の例)に送信される。
 タブレット端末300のユーザは、上記の各画像に対してアノテーションを入力することができる。図示された例では、画像1200pに対してアノテーション1210p(コメントA)が、画像1200qに対してアノテーション1210q(コメントB)が、それぞれ入力されている。これらのアノテーションは、リアルタイムで画像1200に表示されてもよいし、例えば画像1200の表示範囲が移動したなどの理由によってリアルタイムでは画像1200に表示されていなくてもよい。
 ここで、図示された例では、上記のようにアノテーションが入力されたストリーミングフレームを、図35に示すような一覧表示画面1205で後から閲覧することが可能である。一覧表示画面1205は、アノテーションが入力されたストリーミングフレーム、つまり画像1200p,1200qが一覧表示される。画像1200p,1200qには、例えばリアルタイムで表示されなかった(されていてもよい)アノテーション1210p,1210qがそれぞれ表示されうる。このような表示は、例えばサーバ100が画像1200pに対するアノテーション1210pの入力があったことを検出した場合に、ストリーミングフレームの中で画像1200pをスナップショットとして保存するとともにアノテーション1210pの情報を関連付けることによって可能になりうる。
 また、別の例として、一覧表示画面1205に代えて、画像1200に、画像1200pまたは画像1200qが取得された位置(つまり、画像1200の表示範囲が再び画像1200pまたは画像1200qと同じになる位置)までウェアラブル端末200のユーザを誘導するようなナビゲーションが表示されてもよい。この場合も、ユーザがナビゲーションに従って画像1200p,1200qと同様の画像1200を視認した場合には、画像1200にアノテーション1210pまたはアノテーション1210qが表示されてもよい。
 (7.アプリケーションの例)
 続いて、図36~図44を参照して、本開示の一実施形態を利用したアプリケーションの例について説明する。
 図36は、本開示の一実施形態に係る技術を利用して旅行者の視点を共有するアプリケーションの例を示す図である。例えばウェアラブル端末200などの送信側の装置を装着して旅行先の実空間の画像を提供するのは一般の旅行者でありうる(専門のレポーターであってもよい)。例えばタブレット端末300などの受信側の装置を用いて提供された画像1300を閲覧するユーザは、例えば画像全体に対して、または画像の中の特定のオブジェクトや位置に対してコメント1320(アノテーションの一例)を入力することが可能である。入力されたコメント1320は、ウェアラブル端末200のディスプレイに表示されて旅行者に対してリクエストやアドバイスなどを伝えるのに用いられてもよい。あるいは、コメント1320は、図示されているようにタブレット端末300の画像1300に表示されてもよい。この場合、例えば、複数のユーザがそれぞれ入力したコメント1320がいずれも画像1300上に表示されることによって、旅行者の視点を共有しているユーザ間でのコミュニケーションが発生してもよい。
 図37は、本開示の一実施形態に係る技術を利用して登山者の視点を共有するアプリケーションの例を示す図である。図36の例と同様に、例えばウェアラブル端末200などを装着して実空間の画像を提供するのは一般の登山者でありうる(専門のレポーターであってもよい)。例えばタブレット端末300などを用いて提供された画像1300を閲覧するユーザは、例えば画像全体に対して、または画像の中の特定のオブジェクトや位置に対してコメント1320(アノテーションの一例)を入力することが可能である。また、アノテーションの入力とは別に、画像1300を閲覧するユーザは、画像1300をキャプチャして写真のように保存してもよい。上記の例と同様に、入力されたコメント1320は、登山者に対してアドバイスなどを伝えたり、登山者の視点を共有しているユーザ間でのコミュニケーションに用いられたりしてもよい。
 図38は、本開示の一実施形態に係る技術を利用して料理をする人の視点を共有するアプリケーションの例を示す図である。例えばウェアラブル端末200などを装着して旅行先の実空間の画像を提供するのは、例えば料理が得意な一般のユーザでありうる(料理の先生であってもよい)。例えばタブレット端末300などを用いて提供される画像1300を閲覧するユーザは、例えば画像全体に対して、または画像の中の特定の位置に対してコメント1320を入力することができる。コメント1320は、例えばウェアラブル端末200のディスプレイに表示されて、先生役のユーザに質問などを伝えるのに用いられうる。コメント1320を、画像1300内の位置ではなくウェアラブル端末200の周囲の実空間の位置に関連付けることによって、例えば特定の材料や器具(図示された例では、鍋の中身を混ぜるおたまがもっと小さいものでもよいかという質問がされている)についてコメント1320が入力された場合に、ウェアラブル端末200の移動によって画像の表示範囲が変化していても、コメント1320を入力したユーザが意図した位置(上記の例であれば、おたまの位置)にコメントが表示されうる。
 図39は、本開示の一実施形態に係る技術を利用して買い物をする人の視点を共有するアプリケーションの例を示す図である。この例では、ウェアラブル端末200などを装着して店頭の画像を提供するユーザに対して、タブレット端末300などを用いてこの画像を共有するユーザは、個別の画像の共有を許可されたユーザ、例えば画像を提供するユーザの家族などでありうる。つまり、図39の例では、プライベートな範囲で実空間の画像が共有されている。実空間の画像をプライベートに共有するか、パブリックに共有するかは、例えば提供される実空間の画像の種類や、画像を提供するユーザがアノテーションとしてどのような情報を得られることを望んでいるかによって適宜設定されうる。
 図示された例では、コメント1320として、買い物リスト1320pと、リンゴのうちの1つを指定するコメント1320qとが入力されている。このうち、リンゴを指定するコメント1320qは、ウェアラブル端末200の移動によって画像の表示範囲が変化しても同じリンゴに対して表示されることが望ましいため、ウェアラブル端末200の周囲の実空間の位置に関連付けられうる。一方、買い物リスト1320pは、ウェアラブル端末200の移動によって画像の表示範囲が変化しても引き続き画像の同じ位置に表示されることが望ましいため、画像1300内の位置に関連付けられてもよい。このように、アノテーションが入力される装置(例えばタブレット端末300)のプロセッサは、アノテーションの種類やユーザ操作などに応じて、アノテーションを実空間の位置に関連付けるか、画像内の位置に関連付けるかを切り替えてもよい。
 図40は、本開示の一実施形態に係る技術を利用して工作をする人の視点を共有するアプリケーションの例を示す図である。この例では、ウェアラブル端末200などを装着して工作過程の画像を提供するユーザに対して、タブレット端末300などを用いてこの画像を共有するユーザは、画像を提供するユーザが予め先生として指定したユーザでありうる。先生役のユーザは、画像1300を閲覧し、例えばコメント1320s(部品が壊れやすいことへの注意を喚起するアドバイス)などのアノテーションを入力することができる。一方、画像を提供するユーザも、例えば音声認識など(キーボードなどによる入力でもよい)を利用して、例えば先生役のユーザへの質問などのコメント1320tを入力することが可能でありうる。
 つまり、図示された例では、コメント1320を介して、画像を提供するユーザと先生役のユーザとの間で例えば工作に関するインタラクティブな会話が可能である。この場合も、コメント1320が実空間の位置に関連付けられることによって、対象になっている部品などの位置に正確にコメントを表示させることができる。なお、この画像は、さらに別のユーザとの間でも共有することが可能であってもよい。この場合、画像を提供するユーザおよび先生役のユーザ以外の他のユーザによるコメント1320の入力は制限されてもよい。あるいは、他のユーザによって入力されたコメント1320は、他のユーザ同士の間に限って画像1300に表示されてもよい。
 図41~図44は、本開示の一実施形態に係る技術を利用して複数のユーザの視点を切り替えて共有するアプリケーションの例を示す図である。
 図41は、視点の切り替えを概念的に説明するための図である。図41には、同じ実空間に存在する2つのウェアラブル端末200a,200bが、それぞれ撮像部を有して画像1200a,1200bを取得している様子が示されている。このとき、ウェアラブル端末200a,200bがそれぞれ空間情報を取得していれば、実空間の位置情報を介して互いの位置(視点位置)を認識することができる。従って、例えば、画像1200aに映っているウェアラブル端末200b、または画像1200bに映っているウェアラブル端末200aを選択することによって、画像1200aの表示と画像1200bの表示とを切り替えることができる。
 図42は、3人称画像を用いた視点切り替えの例を示す図である。図示された例では、タブレット端末300のディスプレイ330に3人称画像1020が表示されており、そこに2つのストリーミングフレーム1021a,1021bが表示されている。これらのストリーミングフレームは、例えば、図41に示したウェアラブル端末200a,200bによってそれぞれ取得されたものでありうる。ユーザは、例えばディスプレイ330上のタッチセンサ340へのタッチ操作でいずれかのストリーミングフレーム1021を選択することによって、ウェアラブル端末200aの視点からの画像とウェアラブル端末200bの視点からの画像とを切り替えて共有することができる。
 図43および図44は、1人称画像を用いた視点切り替えの例を示す図である。図43に示された例では、1人称画像1010に、切り替え可能な視点を示すポインタ1011と、その視点に関する情報1012とが表示されている。ポインタ1011は、例えば、別の視点で画像を提供している装置を指し示す表示でありえ、図示されているようにその装置によって提供される画像の画角を表してもよい。また、情報1012は、例えば他の装置によって提供される画像がどのような種類の画像であるか(図示された例では「Camera View」である)、誰によって提供される画像であるか、などを示す。ユーザが受信側の装置の操作部を介してポインタ1011または情報1012を選択した場合、図44に示すように他の視点からの1人称画像1010’に表示が切り替えられうる。なお、図43に示された画像は、ファッションショーに出演しているモデルを見る観客の視点からの画像である。一方、図44に示された画像は、上記のモデルの視点からの画像であり、ランウェイの脇にいる観客が映っている。
 なお、上記のような切り替え可能な複数の視点画像のそれぞれには、例えばパブリックかプライベートか、有料か無料か、などといった属性が設定されていてもよい。この場合、例えば、図42に示した3人称画像1020や図43に示した1人称画像1010には、パブリックであるか、プライベートであっても既に許可が与えられているために閲覧することが可能である画像に限ってポインタ1011や情報1012が表示されてもよい。あるいは、3人称画像1020や1人称画像1010では、画像を閲覧しているユーザの設定によって、無料であるか、有料であっても既に購入されているために閲覧することが可能である画像に限ってポインタ1011や情報1012が表示されてもよい。
 (8.補足)
 本開示の実施形態は、例えば、上記で説明したような画像処理装置(サーバまたはクライアント)、システム、画像処理装置またはシステムで実行される画像処理方法、画像処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成する画像処理部を備え、
 前記画像処理部は、前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成する画像処理装置。
(2)前記第2の視点の位置および姿勢は、前記第1の視点の位置および姿勢を基準にして設定される、前記(1)に記載の画像処理装置。
(3)端末装置の表示部を制御して前記出力画像を表示させる表示制御部をさらに備え、
 前記画像処理部は、前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において位置および姿勢が自由に設定される第3の視点から前記実空間を仮想的に撮像した第3の画像を前記出力画像として生成し、
 前記表示制御部は、前記第2の画像または前記第3の画像のいずれかまたは両方を前記表示部に表示させる、前記(2)に記載の画像処理装置。
(4)前記表示制御部は、少なくとも前記第3の画像を前記表示部に表示させ、
 前記画像処理部は、前記第2の視点が前記第3の画像の範囲に含まれる場合に、前記第2の視点を示すアイコンを前記第3の画像に表示させる、前記(3)に記載の画像処理装置。
(5)前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部をさらに備え、
 前記画像処理部は、前記第2の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、前記第2の画像を前記第3の画像とともに、または前記第3の画像に代えて前記出力画像として提供する、前記(4)に記載の画像処理装置。
(6)前記第2の視点は、前記第1の視点をセットバックさせた視点である、前記(2)~(5)のいずれか1項に記載の画像処理装置。
(7)前記画像処理部は、連続的に撮像される前記第1の画像に基づいて連続的に前記第2の画像を生成し、
 前記第2の視点の位置および姿勢は、前記第1の視点の位置および姿勢に追従して変化する、前記(2)~(6)のいずれか1項に記載の画像処理装置。
(8)前記画像処理部は、前記第1の視点の位置および姿勢の変化をスムージングして前記第2の視点の位置および姿勢に反映させる、前記(7)に記載の画像処理装置。
(9)前記画像処理部は、前記第2の視点の位置および姿勢の変化量に制限を設定するとともに、前記第1の視点の位置および姿勢と前記第2の視点の位置および姿勢との関係に基づいて前記第2の画像内に表示される前記第1の画像が前記第2の画像の範囲から所定の割合以上外れた場合には前記制限を解除する、前記(8)に記載の画像処理装置。
(10)前記第2の視点の位置および姿勢は、前記実空間に配置されたオブジェクトの位置および姿勢を基準にして設定される、前記(1)に記載の画像処理装置。
(11)前記画像処理部は、前記第1の視点が前記第2の画像の範囲に含まれる場合に、前記第1の視点を示すアイコンを前記第2の画像に表示させる、前記(1)~(10)のいずれか1項に記載の画像処理装置。
(12)端末装置の表示部を制御して前記出力画像を表示させる表示制御部と、
 前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部と
 をさらに備え、
 前記画像処理部は、前記第1の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、第1の画像を前記第2の画像とともに、または前記第2の画像に代えて前記出力画像として提供する、前記(11)に記載の画像処理装置。
(13)前記画像処理部は、前記実空間における位置および姿勢が互いに異なる複数の視点のうちのいずれか1つの視点を前記第2の視点として前記第2の画像を生成するとともに、前記複数の視点のうちの他の視点が前記第2の画像の範囲に含まれる場合に、前記他の視点を示すアイコンを前記第2の画像に表示させる、前記(1)~(12)のいずれか1項に記載の画像処理装置。
(14)端末装置の表示部を制御して前記出力画像を表示させる表示制御部と、前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部と
 をさらに備え、
 前記画像処理部は、前記他の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、前記選択されたアイコンに対応する前記他の視点を前記第2の視点として前記第2の画像を生成して、新たに生成された前記第2の画像を元の前記第2の画像とともに、または元の前記第2の画像に代えて前記出力画像として提供する、前記(13)に記載の画像処理装置。
(15)前記画像処理部は、前記第1の視点の位置および姿勢と前記第2の視点の位置および姿勢との関係に基づいて変形された前記第1の画像を前記第2の画像内に表示させる、前記(1)~(14)のいずれか1項に記載の画像処理装置。
(16)前記画像処理部は、連続的に撮像される前記第1の画像に基づいて連続的に前記第2の画像を生成し、最新の前記第1の画像を前記第2の画像内に表示させるとともに、過去の前記第1の画像に基づいて前記第2の画像の前記最新の第1の画像以外の部分を生成する、前記(15)に記載の画像処理装置。
(17)前記画像処理部は、前記最新の第1の画像と前記過去の第1の画像との間、または前記過去の第1の画像同士の間でのステッチングによって前記第2の画像の前記最新の第1の画像以外の部分を生成する、前記(16)に記載の画像処理装置。
(18)前記画像処理部は、前記実空間における位置および姿勢が互いに異なる複数の前記第1の視点から前記実空間を撮像した複数の前記第1の画像を入力画像として前記出力画像を生成するとともに、前記複数の第1の視点のそれぞれの位置および姿勢と前記第1の視点の位置および姿勢との関係に基づいて変形された前記複数の第1の画像を前記第2の画像内に表示させる、前記(15)~(17)のいずれか1項に記載の画像処理装置。
(19)第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するプロセッサが、
 前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成すること
 を含む画像処理方法。
(20)第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するコンピュータに、
 前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成する機能
 を実現させるためのプログラム。
 10  システム
 100  サーバ
 200,300,400,500,600,700  クライアント
 900  装置
 910  プロセッサ
 920  メモリ
 930  表示部
 940  操作部
 950  通信部
 960  撮像部
 970  センサ

Claims (20)

  1.  第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成する画像処理部を備え、
     前記画像処理部は、前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成する画像処理装置。
  2.  前記第2の視点の位置および姿勢は、前記第1の視点の位置および姿勢を基準にして設定される、請求項1に記載の画像処理装置。
  3.  端末装置の表示部を制御して前記出力画像を表示させる表示制御部をさらに備え、
     前記画像処理部は、前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において位置および姿勢が自由に設定される第3の視点から前記実空間を仮想的に撮像した第3の画像を前記出力画像として生成し、
     前記表示制御部は、前記第2の画像または前記第3の画像のいずれかまたは両方を前記表示部に表示させる、請求項2に記載の画像処理装置。
  4.  前記表示制御部は、少なくとも前記第3の画像を前記表示部に表示させ、
     前記画像処理部は、前記第2の視点が前記第3の画像の範囲に含まれる場合に、前記第2の視点を示すアイコンを前記第3の画像に表示させる、請求項3に記載の画像処理装置。
  5.  前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部をさらに備え、
     前記画像処理部は、前記第2の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、前記第2の画像を前記第3の画像とともに、または前記第3の画像に代えて前記出力画像として提供する、請求項4に記載の画像処理装置。
  6.  前記第2の視点は、前記第1の視点をセットバックさせた視点である、請求項2に記載の画像処理装置。
  7.  前記画像処理部は、連続的に撮像される前記第1の画像に基づいて連続的に前記第2の画像を生成し、
     前記第2の視点の位置および姿勢は、前記第1の視点の位置および姿勢に追従して変化する、請求項2に記載の画像処理装置。
  8.  前記画像処理部は、前記第1の視点の位置および姿勢の変化をスムージングして前記第2の視点の位置および姿勢に反映させる、請求項7に記載の画像処理装置。
  9.  前記画像処理部は、前記第2の視点の位置および姿勢の変化量に制限を設定するとともに、前記第1の視点の位置および姿勢と前記第2の視点の位置および姿勢との関係に基づいて前記第2の画像内に表示される前記第1の画像が前記第2の画像の範囲から所定の割合以上外れた場合には前記制限を解除する、請求項8に記載の画像処理装置。
  10.  前記第2の視点の位置および姿勢は、前記実空間に配置されたオブジェクトの位置および姿勢を基準にして設定される、請求項1に記載の画像処理装置。
  11.  前記画像処理部は、前記第1の視点が前記第2の画像の範囲に含まれる場合に、前記第1の視点を示すアイコンを前記第2の画像に表示させる、請求項1に記載の画像処理装置。
  12.  端末装置の表示部を制御して前記出力画像を表示させる表示制御部と、
     前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部と
     をさらに備え、
     前記画像処理部は、前記第1の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、第1の画像を前記第2の画像とともに、または前記第2の画像に代えて前記出力画像として提供する、請求項11に記載の画像処理装置。
  13.  前記画像処理部は、前記実空間における位置および姿勢が互いに異なる複数の視点のうちのいずれか1つの視点を前記第2の視点として前記第2の画像を生成するとともに、前記複数の視点のうちの他の視点が前記第2の画像の範囲に含まれる場合に、前記他の視点を示すアイコンを前記第2の画像に表示させる、請求項1に記載の画像処理装置。
  14.  端末装置の表示部を制御して前記出力画像を表示させる表示制御部と、前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部と
     をさらに備え、
     前記画像処理部は、前記他の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、前記選択されたアイコンに対応する前記他の視点を前記第2の視点として前記第2の画像を生成して、新たに生成された前記第2の画像を元の前記第2の画像とともに、または元の前記第2の画像に代えて前記出力画像として提供する、請求項13に記載の画像処理装置。
  15.  前記画像処理部は、前記第1の視点の位置および姿勢と前記第2の視点の位置および姿勢との関係に基づいて変形された前記第1の画像を前記第2の画像内に表示させる、請求項1に記載の画像処理装置。
  16.  前記画像処理部は、連続的に撮像される前記第1の画像に基づいて連続的に前記第2の画像を生成し、最新の前記第1の画像を前記第2の画像内に表示させるとともに、過去の前記第1の画像に基づいて前記第2の画像の前記最新の第1の画像以外の部分を生成する、請求項15に記載の画像処理装置。
  17.  前記画像処理部は、前記最新の第1の画像と前記過去の第1の画像との間、または前記過去の第1の画像同士の間でのステッチングによって前記第2の画像の前記最新の第1の画像以外の部分を生成する、請求項16に記載の画像処理装置。
  18.  前記画像処理部は、前記実空間における位置および姿勢が互いに異なる複数の前記第1の視点から前記実空間を撮像した複数の前記第1の画像を入力画像として前記出力画像を生成するとともに、前記複数の第1の視点のそれぞれの位置および姿勢と前記第1の視点の位置および姿勢との関係に基づいて変形された前記複数の第1の画像を前記第2の画像内に表示させる、請求項15に記載の画像処理装置。
  19.  第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するプロセッサが、
     前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成すること
     を含む画像処理方法。
  20.  第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するコンピュータに、
     前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成する機能
     を実現させるためのプログラム。
PCT/JP2014/056984 2013-04-04 2014-03-14 画像処理装置、画像処理方法およびプログラム WO2014162852A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015509985A JP6304242B2 (ja) 2013-04-04 2014-03-14 画像処理装置、画像処理方法およびプログラム
EP14779795.5A EP2983139A4 (en) 2013-04-04 2014-03-14 IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
US14/779,452 US9823739B2 (en) 2013-04-04 2014-03-14 Image processing device, image processing method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013078894 2013-04-04
JP2013-078894 2013-04-04
JP2014002758 2014-01-09
JP2014-002758 2014-01-09

Publications (1)

Publication Number Publication Date
WO2014162852A1 true WO2014162852A1 (ja) 2014-10-09

Family

ID=51658153

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/056984 WO2014162852A1 (ja) 2013-04-04 2014-03-14 画像処理装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US9823739B2 (ja)
EP (1) EP2983139A4 (ja)
JP (1) JP6304242B2 (ja)
CN (2) CN204465706U (ja)
WO (1) WO2014162852A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181245A (ja) * 2015-03-24 2016-10-13 富士ゼロックス株式会社 注視注釈方法及びコンピューティングデバイス
EP3101523A1 (en) * 2015-06-02 2016-12-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, computer-readable storage medium, and system
JP6203346B1 (ja) * 2016-08-16 2017-09-27 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
WO2017163384A1 (ja) * 2016-03-24 2017-09-28 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
WO2018020661A1 (ja) * 2016-07-29 2018-02-01 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
JP2018526716A (ja) * 2015-06-16 2018-09-13 ノキア テクノロジーズ オーユー 媒介現実
CN108541323A (zh) * 2016-01-12 2018-09-14 Sun电子株式会社 图像显示装置
WO2019163129A1 (ja) * 2018-02-26 2019-08-29 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
WO2019163128A1 (ja) * 2018-02-26 2019-08-29 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
JP2019212236A (ja) * 2018-06-08 2019-12-12 株式会社セガゲームス 端末装置及びプログラム
WO2021131991A1 (ja) * 2019-12-23 2021-07-01 ソニーグループ株式会社 映像生成装置、映像生成方法および映像生成プログラム
US11170580B2 (en) 2017-02-16 2021-11-09 Sony Corporation Information processing device, information processing method, and recording medium
WO2022029959A1 (ja) * 2020-08-06 2022-02-10 マクセル株式会社 仮想現実共有方法及びシステム
WO2023275919A1 (ja) * 2021-06-28 2023-01-05 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2015072195A1 (ja) * 2013-11-13 2015-05-21 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10423234B2 (en) * 2015-03-27 2019-09-24 Lucasfilm Entertainment Company Ltd. Facilitate user manipulation of a virtual reality environment
JP6691351B2 (ja) * 2015-03-31 2020-04-28 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
US20160371885A1 (en) * 2015-06-22 2016-12-22 Anatolie Gavriliuc Sharing of markup to image data
JP6362631B2 (ja) * 2016-01-15 2018-07-25 株式会社meleap 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ
TWI585617B (zh) * 2016-08-31 2017-06-01 宅妝股份有限公司 互動方法及系統
JP2018055589A (ja) * 2016-09-30 2018-04-05 セイコーエプソン株式会社 プログラム、物体の追跡方法、表示装置
DK179979B1 (en) * 2017-05-16 2019-11-27 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR TOUCH INPUT PROCESSING
US10430924B2 (en) * 2017-06-30 2019-10-01 Quirklogic, Inc. Resizable, open editable thumbnails in a computing device
US20190057180A1 (en) * 2017-08-18 2019-02-21 International Business Machines Corporation System and method for design optimization using augmented reality
US10489951B2 (en) 2017-09-29 2019-11-26 Qualcomm Incorporated Display of a live scene and auxiliary object
CN109658514B (zh) * 2017-10-11 2022-03-11 腾讯科技(深圳)有限公司 一种数据处理方法、装置和计算机存储介质
US10553031B2 (en) 2017-12-06 2020-02-04 Microsoft Technology Licensing, Llc Digital project file presentation
JP7209474B2 (ja) * 2018-03-30 2023-01-20 株式会社スクウェア・エニックス 情報処理プログラム、情報処理方法及び情報処理システム
US10785413B2 (en) 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
JP2021157277A (ja) * 2020-03-25 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05191902A (ja) * 1991-10-31 1993-07-30 Railway Technical Res Inst 画像データ処理方式
JPH11122638A (ja) * 1997-10-15 1999-04-30 Oki Electric Ind Co Ltd 画像処理装置および画像処理方法ならびに画像処理プログラムが記録されたコンピュータ読み取り可能な情報記録媒体
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2009301350A (ja) * 2008-06-13 2009-12-24 Kyocera Mita Corp 仮想映像表示システム及び仮想映像表示方法
JP2011130323A (ja) * 2009-12-21 2011-06-30 Canon Inc 放送受信装置及びその制御方法
JP2011227613A (ja) * 2010-04-16 2011-11-10 Canon Inc 画像処理装置および方法
JP2012212345A (ja) 2011-03-31 2012-11-01 Sony Corp 端末装置、オブジェクト制御方法及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010112433A (ko) * 1999-04-16 2001-12-20 마츠시타 덴끼 산교 가부시키가이샤 화상처리장치 및 감시시스템
JP4366023B2 (ja) * 2001-03-16 2009-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーション ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
CN101170961A (zh) * 2005-03-11 2008-04-30 布拉科成像S.P.A.公司 利用显微镜的用于外科手术导航及可视化的方法及设备
DE112009000094T5 (de) * 2008-01-04 2010-11-11 3M Innovative Properties Co., St. Paul Verfeinerung dreidimensionaler Modelle
JP5035284B2 (ja) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 車両周辺表示装置
US20110007134A1 (en) * 2009-07-13 2011-01-13 Raytheon Company Synchronizing video images and three dimensional visualization images
US9383888B2 (en) * 2010-12-15 2016-07-05 Microsoft Technology Licensing, Llc Optimized joint document review

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05191902A (ja) * 1991-10-31 1993-07-30 Railway Technical Res Inst 画像データ処理方式
JPH11122638A (ja) * 1997-10-15 1999-04-30 Oki Electric Ind Co Ltd 画像処理装置および画像処理方法ならびに画像処理プログラムが記録されたコンピュータ読み取り可能な情報記録媒体
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2009301350A (ja) * 2008-06-13 2009-12-24 Kyocera Mita Corp 仮想映像表示システム及び仮想映像表示方法
JP2011130323A (ja) * 2009-12-21 2011-06-30 Canon Inc 放送受信装置及びその制御方法
JP2011227613A (ja) * 2010-04-16 2011-11-10 Canon Inc 画像処理装置および方法
JP2012212345A (ja) 2011-03-31 2012-11-01 Sony Corp 端末装置、オブジェクト制御方法及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANDREW J. DAVISON: "Real-Time Simultaneous Localization and Mapping with a Single Camera", PROCEEDINGS OF THE 9TH IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, vol. 2, 2003, pages 1403 - 1410
S.IZADI ET AL.: "Real-time 3D Reconstruction and Interaction Using a Moving Depth Camera", KINECTFUSION IN ACM SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY, 2011
See also references of EP2983139A4 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181245A (ja) * 2015-03-24 2016-10-13 富士ゼロックス株式会社 注視注釈方法及びコンピューティングデバイス
EP3101523A1 (en) * 2015-06-02 2016-12-07 Canon Kabushiki Kaisha Information processing apparatus, information processing method, computer-readable storage medium, and system
CN106227329A (zh) * 2015-06-02 2016-12-14 佳能株式会社 信息处理装置、信息处理方法及系统
US10095458B2 (en) 2015-06-02 2018-10-09 Canon Kabushiki Kaisha Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US10884576B2 (en) 2015-06-16 2021-01-05 Nokia Technologies Oy Mediated reality
JP2018526716A (ja) * 2015-06-16 2018-09-13 ノキア テクノロジーズ オーユー 媒介現実
CN108541323A (zh) * 2016-01-12 2018-09-14 Sun电子株式会社 图像显示装置
EP3404623A4 (en) * 2016-01-12 2019-08-07 Suncorporation IMAGE DISPLAY DEVICE
WO2017163384A1 (ja) * 2016-03-24 2017-09-28 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
JP6293386B2 (ja) * 2016-03-24 2018-03-14 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
JPWO2017163384A1 (ja) * 2016-03-24 2018-04-05 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
WO2018020661A1 (ja) * 2016-07-29 2018-02-01 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
JPWO2018020661A1 (ja) * 2016-07-29 2018-12-13 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
JP2018028765A (ja) * 2016-08-16 2018-02-22 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
JP6203346B1 (ja) * 2016-08-16 2017-09-27 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
US11170580B2 (en) 2017-02-16 2021-11-09 Sony Corporation Information processing device, information processing method, and recording medium
WO2019163129A1 (ja) * 2018-02-26 2019-08-29 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
WO2019163128A1 (ja) * 2018-02-26 2019-08-29 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
JPWO2019163128A1 (ja) * 2018-02-26 2020-05-28 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
JPWO2019163129A1 (ja) * 2018-02-26 2020-05-28 三菱電機株式会社 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
JP2019212236A (ja) * 2018-06-08 2019-12-12 株式会社セガゲームス 端末装置及びプログラム
WO2021131991A1 (ja) * 2019-12-23 2021-07-01 ソニーグループ株式会社 映像生成装置、映像生成方法および映像生成プログラム
WO2022029959A1 (ja) * 2020-08-06 2022-02-10 マクセル株式会社 仮想現実共有方法及びシステム
EP4195159A4 (en) * 2020-08-06 2024-01-17 Maxell Ltd METHOD AND SYSTEM FOR SHARING VIRTUAL REALITY
WO2023275919A1 (ja) * 2021-06-28 2023-01-05 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法

Also Published As

Publication number Publication date
CN104104862A (zh) 2014-10-15
EP2983139A4 (en) 2016-12-28
JPWO2014162852A1 (ja) 2017-02-16
US9823739B2 (en) 2017-11-21
JP6304242B2 (ja) 2018-04-04
EP2983139A1 (en) 2016-02-10
CN204465706U (zh) 2015-07-08
CN104104862B (zh) 2018-12-07
US20160054793A1 (en) 2016-02-25

Similar Documents

Publication Publication Date Title
JP6304242B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6308213B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6304241B2 (ja) 表示制御装置、表示制御方法およびプログラム
US11886633B2 (en) Virtual object display interface between a wearable device and a mobile device
JP6304240B2 (ja) 表示制御装置、表示制御方法およびプログラム
US9256986B2 (en) Automated guidance when taking a photograph, using virtual objects overlaid on an image
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
US9384594B2 (en) Anchoring virtual images to real world surfaces in augmented reality systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14779795

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015509985

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2014779795

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14779452

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE