WO2023190468A1 - 仮想画像表示装置、撮像装置、仮想画像表示システム及び方法 - Google Patents

仮想画像表示装置、撮像装置、仮想画像表示システム及び方法 Download PDF

Info

Publication number
WO2023190468A1
WO2023190468A1 PCT/JP2023/012414 JP2023012414W WO2023190468A1 WO 2023190468 A1 WO2023190468 A1 WO 2023190468A1 JP 2023012414 W JP2023012414 W JP 2023012414W WO 2023190468 A1 WO2023190468 A1 WO 2023190468A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging device
display
virtual
live view
Prior art date
Application number
PCT/JP2023/012414
Other languages
English (en)
French (fr)
Inventor
充史 三沢
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023190468A1 publication Critical patent/WO2023190468A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Definitions

  • the present invention relates to a virtual image display device, an imaging device, a virtual image display system, and a method, and particularly relates to a technique for displaying a virtual image superimposed on the real world.
  • Patent Document 1 a method has been proposed in which photography is performed in a virtual space and the photograph (image) generated by the photography can be easily confirmed.
  • Patent Document 1 places a virtual camera at the center of a virtual space provided using a head-mounted device (HMD), and determines the shooting range of the virtual camera based on the position and orientation of the virtual camera. Generate a corresponding image and display the generated image on the preview screen of the virtual camera.
  • HMD head-mounted device
  • a photograph is taken in the virtual space according to a shooting instruction from the user, a photographic image is generated and stored in memory, and the generated photographic image is placed at a predetermined position in the virtual space, and the photographic image is The user wearing the HMD is notified of the location.
  • the virtual camera described in Patent Document 1 is a camera object that is generated based on object information stored in a memory module and placed in a virtual space. When the provided button is pressed, photographing is performed in the virtual space. Note that the hand object corresponding to the hand of the avatar object moves in conjunction with the position of the user's hand. Further, in Patent Document 1, an HMD device is used to provide images captured by a virtual camera, but methods such as transmission type smart glasses and retinal projection are also possible.
  • Patent Document 2 proposes an information processing device that effectively utilizes augmented reality (AR) technology, which combines the real world and the virtual world, for games and the like.
  • AR augmented reality
  • the information processing device described in Patent Document 2 acquires a photographed image from a rear camera that photographs real space, and when a marker included in the photographed image is detected, starts information processing (game) corresponding to the marker, and Virtual objects such as characters and icons corresponding to the image are drawn on the photographed image, arranged in a three-dimensional coordinate system corresponding to the subject space, and displayed on the surface display device.
  • the icon is expressed as if it were placed on the plane on which the marker is placed, and can be operated either by touching the touch pad on the display screen or by pointing the corresponding position in the object space with a finger. .
  • One embodiment of the technology of the present disclosure provides a virtual image display device, an imaging device, a virtual image display system, and a method that superimpose a virtual image on the real world and display an image that cannot be displayed by a conventional imaging device alone.
  • the invention according to a first aspect is a virtual image display device having a processor and a first display, the virtual image display device receiving a live view image from a first imaging device, and the processor receiving a live view image from a first image capturing device.
  • the first display is a virtual image display device that acquires information used when superimposing on the display area of the first imaging device, converts the live view image based on the information, and displays the converted live view image. .
  • the first display is preferably a glasses-type or goggle-type wearable device having a virtual image display function.
  • the virtual image display device includes a second imaging device that photographs the visual field range of the user, and the processor specifies the display area by analyzing the photographed image taken by the second imaging device. , get information.
  • the processor acquires information based on the position of the marker of the first imaging device photographed by the second imaging device.
  • the processor acquires information indicating the three-dimensional position and orientation of the first imaging device with respect to the first display, and converts the information into information indicating the three-dimensional position and orientation to Get information based on.
  • the first imaging device preferably has a second display that displays a live view image, and the display area is preferably the display area of the second display.
  • the second display includes a rotation mechanism that can change the relative posture of the first imaging device with the device main body by rotation
  • the display area includes:
  • the display area is a rotated display area of the second display.
  • the first imaging device has a viewfinder, and the display area is a display area of the viewfinder.
  • the first display is a display that transmits the field of view and displays a live view image converted to the field of view of the real world.
  • the virtual image display device includes a second imaging device that photographs a visual field of the user, the first display is an immersive display that covers the visual field, and the second imaging device photographs the visual field. It is preferable to display a composite image in which the converted live view image is superimposed on the captured image.
  • the processor synthesizes the virtual object image with the live view image.
  • the invention according to the twelfth aspect of the present invention is a virtual image display device including a processor, a first display, and a second imaging device that photographs a visual field range of a user, wherein the processor is configured to display images from images photographed by the second imaging device. , cut out an image corresponding to the angle of view of a virtual camera equipped with at least a grip part and acquire it as a live view image, acquire information to be used when superimposing the live view image on the display area of the virtual camera, and based on the information
  • the first display is a virtual image display device that displays the converted live view image.
  • the transformation is preferably a geometric transformation.
  • the invention according to the fourteenth aspect includes: an imaging section that captures a live view image; a mode switching section that switches between a first mode and a second mode; and a second mode that displays a live view image when switched to the first mode.
  • the imaging device includes a display or a viewfinder, and a communication unit that transmits a live view image to the virtual image display device of any of the first to eleventh aspects when switched to the second mode.
  • a marker be displayed on the second display or the viewfinder when switched to the second mode.
  • the invention according to the sixteenth aspect is a virtual image display system comprising the virtual image display device according to any one of the first to thirteenth aspects and the imaging device according to the fourteenth aspect or the fifteenth aspect.
  • the processor of the virtual image display device combines the virtual object image with the live view image, and when shooting for recording is performed in a state switched to the second mode.
  • the virtual object image is sent to the imaging device, and when the imaging device takes a picture for recording while being switched to the second mode, it links the shot image with the virtual object image received from the virtual image display device. It is preferable to record the captured image by combining the virtual object image with the captured image.
  • the invention according to the 18th aspect is a virtual image display system comprising the virtual image display device according to any one of the 1st to 11th aspects and a server that communicates with the virtual image display device, the server comprising:
  • the processor manages a three-dimensional image having three-dimensional information in real space, and the processor extracts a first image from the three-dimensional image managed by the server based on the first information indicating the three-dimensional position and orientation of the first imaging device.
  • This is a virtual image display system that cuts out a three-dimensional image corresponding to a shooting area of an imaging device, converts the cut-out three-dimensional image into a two-dimensional image, and uses the two-dimensional image as a live view image.
  • the invention according to the nineteenth aspect is a virtual image display system comprising the virtual image display device according to the twelfth aspect and a server communicating with the virtual image display device, the server transmitting three-dimensional information in real space.
  • the processor manages a three-dimensional image corresponding to the imaging area of the virtual camera from the three-dimensional images managed by the server based on the first information indicating the three-dimensional position and orientation of the virtual camera.
  • This is a virtual image display system that cuts out a three-dimensional image, converts the cut-out three-dimensional image into a two-dimensional image, and uses the two-dimensional image as a live view image.
  • the server displays images taken by a large number of cameras including a multi-view camera, a surveillance camera, a drive recorder, a drone camera, or a mobile terminal camera arranged in real space. It is preferable to generate and manage the latest three-dimensional images from the images.
  • the server synthesizes the virtual object image with the three-dimensional image.
  • the invention according to a twenty-second aspect is a virtual image display method executed by a virtual image display device having a processor and a first display, the method comprising: the processor receiving a live view image from the first imaging device; , obtaining information for use in superimposing the live view image on the display area of the first imaging device; converting the live view image based on the information;
  • a virtual image display method includes the step of displaying a live view image.
  • FIG. 1 is a diagram showing the system configuration of a virtual image display system according to the present invention.
  • FIG. 2 is a perspective view of the imaging device shown in FIG. 1 viewed from the front.
  • FIG. 3 is a diagram showing three open and closed states of the monitor panel of the imaging device.
  • FIG. 4 is a diagram showing how a visual field image including the imaging device is captured by the second imaging device of the virtual image display device.
  • FIG. 5 is a diagram showing how a live view image is superimposed on a specific display area of the imaging device.
  • FIG. 6 is a block diagram showing an embodiment of a virtual image display device that constitutes a virtual image display system according to the present invention.
  • FIG. 7 is a block diagram showing an embodiment of an imaging device according to the present invention.
  • FIG. 1 is a diagram showing the system configuration of a virtual image display system according to the present invention.
  • FIG. 2 is a perspective view of the imaging device shown in FIG. 1 viewed from the front.
  • FIG. 3 is a
  • FIG. 8 is a block diagram of main parts showing the first embodiment of the virtual image display system according to the present invention.
  • FIG. 9 is a diagram showing the geometric relationship between the live view image, the visual field image, and the display area of the imaging device.
  • FIG. 10 is a diagram showing the appearance of an imaging device provided with an AR marker.
  • FIG. 11 is a diagram showing a first embodiment of an XR display of a virtual image display device.
  • FIG. 12 is a diagram showing a first display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 13 is a diagram showing a second display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 14 is a diagram showing a third display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 15 is a diagram showing a fourth display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 16 is a diagram showing a fifth display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 17 is a diagram showing a fifth display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 18 is a diagram showing a sixth display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 15 is a diagram showing a fourth display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 16 is a diagram showing a fifth display example of a live view image and the like when the imaging device is set to the X
  • FIG. 19 is a diagram showing a first external appearance example of the imaging device when the imaging device is set to the XR mode.
  • FIG. 20 is a diagram showing a second external appearance example of the imaging device when the imaging device is set to the XR mode.
  • FIG. 21 is a diagram showing a third external appearance example of the imaging device when the imaging device is set to the XR mode.
  • FIG. 22 is a conceptual diagram when changing the appearance of the imaging device by dividing it into a plurality of regions.
  • FIG. 23 is a perspective view of an imaging device compatible with use in an XR environment.
  • FIG. 24 is a perspective view from the back side showing an embodiment of a virtual camera constituting the virtual image display system according to the present invention.
  • FIG. 25 is a perspective view from the front side showing an embodiment of a virtual camera constituting the virtual image display system according to the present invention.
  • FIG. 26 is a perspective view showing another embodiment of a virtual camera constituting the virtual image display system according to the present invention.
  • FIG. 27 is a diagram illustrating an embodiment of a method for acquiring a live view image captured by a virtual camera.
  • FIG. 28 is a diagram showing a second embodiment of the XR display of the virtual image display device.
  • FIG. 29 is a block diagram showing a second embodiment of the virtual image display system according to the present invention.
  • FIG. 30 is a flowchart showing the first embodiment of the virtual image display method according to the present invention.
  • FIG. 31 is a flowchart showing a display method by the imaging device according to the present invention.
  • FIG. 32 is a flowchart showing a second embodiment of the virtual image display method according to the present invention.
  • FIG. 33 is a subroutine showing an embodiment of the process of step S300 for checking the imaging device shown in FIG.
  • FIG. 34 is a subroutine showing an embodiment of the process of step S3200 for displaying the live view images LV1 shown in FIG. 32 in an overlapping manner.
  • FIG. 35 is a subroutine showing an embodiment of the process of step S330 for displaying the photographing information INFO shown in FIG. 32 in an overlapping manner.
  • FIG. 36 is a subroutine showing an embodiment of the process of step S340 for displaying the reproduced images shown in FIG. 32 in an overlapping manner.
  • FIG. 37 is a flowchart illustrating an embodiment of a method for changing the appearance of an imaging device.
  • FIG. 1 is a diagram showing the system configuration of a virtual image display system according to the present invention.
  • the virtual image display system 10 shown in FIG. 1 includes a virtual image display device 100 and a first imaging device (hereinafter simply referred to as "imaging device") 200, and the virtual image display device 100 and the imaging device 200 are mutually connected. communicate with.
  • the communication is preferably short-range wireless communication using standards such as Bluetooth (registered trademark) and Wi-Fi (Wireless Fidelity) (registered trademark), but may also be wired.
  • the virtual image display device 100 of this embodiment is a wearable device having a glasses-type virtual image display function, and includes a processor (not shown), a first display, and a second imaging device (hereinafter referred to as "built-in camera"). There is.
  • the first display is augmented reality (AR), virtual reality (VR), mixed reality (MR), or cross reality (XR), which is a collective term for AR, VR, and MR. This is a display to achieve this.
  • AR augmented reality
  • VR virtual reality
  • MR mixed reality
  • XR cross reality
  • AR is a technology that "virtually extends" the real world in front of your eyes by superimposing a virtual world (virtual images, etc.) on the real world seen through glasses, while VR etc. are displayed on VR goggles or a VR headset, the real world is blocked out by the VR goggles, etc., and the feature is that you can deeply immerse yourself in the unreal world.
  • MR is a technology that displays virtual objects and information superimposed on the real world, and is similar to AR, but it is a technology that is a further development of AR and displays digital information according to the user's position and movement. , users can directly touch and manipulate digital information.
  • the first display (hereinafter referred to as "XR display") of the virtual image display device 100 shown in FIG. 1 has an AR or MR display function that superimposes the virtual world on the real world seen through glasses. .
  • 146 is an optical system including a half mirror of the virtual image display device 100 (hereinafter also referred to as "smart glasses"), and the image (virtual image) displayed on the display element of the smart glasses is It is superimposed on the real world via 146.
  • the smart glasses will be described later.
  • FIG. 2 is a perspective view of the imaging device shown in FIG. 1 viewed from the front.
  • the imaging device 200 shown in FIGS. 1 and 2 is a mirrorless digital single-lens camera that includes an interchangeable lens 202 and a camera body (device main body) 203 to which the interchangeable lens 202 can be freely attached and detached.
  • the imaging device 200 is not limited to a mirrorless digital single-lens camera, but may also be a digital single-lens reflex camera, a digital camera with an integrated lens that cannot be replaced, or a smartphone or PDA (Personal Digital Assistant) with a camera function. .
  • a shutter button 232 a shutter speed/sensitivity dial 234, an exposure compensation dial 236, etc. are provided on the top surface of the camera body 203.
  • a monitor panel 240 is rotatably disposed on the back surface of the camera body 203 via a rotation mechanism (not shown).
  • FIG. 3 is a diagram showing three open and closed states of the monitor panel of the imaging device.
  • the monitor panel 240 is a tilt-type panel whose position relative to the camera body 203 can be changed by rotation.
  • FIGS. 3(A) and 3(C) show the imaging device 200 with the monitor panel 240 rotated by 90° and 180°. A device 200 is shown.
  • a main monitor (second display) 241 is disposed on the inner surface (back surface) of the monitor panel 240 that is hidden when the monitor panel 240 is closed, and displays the camera appearance and approximate surface when the monitor panel 240 is closed.
  • a sub-monitor 242 is disposed on one surface (front surface).
  • the main monitor 241 becomes operational when the monitor panel 240 is open, as shown in FIGS. 3B and 3C, and displays live view images, recorded images (playback images), etc.
  • the sub monitor 242 becomes operational when the monitor panel 240 is closed, as shown in FIGS. 1 and 3A, and displays shutter speed, aperture value, ISO sensitivity, and other information related to photography (photography information).
  • an eyepiece section of a viewfinder 243 is arranged on the back side of the camera body 203.
  • This viewfinder 243 is a hybrid finder that can be switched between an electronic view finder (EVF) and an optical view finder (OVF).
  • EDF electronic view finder
  • OVF optical view finder
  • ERF electronic range finder
  • a finder switching lever 249 for switching between the EVF and OVF of the viewfinder 243 is provided on the front of the camera.
  • rotating the finder switching lever 249 clockwise allows switching between the EVF and OVF. Further, when the OVF is displayed, if the finder switching lever 249 is rotated counterclockwise in FIG. 2, it is possible to switch between displaying and non-displaying the ERF.
  • the back of the camera body 203 is provided with a toggle switch 244 for instructing multiple directions such as up, down, left, and right, a menu/execution button 245, a playback button 246, a display/back button 247, and the like.
  • FIG. 4 is a diagram showing how a visual field image including the imaging device is captured by the second imaging device of the virtual image display device.
  • the built-in camera 101 of the virtual image display device 100 captures a visual field image corresponding to the user's visual field including the imaging device 200.
  • the built-in camera 101 captures a visual field image corresponding to the user's visual field when the user is wearing smart glasses and his or her eyes are facing forward.
  • the user holds the imaging device 200 and performs various operations such as framing.
  • the imaging device 200 When the imaging device 200 is being used in an XR environment, the imaging device 200 transmits a live view image generated by operating the imaging device 200 to the virtual image display device 100 as continuous data.
  • the processor of the virtual image display device 100 specifies the display area of the imaging device 200 based on the image (camera image) of the imaging device 200 present in the field of view image.
  • This display area is not limited to a display area where images can actually be displayed, such as the main monitor 241 and sub-monitor 242 of the imaging device 200 shown in FIG. It may be a preset area.
  • the user can visually recognize the imaging device 200 in the real world through smart glasses, but the processor transforms (geometrically transforms) the live view image received from the imaging device 200 and displays it on the smart glasses, thereby viewing the real world image.
  • a live view image (virtual image) is superimposed and displayed on a specific display area of the imaging device 200 via the optical system 146 of the smart glasses.
  • FIG. 5 is a diagram showing how a live view image is superimposed on a specific display area of the imaging device.
  • a live view image LV1 that has been geometrically transformed is displayed at a display position in front of the eyes of the user wearing the smart glasses via the optical system 146 of the smart glasses.
  • the user can visually recognize the real imaging device 200 through the smart glasses as shown in FIG.
  • the live view image LV1 can be observed as if an image (live view image LV1) in an XR environment in which no image exists is displayed on the imaging device 200.
  • the imaging device 200 shown in FIGS. 1 and 3 is not equipped with an actual monitor that displays the live view image LV1 having the size shown in FIG. By displaying, the user can visually recognize the imaging device 200 as if it were equipped with a display that displays the live view image LV1 shown in FIG. 5.
  • the user does not look at a specific display area (the real world) on the back of the imaging device 200, but instead views the live view image LV1 synthesized in the specific display area through a smart glass. Therefore, even if a specific actual display area is difficult to see due to direct sunlight, the live view image LV1 can be observed satisfactorily.
  • the imaging device 200 is a real-world camera product, it has good operability for performing work-oriented shooting operations, and the quality of the shooting experience can be maintained at a high level. Furthermore, even when using the imaging device 200 while changing its position or angle for framing or the like, the live view image LV1 can be displayed on the smart glasses by following the imaging device 200, allowing quick imaging. It is possible to avoid missing a photo opportunity even in shooting with rapid movement that requires operation of the device 200 (sports shooting, panning shots, shooting of children, pets, etc.).
  • the visual field image taken by the built-in camera 101 of the smart glasses is used to determine a specific display area (coordinates) of the camera image in the visual field image and to superimpose the live view image on a specific display area of the imaging device 200. It is used to obtain information (conversion information), and when an immersive display (VR goggles) that covers the visual field (field of view) is used instead of smart glasses, it is used as a visual field image to be displayed on the VR goggles.
  • VR goggles immersive display
  • FIG. 6 is a block diagram showing an embodiment of a virtual image display device that constitutes a virtual image display system according to the present invention.
  • the virtual image display device 100 shown in FIG. 6 is a block diagram showing the internal configuration of the virtual image display device 100 having the external shape shown in FIG. 1.
  • the virtual image display device 100 includes a built-in camera 101, a processor (XR processor) 110, a first memory 120, an operation unit 130, an XR display 140 that is a first display having a virtual image display function, a display control unit 142, and a virtual object generation unit. 150, a first communication unit 160, a GPS (Global Positioning System) receiver 170, a gyro sensor 172, an acceleration sensor 174, a geomagnetic sensor 176, and the like.
  • GPS Global Positioning System
  • the built-in camera 101 has a photographic lens 102, an image sensor 104, and an AFE (Analog Front End) 106.
  • AFE Analog Front End
  • the built-in camera 101 takes a field of view image that includes the imaging device 200 (camera image) when the imaging device 200 is held in hand, and the photographing lens 102 has a viewing angle that is equal to or greater than the human viewing angle. It is preferable to have.
  • the image sensor 104 can be configured with a CMOS (Complementary Metal-Oxide Semiconductor) color image sensor. Note that the image sensor 104 is not limited to a CMOS type image sensor, but may be a CCD (Charge Coupled Device) type image sensor.
  • CMOS Complementary Metal-Oxide Semiconductor
  • CCD Charge Coupled Device
  • An optical image of the subject formed by the photographing lens 102 on the light receiving surface of the image sensor 104 is converted into an electrical signal by the image sensor 104.
  • Each pixel of the image sensor 104 accumulates a charge corresponding to the amount of incident light, and an electric signal corresponding to the amount of charge (signal charge) accumulated in each pixel is read out from the image sensor 104 as an image signal.
  • the AFE 106 performs various analog signal processing on the analog image signal output from the image sensor 104.
  • the AFE 106 includes a correlated double sampling circuit, an AGC (Automatic Gain Control) circuit, and an analog-to-digital conversion circuit (A/D conversion circuit) (all not shown).
  • the correlated double sampling circuit performs correlated double sampling processing on the analog signal from the image sensor 104 to remove noise caused by resetting signal charges.
  • the AGC circuit amplifies the analog signal from which noise has been removed by the correlated double sampling circuit, so that the signal level of the analog signal falls within an appropriate range.
  • the A/D conversion circuit converts the image signal whose gain has been adjusted by the AGC circuit into a digital signal.
  • the AFE 106 is often built into the image sensor 104.
  • the XR processor 110 is composed of a CPU (Central Processing Unit), etc., and performs overall control of each unit, and also displays a live view image received from the imaging device 200 via the first communication unit 160 in a specific display mode of the imaging device 200.
  • Various types of processing are performed, such as processing to obtain information (conversion information) used when superimposing the region, and processing to transform (geometric transformation) the live view image based on the information and output it to the XR display 140. Note that details of the processing by the XR processor 110 will be described later.
  • the first memory 120 includes flash memory, ROM (Read-only Memory), RAM (Random Access Memory), and the like. Flash memory and ROM are nonvolatile memories that store various programs including firmware, parameters, images (virtual object images) showing various virtual objects including avatars, and the like.
  • the RAM functions as a work area for processing by the XR processor 110, and also temporarily stores firmware and the like stored in nonvolatile memory.
  • the XR processor 110 may include a portion of the first memory 120 (RAM).
  • the operation unit 130 is a part that performs various operation commands, parameter settings, selection of virtual objects including avatars, control of avatars, etc.
  • the operation unit 130 is equipped with a microphone and a voice input device for inputting operations by voice, as well as a manual input device.
  • a gesture input unit that reads body movements such as fingers and fingers from images captured by the built-in camera 101 as operation input, a touch panel provided on the frame of the smart glasses, and a GUI (Graphical User Interface) screen displayed on the XR display 140. , and a dedicated controller for moving a cursor on a GUI screen.
  • the shaking, vibration, or beam angle of the imaging device 200 can be detected by the gyro sensor 272, acceleration sensor 274, geomagnetic sensor 276, etc. of the imaging device 200, and the detected information can be used as various operation commands. .
  • a voice input device is preferable.
  • the display control unit 142 When the display control unit 142 receives live view images, playback images, photographic information, etc. from the XR processor 110, it converts them into a signal format for display and outputs them to the XR display 140.
  • the XR display 140 has a display element (not shown), and displays a live view image and the like on the display element driven by a display signal from the display control unit 142.
  • the live view image displayed on the display element is superimposed on the real world through the glasses via the optical system 146 of the smart glasses (see FIG. 1).
  • the XR display 140 displays a live view image etc. that has been geometrically transformed so as to be superimposed on a specific display area of the imaging device 200 at a display position in front of the user's eyes. View images etc. can be observed.
  • the virtual object generation unit 150 reads out a desired virtual object image designated by the user from various virtual object images including avatars stored in the first memory 120, and generates a virtual object image processed for synthesis into a live view image. generate. For example, when an avatar representing the user himself or herself is selected, and a hairstyle or costume is selected, an avatar wearing the selected hairstyle or costume is generated, and the position, orientation, etc. of the avatar are specified by the operation unit 130. If the avatar is moved to that position, processing is performed to move the avatar to that position.
  • the virtual object generation unit 150 receives an instruction to select a virtual object indicating a component (exterior parts, switches, etc.) of the imaging device 200, and generates an image of the selected component (component image) for synthesis into the imaging device 200.
  • a virtual object image is generated.
  • the first communication unit 160 is a part that transmits and receives necessary information to and from the imaging device 200, and when the imaging device 200 is capturing a live view image in an XR environment, it receives a live view image from the imaging device 200. do. Further, the first communication unit 160 receives a shutter release signal when the shutter button 232 (see FIG. 1) is pressed in the XR environment of the imaging device 200 and shooting for recording is performed. If the avatar image is combined with the live view image when receiving the shutter release signal, the first communication unit 160 transmits the avatar image to the imaging device 200.
  • the GPS receiver 170, the gyro sensor 172, the acceleration sensor 174, and the geomagnetic sensor 176 are sensors for detecting information indicating the three-dimensional position and orientation of the XR display 140 (built-in camera 101).
  • Information indicating the three-dimensional position and orientation of the XR display 140 is used to obtain information indicating the three-dimensional position and orientation of the imaging device 200 with respect to the XR display 140.
  • Information indicating the three-dimensional position and orientation of the imaging device 200 with respect to the XR display 140 can be used to calculate transformation information for geometrically transforming the live view image.
  • FIG. 7 is a block diagram showing an embodiment of an imaging device according to the present invention.
  • the imaging device 200 shown in FIG. 7 is a block diagram showing the internal configuration of the imaging device 200 that constitutes the virtual image display system 10 shown in FIG. 1.
  • the imaging device 200 includes an imaging section 201, a camera processor 210, a second memory 220, an operation section 230, a display control section 248, a main monitor 241, a sub monitor 242, a viewfinder 243, an image processing section 250, a second communication section (communication section ) 260, a GPS receiver 270, a gyro sensor 272, an acceleration sensor 274, a geomagnetic sensor 276, and the like.
  • the imaging unit 201 includes an interchangeable lens 202, an image sensor 204, and an AFE 206.
  • the interchangeable lens 202 is attached to the camera body 203 and can perform two-way communication with the camera body 203 via a plurality of signal terminals provided on the lens mount of the camera body 203. For example, , transmits lens information (information such as focal length, focus position, aperture value, etc.) of the interchangeable lens 202 to the camera body 203 in response to a request signal from the camera body 203, and also transmits lens information (information such as focal length, focus position, aperture value, etc.) of the interchangeable lens 202 to the camera body 203 in response to a request signal from the camera body 203; , drive the aperture, etc.
  • lens information information such as focal length, focus position, aperture value, etc.
  • the image sensor 204 is composed of a CMOS type color image sensor, but is not limited to the CMOS type and may be a CCD type image sensor.
  • the AFE 206 performs various analog signal processing on the analog image signal output from the image sensor 204, converts it into a digital image signal, and outputs it as RAW data.
  • the camera processor 210 is composed of a CPU, etc., and controls each part in an integrated manner according to the user's operation using the operation unit 230, and also includes AF (Auto Focus) control and AE (Automatic Exposure) control. Performs various processing.
  • AF control and AE control are performed automatically when auto mode is set by the operation unit 230, and AF control and AE control are not performed when manual mode is set. Needless to say.
  • the operation unit 230 includes a shutter button 232, a shutter speed/sensitivity dial 234, and an exposure compensation dial 236, as well as a toggle switch 244, a menu/execute button 245, a playback button 246, and a display/back button 247.
  • Various instructions and settings can be performed by operating these buttons, dials, etc.
  • the operation unit 230 of the imaging device 200 of this example has a first mode (non-XR mode) in which the imaging device 200 is used in a non-XR environment (normal environment), a second mode (XR mode) in which the imaging device 200 is used in an XR environment, This differs from the operation section of a conventional imaging device in that it includes a mode switching section for switching.
  • the XR mode/non-XR mode mode switching section can use a function button assigned to set/cancel the XR mode, but a dedicated mode switching lever may also be provided.
  • the toggle switch 244 and menu/execution button 245 may be used to set/cancel the XR mode on the menu screen.
  • a mode switching lever having a configuration similar to the finder switching lever 249 shown in FIG. 2 can be provided on the front, back, or top surface of the camera body 203.
  • the second memory 220 includes flash memory, ROM, RAM, etc. Flash memory and ROM are nonvolatile memories that store various programs including firmware, parameters, captured images (still images, moving images), and the like.
  • the RAM functions as a work area for processing by the camera processor 210, and also temporarily stores firmware and the like stored in nonvolatile memory.
  • the camera processor 210 may include a portion of the second memory 220 (RAM).
  • the display control unit 248 When the display control unit 248 receives a live view image, playback image, shooting information, etc. from the camera processor 210 or the image processing unit 250, it converts it into a signal format for display and sends it to the main monitor 241, sub monitor 242, and viewfinder 243. (EVF).
  • EMF viewfinder
  • the main monitor 241 becomes operational when the monitor panel 240 is open as shown in FIGS. 3B and 3C, and displays live view images and records according to instructions from the camera processor 210 in non-XR mode. Display completed images (playback images), etc.
  • the sub-monitor 242 becomes operational when the monitor panel 240 is closed, as shown in FIG. Display the shooting information shown.
  • the viewfinder 243 can be switched between an EVF and an OVF by operating a finder switching lever, and displays a live view image in accordance with instructions from the camera processor 210 when switched to the EVF and in non-XR mode.
  • the monitor panel 240 when the monitor panel 240 is closed and in the non-XR mode, the user can perform framing while checking the shooting range with the viewfinder 243.
  • the eye sensor (not shown) will automatically switch to the display on the viewfinder 243 and take your eyes away.
  • the display can be switched to the main monitor 241.
  • the main monitor 241 and the sub monitor 242 do not display the live view image and shooting information, respectively, and for example, specify the display area of the main monitor 241 or the sub monitor 242 according to instructions from the camera processor 210.
  • a marker for example, an AR marker
  • the image processing unit 250 performs RAW development processing such as offset processing, white balance correction, gain control processing including sensitivity correction, gamma correction processing, and demosaicing processing on the RAW data output from the imaging unit 201. I do. Furthermore, for the RAW data acquired based on pressing the shutter button 232, the image processing unit 250 performs compression processing after RAW development processing, and records it as an image file in the second memory 220 or a memory card (not shown). .
  • continuous data outputted from the imaging unit 201 and subjected to RAW development processing by the image processing unit 250 is displayed as a live view image LV on the main monitor 241 or the second communication unit via the display control unit 248. 260.
  • the second communication unit 260 is a part that transmits and receives necessary information to and from the virtual image display device 100, and when the imaging device 200 is set to the XR mode and is capturing a live view image in an XR environment, the second communication unit 260 2 communication unit 260 transmits the live view image LV to the virtual image display device 100.
  • the second communication unit 260 also sends a shutter release signal to the virtual image display device 100 when the shutter button 232 (see FIG. 1) is pressed in the XR environment of the imaging device 200 to take a picture for recording.
  • the virtual image display device 100 receives the shutter release signal via the first communication unit 160, and if the avatar image is combined with the live view image at the time of reception, the first communication of the virtual image display device 100 The image of the avatar is transmitted from the unit 160 to the imaging device 200.
  • the GPS receiver 270, the gyro sensor 272, the acceleration sensor 274, and the geomagnetic sensor 276 are sensors for detecting information indicating the three-dimensional position and orientation of the imaging device 200.
  • the information indicating the three-dimensional position and orientation of the imaging device 200 is used to obtain information indicating the three-dimensional position and orientation of the imaging device 200 with respect to the XR display 140.
  • Information indicating the three-dimensional position and orientation of the imaging device 200 with respect to the XR display 140 can be used to calculate transformation information for geometrically transforming the live view image LV.
  • FIG. 8 is a main part block diagram showing the first embodiment of the virtual image display system according to the present invention, and is a functional block diagram showing the functions of the XR processor 110 of the virtual image display device 100 shown in FIG. 6.
  • the XR processor 110 functions as a transformation information acquisition section 112, a synthesis section 114, and a geometric transformation section 116.
  • the built-in camera 101 of the smart glasses photographs a visual field image IM corresponding to the user's visual field including the imaging device 200, and outputs the photographed visual field image IM to the conversion information acquisition unit 112.
  • the imaging device 200 When the imaging device 200 is being used in an XR environment, the imaging device 200 transmits the live view image LV generated by the operation of the imaging device 200 as continuous data, and the first communication unit 160 transmits the live view image LV from the imaging device 200. Receive the view image LV.
  • the conversion information acquisition unit 112 is a unit that acquires conversion information used when superimposing the live view image LV on the display area of the imaging device 200, and inputs a captured image (field of view image IM) from the built-in camera 101.
  • the conversion information acquisition unit 112 analyzes the input visual field image IM, acquires area information indicating the display area of the imaging device 200, and acquires conversion information based on the area information.
  • FIG. 9 is a diagram showing the geometric relationship between the live view image, the visual field image, and the display area of the imaging device.
  • the image coordinate system of the live view image LV is an XY coordinate system
  • the image coordinate system of the visual field image IM is an X'Y' coordinate system.
  • the vertical and horizontal image sizes of the live view image LV are assumed to be h1 and w1
  • the vertical and horizontal image sizes of the visual field image IM are assumed to be h2 and w2.
  • the coordinates of the four corner points (feature points) P1 to P4 in the XY coordinate system of the live view image LV are known based on the image size of the live view image LV.
  • the visual field image IM includes a camera image showing the imaging device 200.
  • the conversion information acquisition unit 112 uses, for example, four corner points of the display area (corresponding points P1' to P4' corresponding to the feature points P1 to P4) as area information indicating a specific display area of the imaging device 200 in the visual field image IM. ) get the coordinates of
  • the conversion information acquisition unit 112 of the first embodiment analyzes the visual field image IM as corresponding points P1' to P4' corresponding to the feature points P1 to P4 at the four corners of the live view image LV, and displays the image on the monitor panel 240 (FIG. 1). It is possible to detect the outline of a rectangle (see) and use the four corner points of the outline as corresponding points P1' to P4'.
  • the area surrounded by the rectangular outline of the closed monitor panel 240 is defined as the display area, but the display area can be defined as appropriate.
  • the conversion information acquisition unit 112 uses the display area of the visual field image IM on the camera image (the area of the monitor panel 240 specified by the corresponding points P1' to P4') to superimpose the live view image LV. Get conversion information.
  • Affine transformation can be performed using the following equation.
  • (x, y) indicates the coordinates of the live view image LV (coordinates in the XY coordinate system), and (x', y') indicate the coordinates after affine transformation (X' of the visual field image IM). coordinates in the Y' coordinate system).
  • parameters a to d are parameters indicating enlargement/reduction, rotation, and skew (shearing) of an image
  • parameters t x and t y are parameters indicating parallel movement.
  • affine transformation it is necessary to provide three or more sets of matching points (feature points and corresponding points) of two images (in this example, live view image LV and visual field image IM) for parameter estimation. Since four sets of matching points are obtained: the feature points P1 to P4 of the LV and the corresponding points P1' to P4' of the visual field image IM, the affine transformation parameters a to d, t x , t y can be found.
  • the transformation information acquisition unit 112 can acquire the parameters a to d, t x , and t y of the affine transformation as transformation information.
  • Projective transformation can be performed using the following equation.
  • the live view image LV is added to the synthesis unit 114 via the first communication unit 160.
  • the composition section 114 is a section that composes a virtual object onto the live view image LV, and the image of the virtual object generated by the virtual object generation section 150 is added to other inputs of the composition section 114.
  • the virtual object generation unit 150 reads an image of a desired virtual object (for example, an avatar) from the first memory 120 in response to a user instruction, and generates and outputs a processed image of the avatar for composition with the live view image LV.
  • a desired virtual object for example, an avatar
  • the user can register an avatar image representing the user in the first memory 120.
  • the avatar image representing the user may be a photographed image of the user, or may be an image of an anime character, a robot, a pet, or the like.
  • the user can appropriately select a hairstyle or costume by operating the operation unit 130, and the virtual object generation unit 150 can generate an image of an avatar wearing the hairstyle or costume specified by the user. can. Furthermore, when the user specifies the position, orientation, etc. of the avatar, the virtual object generation unit 150 performs processing to move the avatar image to the specified position, etc., like an avatar in a role-playing game.
  • the virtual object generation unit 150 adjusts the brightness and color of the avatar image in accordance with the brightness and color obtained from the live view image LV, etc. Good too.
  • the synthesis unit 114 synthesizes the image of the virtual object including the avatar generated by the virtual object generation unit 150 with the live view image LV added via the first communication unit 160, and performs geometric transformation on the synthesized live view image LV. 116.
  • the synthesis unit 114 outputs the input live view image LV as it is to the geometric transformation unit 116 as a live view image LV.
  • the geometric transformation section 116 is a section that geometrically transforms the live view image LV added via the synthesis section 114 based on the transformation information acquired by the transformation information acquisition section 112.
  • the transformation information acquisition unit 112 acquires the parameters (a to d, t x , t y ) of the affine transformation shown in the formula [Equation 1] as transformation information.
  • the geometric transformation unit 116 transforms the pixel at the coordinates (x, y) of the live view image LV into the pixel at the coordinates (x', y') of the visual field image IM by performing affine transformation based on the transformation information. Convert.
  • the geometric transformation by the geometric transformation unit 116 is a projective transformation
  • the parameters (h 11 to h 33 ) of the projection transformation shown in equation [2] are acquired as transformation information, and the geometric transformation unit 116 performs a live
  • the pixel at the coordinates (x, y) of the view image LV is transformed into a pixel at the coordinates (x', y') of the visual field image IM by projective transformation based on the above transformation information.
  • live view image LV (hereinafter referred to as “live view image LV1") that has been geometrically transformed by the geometric transformation unit 116 is output to the XR display 140.
  • the XR display 140 displays the geometrically transformed live view image LV1 at the corresponding pixel position of the XR display 140 (the pixel position corresponding to the visual field image IM of the built-in camera 101).
  • the live view image LV represented by four coordinates P1 to P4 of the XY coordinate system of the live view image LV is coordinate-transformed to the X'Y' coordinate system of the visual field image IM, and the four coordinates P1 to P4 of the XY coordinate system of the live view image LV are It is displayed as a live view image LV1 represented by coordinates P1' to P4'.
  • the XR display 140 adjusts the size of the camera image in the visual field image IM. It is preferable to correct parallax according to the distance (corresponding to the distance) and the position of the camera image.
  • the conversion information acquisition unit 112 of the first embodiment shown in FIG. ') is set as the display area A of the imaging device 200 and the conversion information is acquired; however, the conversion information acquisition unit 112 is not limited to this.
  • the conversion information may be acquired based on the position of a marker (hereinafter referred to as "AR marker") on the device 200.
  • FIG. 10 is a diagram showing the appearance of an imaging device provided with an AR marker.
  • the imaging device 200 shown in FIG. 10 is provided with nine AR markers M1 to M9.
  • An AR marker is a marker that indicates a pre-registered illustration, image, etc., and can be linked to location information. Therefore, by reading the AR markers M1 to M9 from the visual field image IM, the conversion information acquisition unit 112 can acquire the positional information of the positions where the AR markers M1 to M9 are displayed. Information such as the tilt, position, size, and center coordinates of the object can be obtained.
  • AR marker M1 is an AR marker displayed on the sub-monitor 242
  • AR markers M2 to M9 are AR markers provided in advance on the camera body 203.
  • AR markers M2 to M4 are AR markers that indicate the positions of three of the four corners of the monitor panel 240, and when the area of the monitor panel 240 is the display area A of the live view image LV1, the live view of the imaging device 200 This becomes an AR marker M that specifies the display area A of the view image LV1.
  • the AR marker M1 can be displayed as a marker that specifies the display area A of the live view image LV1. Further, when displaying the AR marker M on the sub-monitor 242, the number of AR markers M is not limited to one, but a plurality of AR markers M can be displayed. Furthermore, when the main monitor 241 (see FIGS. 3B and 3C) is used as the display area of the live view image LV1, a plurality of AR markers M that specify the area of the main monitor 241 can be displayed.
  • the AR marker M5 is a marker provided on the top surface of the camera body 203
  • the AR marker M6 is a marker provided on the upper back surface of the camera body 203
  • the AR marker M7 is a marker provided on the side surface of the camera body 203. It is a marker.
  • These AR markers M5 to M7 are markers provided to specify each surface of the camera body 203.
  • the AR marker M8 is a marker provided on the top surface of the shutter speed/sensitivity dial 234, and the AR marker M9 is a marker provided on the top surface of the exposure compensation dial 236.
  • These AR markers M8 and M9 are markers provided to specify the position (including rotational position) of the dial.
  • the AR markers M4 to M9 can be used to specify an area for pasting a virtual object (skin that changes the appearance) on the camera body 203.
  • the marker may be configured by a two-dimensional barcode (for example, a "QR code” (registered trademark)).
  • a two-dimensional barcode When displaying a two-dimensional barcode, information about what the imaging device 200 is displaying, data and indicators displayed within the live view image (numeric information such as shutter speed, aperture value, histogram, etc.) are encoded.
  • the barcode may be a two-dimensional barcode, and the two-dimensional barcode may include information that incorporates location information for the data display.
  • markers M1 to M9 markers having other shapes suitable for specifying the position may be used, and the AR marker M and the two-dimensional barcode may be mixed, and the type, position, and The number is not limited to the embodiment shown in FIG.
  • the conversion information acquisition unit that acquires the conversion information used when superimposing the live view image LV on the display area A of the imaging device 200 is not limited to the case where the field of view image IM taken by the built-in camera 101 is used.
  • the relative three-dimensional position of the imaging device 200 with respect to the XR display 140 (first display) is obtained by acquiring information indicating the three-dimensional position and orientation of the XR display 140 and information indicating the three-dimensional position and orientation of the XR display 140 By acquiring information indicating the posture and posture, conversion information can be acquired.
  • the conversion information acquisition unit acquires information indicating the three-dimensional position and orientation of the XR display 140 based on sensor outputs of the GPS receiver 170, gyro sensor 172, acceleration sensor 174, and geomagnetic sensor 176 of the virtual image display device 100. Similarly, information indicating the three-dimensional position and orientation of the XR display 140 can be acquired based on the sensor outputs of the GPS receiver 270, gyro sensor 272, acceleration sensor 274, and geomagnetic sensor 276 of the imaging device 200. can.
  • the virtual image display device 100 (XR display 140) is represented by a global coordinate system and the imaging device 200 is represented by a camera coordinate system (local coordinate system)
  • the size and shape of the imaging device 200 are known. Therefore, the three-dimensional position (for example) of each part of the imaging device 200 in the local coordinate system can be set in advance.
  • the center of the display element of the XR display 140 is the origin, and the directions in the mutually orthogonal plane of the display element passing through the origin of the display element are the X-axis and Y-axis. It can be defined as a three-axis orthogonal coordinate system of XYZ, with the Z axis being the normal direction passing through the origin of the element.
  • acquiring the information indicating the three-dimensional position and orientation of the XR display 140 and the information indicating the three-dimensional position and orientation of the imaging device 200 (that is, the three-dimensional position and orientation of the imaging device 200 with respect to the XR display 140
  • the information indicating the dimensional position and orientation it is possible to acquire conversion information used when superimposing the live view image LV on the display area A of the imaging device 200 based on this information.
  • the coordinates are converted into coordinates in the global coordinate system, which is the coordinate system of the XR display 140.
  • the three-dimensional position of the display area A of the imaging device 200 that is, the three-dimensional position of the live view image LV
  • the focal length of the optical system etc.
  • information indicating the relative three-dimensional position and orientation of the imaging device 200 with respect to the XR display 140 is obtained from the GPS receiver 170, gyro sensor 172, acceleration sensor 174, and geomagnetic sensor 176 of the virtual image display device 100.
  • the light provided in the virtual image display device 100 is not limited to the case where it is determined based on the sensor output and the sensor output of the GPS receiver 270, gyro sensor 272, acceleration sensor 274, and geomagnetic sensor 276 of the imaging device 200.
  • a sensing measurement device for example, LiDAR (Light Detection And Ranging)
  • distance images acquired by a TOF (Time Of Flight) camera or stereo images acquired by built-in cameras installed on the left and right sides of smart glasses. You can ask for it.
  • FIG. 11 is a diagram showing a first embodiment of an XR display of a virtual image display device.
  • the XR display 140 shown in FIG. 11 is a display that transmits the visual field, and is a wearable device (smart glasses) in the form of glasses that displays a live view image LV1 that has been geometrically transformed into the visual field of the real world.
  • a wearable device smart glasses in the form of glasses that displays a live view image LV1 that has been geometrically transformed into the visual field of the real world.
  • the XR display 140 includes a display element 144, an optical system 146 including a lens 146A, and a half mirror 146B.
  • the live view image LV1 after the geometric transformation displayed on the display element 144 is displayed as a virtual image at a display position in front of the user's eyes by the optical system 146.
  • the user can visually recognize the real world transmitted through the half mirror 146B, and can also visually recognize the live view image LV1 reflected by the half mirror 146B and superimposed on the real world.
  • the live view image LV1 is an image superimposed on the display area A of the imaging device 200 in the real world, and is not a reflected light beam from the imaging device 200, so it is a virtual image.
  • the display element 144 shown in FIG. 11 is a surface emitting element such as an organic EL (electro-luminescence) panel or a liquid crystal panel, but is not limited to this.
  • the display element may include a DMD (Digital Micromirror Device) arranged in a plane on a circuit and a light source that makes red, green, and blue light enter the DMD.
  • DMD Digital Micromirror Device
  • FIG. 12 is a diagram showing a first display example of a live view image and the like when the imaging device is set to the XR mode.
  • FIG. 12(A) is a diagram showing an image when viewing the imaging device 200 with the naked eye.
  • the monitor panel 240 is closed, and the shooting information is displayed on the sub-monitor 242.
  • the XR mode is set and the user is not wearing the virtual image display device 100 (smart glasses), the user cannot observe the live view image LV1.
  • FIG. 12(B) is a diagram showing an image when the imaging device 200 is viewed with the virtual image display device 100 attached.
  • the first display example shown in FIG. 12(B) shows a case where the live view image LV1 is displayed in an overlapping manner on the area of the closed monitor panel 240 of the imaging device 200.
  • the user sees as if the live view image LV1 is being displayed in the area of the monitor panel 240.
  • FIG. 13 is a diagram showing a second display example of a live view image and the like when the imaging device is set to the XR mode.
  • the second display example shown in FIG. 13 shows a case where the live view image LV1 is displayed in an overlapping manner in the area of the main monitor 241 of the imaging device 200. Further, FIG. 13 shows the imaging device 200 with the monitor panel 240 rotated by 90 degrees. In this case, the main monitor 241 inside the monitor panel 240 can be viewed from above, making it suitable for low-angle photography.
  • a live view image is not displayed on the main monitor 241, and by wearing the virtual image display device 100, the user can view a live view image in the area of the main monitor 241. The view image appears to be displayed.
  • the generated live view image LV1 is limited according to the movable range of the main monitor 241 of the imaging device 200, but since the main monitor 241 cannot freely rotate, the live view image LV1 is There is an advantage that the display orientation of the view image LV1 does not become unclear, and the operation method is the same as that of the actual imaging device 200, so the operability is good and there is no confusion.
  • a dummy monitor panel can be displayed, and the live view image LV1 can be displayed on the dummy monitor panel.
  • the movable range of the dummy monitor panel can be made larger (for example, +10 degrees larger) than the movable range of the real monitor panel 240.
  • FIG. 14 is a diagram showing a third display example of a live view image and the like when the imaging device is set to the XR mode.
  • the third display example shown in FIG. 14 is a modification of the first display example shown in FIG. The case where LV1 is displayed in an overlapping manner is shown.
  • the size of the live view images LV1 that are geometrically deformed and displayed in an overlapping manner can be freely set, and in the third display example shown in FIG. 14, by wearing the virtual image display device 100, the user can The live view image LV1 appears to be displayed on a dummy monitor panel of a non-existent size that is larger than the size of the panel 240.
  • the size of the dummy monitor panel is not limited to a fixed size, and may be expanded or contracted in conjunction with an enlargement operation such as pulling a corner of the monitor panel 240.
  • the monitor panel 240 has a feel-imparting member that makes the user feel the feeling of actually pulling the image frame.
  • a method for detecting an enlargement operation such as pulling a corner of the monitor panel 240 is to use the principle of gesture control by image recognition of the built-in camera 101 of the virtual image display device 100 to detect a dummy image in accordance with the enlargement/reduction operation.
  • the size of the monitor panel may be enlarged or reduced, or other methods may be used, such as detecting a pinch operation on the touch panel provided on the monitor panel 240 of the imaging device 200 and linking the pinch operation. Also good.
  • the aspect ratio of the dummy monitor panel remains fixed, and the dummy monitor panel expands in the direction in which you are pulling it and upwards, or it expands evenly in the direction in which you are pulling it and up and down. It may be expanded or expanded downward.
  • FIG. 15 is a diagram showing a fourth display example of a live view image and the like when the imaging device is set to the XR mode.
  • the fourth display example shown in FIG. 15 shows a case where the live view image LV1 is displayed in an overlapping manner on a non-existent monitor panel area.
  • the monitor panel 240 is equipped with a rotation mechanism that can tilt relative to the camera body 203 as shown in FIGS. 3(B) and (C), but as shown in FIG. It does not have a movement mechanism.
  • a virtual rotation mechanism is provided on the right side of the back surface of the camera body 203, and the monitor panel is rotated as appropriate.
  • the live view image LV1 is approximately the same size as the monitor panel 240, one end of which appears to be fixed to the imaging device 200, and the live view image LV1 can be tilted in the direction of the user. It is displayed so that it appears directly in the direction of the line of sight.
  • the display is displayed so as to be tilted horizontally using one of the left and right sides as an axis, but this is just an example, and the display may be tilted in the vertical direction using one of the top and bottom sides as a fixed axis.
  • an amorphous display may also be performed by combining tilts in two different directions.
  • the monitor panel does not appear to be fixed to the imaging device 200 on either side, but may be represented in a virtual image as if it were connected by a hinge mechanism.
  • FIG. 16 is a diagram showing a fifth display example of a live view image and the like when the imaging device is set to the XR mode.
  • the fifth display example shown in FIG. 16 is a modification of the fourth display example shown in FIG. 15, and is shown for the case where the camera body 203 is in the opposite direction. That is, in the fifth display example shown in FIG. 16, a virtual rotation mechanism is provided on the left side of the back surface of the camera body 203, and the monitor panel is rotated as appropriate. Thereby, the live view image LV1 is displayed so as to have approximately the same size as the monitor panel 240 and to appear directly facing the line of sight.
  • a virtual two- or three-axis hinge is provided to rotate the monitor panel, and the monitor panel is automatically rotated and displayed relative to the camera body so that the live view image LV1 is always viewed directly facing the camera body. It is preferable to let As a result, you can obtain a feeling of operation similar to that of a real camera, without being confused, and without creating an unnatural composite image that looks like the live view image LV1 is floating in the air, allowing you to shoot with a more realistic feeling. This improves the quality of the shooting action.
  • FIG. 17 is a diagram showing a modification to the fifth display example of the live view image etc. shown in FIG. 16.
  • FIG. 17(A) is a diagram showing the same display state as the fifth display example of the live view image etc. shown in FIG. 16. As shown in FIG. 17A, the imaging device 200 is shown in a case where the entire imaging device 200 is within the field of view of the XR display 140.
  • FIG. 17(B) shows a case where the imaging device 200 shown in FIG. 17(A) moves to the left with respect to the field of view of the XR display 140, and the left half of the imaging device 200 is out of the field of view.
  • the virtual image display device 100 can receive the live view image LV from the imaging device 200, it can display the live view image LV1 on the XR display 140 as shown in FIG. 17(B). . That is, the virtual image display device 100 moves the live view image LV1 to the right side in FIG. 17B from the original display position with respect to the imaging device 200, and displays the entire live view image LV1.
  • FIG. 17(C) shows that the imaging device 200 shown in FIG. 17(B) has moved further to the left.
  • the case is shown in which the left two-thirds of the imaging device 200 is out of the field of view of the XR display 140.
  • the virtual image display device 100 moves the live view image LV1 further to the right in FIG. 17(C) from the display position shown in FIG. 17(B) with respect to the imaging device 200, and Display the entire LV1.
  • FIG. 17(D) shows that the imaging device 200 shown in FIG. 17(C) has moved further to the left.
  • the virtual image display device 100 moves the live view image LV1 further to the right in FIG. 17(D) from the display position shown in FIG. 17(C) with respect to the imaging device 200, and Display the entire LV1.
  • the left end of the live view image LV1 coincides with the left end of the visual field.
  • the display example shown in FIG. 17 shows a case where the imaging device 200 moves to the left and goes out of the field of view, but the present invention is not limited to this.
  • the imaging device 200 moves to the right and goes out of the field of view, it moves upward.
  • the live view image LV1 can be moved in the same manner as described above, and the entire live view image LV1 can be displayed.
  • FIG. 18 is a diagram showing a sixth display example of a live view image and the like when the imaging device is set to the XR mode.
  • the sixth display example shown in FIG. 18 shows a case where photographing information INFO is displayed in an overlapping manner in an area wider than the sub-monitor 242 (see FIG. 1) of the closed monitor panel 240 of the imaging device 200.
  • This photographing information INFO includes a histogram in addition to the photographing information normally displayed on the sub-monitor 242 (see FIG. 12(A)).
  • This histogram is a brightness histogram showing the brightness distribution of the live view image currently being captured.
  • the histogram is not limited to a luminance histogram, but may be an RGB histogram for each color of R (red), G (green), and B (blue).
  • the photographing information INFO includes not only information indicating photographing conditions such as shutter speed, aperture value, and EV value (exposure value), but also various photographic information.
  • photographing conditions such as shutter speed, aperture value, and EV value (exposure value)
  • various photographic information For example, metadata representing subject information, ISO sensitivity, detection area information such as face recognition frame and AF frame, etc. can be included in the photographing information INFO.
  • the virtual image display device 100 can receive text data or images indicating shooting information INFO from the imaging device 200. Further, when the photographing information INFO is displayed on the sub-monitor 242, the virtual image display device 100 can acquire the photographing information INFO by reading the photographing information INFO through image recognition.
  • the photographing information INFO includes camera identification information to distinguish it from data of other imaging devices, but when displaying the photographing information INFO, the camera identification information is hidden.
  • the virtual image display device 100 synthesizes and displays the shooting information INFO, it is preferable to display the live view image LV in a superimposed manner in the area of the viewfinder 243.
  • the user wearing the virtual image display device 100 brings his or her eyes close to the viewfinder 243, the user can visually recognize the live view image LV from the eyepiece of the viewfinder 243.
  • FIG. 19 is a diagram showing a first external appearance example of the imaging device when the imaging device is set to the XR mode.
  • the imaging device 200 is provided with AR markers M1 to M9, and the virtual image display device 100 detects the positions of the AR markers M1 to M9 from the visual field image IM. 200 or a polygon representing the external shape of the imaging device 200.
  • the virtual image display device 100 creates an appearance that is different from the original appearance of the imaging device 200 by pasting and synthesizing virtual object images (skins) showing the appearance of the imaging device 200 along with the AR markers M1 to M9. can be displayed.
  • the above example describes a method of pasting and synthesizing a virtual object image (skin) showing the appearance of the imaging device 200. It does not have to be attached flatly to the surface to which it is attached.
  • the lens 200B may have a shape in which a separate member appears to protrude or is attached.
  • the lens 200B may be configured to be removable. Furthermore, an operation such as holding and removing the lens 200B (for example, a gesture simulating a lens exchange such as rotating it and pulling it apart) can be detected by image recognition, and the attachment/detachment can be performed in conjunction with that operation. good.
  • an operation such as holding and removing the lens 200B (for example, a gesture simulating a lens exchange such as rotating it and pulling it apart) can be detected by image recognition, and the attachment/detachment can be performed in conjunction with that operation. good.
  • the monitor on the back of the camera body 203 is enlarged, and the switches on the back are changed.
  • FIG. 20 is a diagram showing a second external appearance example of the imaging device when the imaging device is set to the XR mode.
  • the virtual image display device 100 changes the appearance of the imaging device 200 by pasting and synthesizing virtual object images (skins) showing the appearance of the imaging device 200.
  • the top surface of the camera body 203 has been changed to a simple shape with only a shutter button 232.
  • the shutter speed/sensitivity dial 234 and the exposure compensation dial 236 shown in FIG. 1 etc. become invisible.
  • the imaging device 200 When the imaging device 200 is set to XR mode and some of the operation systems of the imaging device 200 become invisible due to a change in appearance, the imaging device 200 changes the operation system that becomes invisible (actual shutter speed/sensitivity dial 234 and exposure It is preferable to disable the correction dial 236, etc.).
  • FIG. 21 is a diagram showing a third external appearance example of the imaging device when the imaging device is set to the XR mode.
  • the virtual image display device 100 changes the appearance of the imaging device 200 by pasting and synthesizing virtual object images (skins) showing the appearance of the imaging device 200.
  • the position of the viewfinder has been changed from the left end to the center, and the monitor and operation system on the back of the camera body 203 have been removed.
  • FIG. 22 is a conceptual diagram when changing the appearance of the imaging device by dividing it into a plurality of regions.
  • the first memory 120 of the virtual image display device 100 stores a virtual object image showing the appearance of each divided area in which the appearance of the imaging device 200 is divided into a plurality of areas.
  • an interchangeable lens section 151, a leather exterior section 152, an operation dial section 153, an upper exterior section 154, a finder section 155, and a monitor section 156 are stored in the first memory 120 as virtual object images. .
  • the interchangeable lens section 151 includes a plurality of interchangeable lens sections of different types, such as a wide-angle lens and a telephoto lens.
  • the leather exterior portion 152 includes black leather, brown leather, red leather, crocodile pattern, and the like.
  • the upper exterior portion 154 includes exteriors with textures and colors such as silver, black, gold, and two-tone.
  • the finder section 155 and the monitor section 156 also include those of various shapes and sizes.
  • the user can change the appearance of the imaging device 200 to an original appearance by selecting and combining virtual object images showing the appearance of each of these divided regions by operating the operation unit 230.
  • the XR processor 110 receives one or more virtual object images showing the external appearance through a user operation on the operation unit 230, and performs appropriate geometric transformation on these virtual object images based on the three-dimensional position and orientation of the imaging device 200. , output to the XR display 140. Thereby, the user can recognize the imaging device visually recognized via the XR display 140 as having the appearance of the virtual object image selected by the user.
  • the XR processor 110 receives virtual object images of a combination selected from a plurality of combinations, performs appropriate geometric transformation on these virtual object images based on the three-dimensional position and orientation of the imaging device 200, and displays the images on the XR display 140. Output to.
  • effective combinations of multiple types of virtual object images may be determined based on past learning results (determined by AI (artificial intelligence)) and registered or updated.
  • AI artificial intelligence
  • the configuration may be such that the arrangement can be changed, such as exchanging the shutter speed/sensitivity dial 234 and the exposure compensation dial 236 shown in FIG. 1, etc., for example.
  • the user can perform an operation to make the appearance of the imaging device 200 an original appearance by selecting and combining virtual object images showing the appearance of each divided area by operating the operation unit 230.
  • an operation to make the appearance of the imaging device 200 an original appearance by selecting and combining virtual object images showing the appearance of each divided area by operating the operation unit 230.
  • the virtual appearance may be changed by controlling the display to move or replace the virtual object images.
  • the image of the imaging device 200 displayed on the XR display 140 is displayed with increased brightness, or the inner part is
  • the image of the imaging device 200 being used within the image field of view may be made to appear to be shining by displaying a beam of light around it to indicate that it is shining.
  • these virtual object images are suitably geometrically transformed and synthesized based on the three-dimensional position and orientation of the imaging device 200.
  • the virtual image display device 100 can enlarge and display the live view image LV1 as if it were photographed with a telephoto lens. can.
  • FIG. 23 is a perspective view of an imaging device compatible with use in an XR environment.
  • the imaging device 280 shown in FIG. 23 includes a dummy lens 281, three real lenses 282, and a dummy monitor 283.
  • the dummy lens 281 is a lens that constitutes only the external appearance and has no photographic function.
  • the three real lenses 282 are lenses with different focal lengths, and the user can select and use them as appropriate.
  • a live view image captured by the real lens 282 is transmitted to the virtual image display device 100.
  • the dummy monitor 283 is a variable dummy monitor that does not have a display function and is rotatable relative to the camera body.
  • the live view image is not displayed on the main monitor 241 etc., and the virtual image display device 100 superimposes the live view image LV1 on the display area of the imaging device 200.
  • the virtual image display device 100 displays the live view image superimposed on the dummy monitor 283 of the imaging device 280.
  • the virtual image display device 100 can display a live view image superimposed on the rotated dummy monitor 283. Thereby, the same live view image LV1 as shown in FIGS. 13, 15, and 17 can be displayed.
  • FIG. 24 is a perspective view from the back side showing an embodiment of a virtual camera constituting the virtual image display system according to the present invention.
  • a virtual camera 290 shown in FIG. 24 is a virtual camera equipped with at least a grip that can be held by hand, and is provided with operation switches.
  • the term "virtual camera” is used, there is an actual grip part, and it does not mean that it is a camera based on virtual display.
  • the virtual camera 290 is a dummy camera that does not have an imaging unit such as a lens or an image sensor, and does not have a camera function, and the virtual camera 290 of this example has the external shape of only a grip part.
  • the grip portion of the virtual camera 290 is provided with an operating member including at least a shutter button.
  • the operating member is a dummy switch that is movable by user operation but does not generate an operating signal.
  • the virtual camera 290 does not require a lens or an image sensor, the communication section can be greatly simplified, the weight can be reduced, and the virtual camera 290 can be easily miniaturized by folding or the like. Furthermore, even with the virtual camera 290 that does not have a camera function, the user can experience framing and operation of the operating members in the same way as with a normal camera.
  • the operating members of the virtual camera 290 in this embodiment are dummy switches that are movable by the user's operation but do not generate an operating signal.
  • each operating member of the virtual camera 290 can be operated with a feeling of actual operation.
  • an operation detection unit that detects user operations
  • a communication unit that transmits operation signals (not including transmission of live view images)
  • each operation of the virtual camera 290 performed by the user can be performed.
  • the operation performed by the user can be reflected in real time. You can also do this.
  • this method is not limited to this method, and as another variation, each operating member of the virtual camera 290 can be operated so as to provide a feeling of actual operation. Even if the device does not have an operation detection unit or a communication unit that detects operations, the quality of the operation feeling can be improved. In this case, the movement of the user's finger and the operating status of the operating member can be detected by image recognition using the imaging device 200 included in the virtual image display device 100 or the virtual image display system 10 or a camera eye for image recognition. It is possible to reflect the operations performed by the user in real time. In this case, the time required for reflection and the error rate of reflection are generally inferior to those that have an operation detection hand part and a communication part, but depending on the performance of image recognition, it should be comparable in practical terms. I can do it.
  • FIG. 25 is a perspective view from the front side showing an embodiment of a virtual camera that constitutes a virtual image display system according to the present invention.
  • the virtual camera 290 shown in FIG. 25(A) is a perspective view of the virtual camera 290 shown in FIG. 24 from the back side, viewed from the front side.
  • the virtual camera 290 is a dummy camera that does not have an imaging unit such as a photographic lens or an image sensor, and does not have a camera function.
  • the virtual camera 290B shown in FIG. 25(B) has a small camera 293B, such as the one installed in a smartphone, built into the front of the grip in a part that is not hidden by the hand holding the grip.
  • the communication unit that includes image transmission is provided, so that the content of the operation performed by the user on each operation member of the imaging device 290B and the live view acquired by the small camera 293B are provided. Images and the like can be transmitted to the virtual image display device 100 (or the virtual image display system 10 or the XR server 300 described later) via the communication unit.
  • the subsequent flow is similar to the embodiment in which a smartphone is also used, which will be described later.
  • the virtual camera 290B can be used as a real imaging device using the camera function of the camera-equipped grip section.
  • the built-in camera 10 of the virtual image display device 100 may be used as a live view image taken by the grip with a camera, as in an embodiment using a smartphone, which will be described later.
  • the final image may be obtained by performing complementation, resolution enhancement, overexposure, underexposure correction, etc. using the visual field image IM or the live view image acquired from the XR server 300.
  • the virtual camera 290C shown in FIG. 25(C) has a small camera 293C for image recognition built into the front of the grip in a part that is not hidden by the hand holding the grip.
  • This small camera 293C may have a lower resolution than the small camera 293B shown in FIG. 25(B).
  • the virtual camera 290C has a communication unit in addition to an operation detection unit that detects an operation, but the communication unit in this case does not need to be one that transmits images. If the communication unit does not include image transmission, the communication unit does not transmit the operation details of each operation member of the virtual camera 290C performed by the user and the image data acquired by the small camera 293C, but rather transmits the image data acquired by the small camera 293. From the image data, using image recognition etc., information on the subject to which the virtual camera 290C is directed, information on the range of the set angle of view, etc. is converted into numerical values or characters, and the information is sent to the communication unit along with the operation details for each operation member.
  • the information can be transmitted to the virtual image display device 100 (or the virtual image display system 10 or the XR server 300) via the .
  • This allows the configuration to be smaller and lower in cost than a communication unit that includes image transmission.
  • the subsequent process flow can be realized by a combination of the embodiment using a dummy camera without a camera function and the embodiment using a smartphone, which will be described later, so the explanation thereof will be omitted.
  • FIG. 26 is a perspective view showing another embodiment of the virtual camera that constitutes the virtual image display system according to the present invention.
  • a virtual camera 292 shown in FIG. 26 is a combination of the virtual camera 290 shown in FIG. 24 and a smartphone 291.
  • This virtual camera 292 can be used as a virtual camera without a camera function, or as a real imaging device using the camera function of the smartphone 291.
  • the live view image taken by the smartphone 291 is acquired from the visual field image IM of the built-in camera 101 of the virtual image display device 100 or from the XR server 300, as described later.
  • the final image may be obtained by performing complementation, resolution enhancement, overexposure, and underexposure correction using the live view image.
  • the virtual camera 290 shown in FIG. 24 and the virtual camera 292 when the camera function of the smartphone 291 is not used cannot capture live view images
  • the virtual camera 290 Images (live view images) corresponding to H.292 viewing angles can be acquired.
  • FIG. 27 is a diagram illustrating an embodiment of a method for acquiring a live view image taken by a virtual camera.
  • the built-in camera 101 of the virtual image display device 100 photographs the visual field image IM corresponding to the user's visual field including the virtual camera 290, and obtains the photographed visual field image IM.
  • L1 is the optical axis of the built-in camera 101.
  • a live view image captured when the virtual camera 290 has a camera function can be specified by the three-dimensional position, orientation (shooting direction), and angle of view of the virtual camera 290.
  • L2 is the assumed optical axis of the virtual camera 290, and can be determined from the three-dimensional position and orientation of the virtual camera 290.
  • the virtual image display device 100 can acquire information indicating the three-dimensional position and orientation of the virtual camera 290 with respect to the XR display 140.
  • the angle of view of the virtual camera 290 is set, the live view image taken by the three-dimensional position, attitude, and angle of view of the virtual camera 290 corresponds to which range of the field of view image IM taken by the built-in camera 101. You can ask whether
  • the virtual image display device 100 can cut out an image corresponding to the angle of view of the virtual camera 290 from the visual field image IM taken by the built-in camera 101 and obtain it as a live view image.
  • the angle of view of the built-in camera 101 is wider than the angle of view set for the virtual camera 290, and the visual field image IM includes a live view image captured by the virtual camera 290.
  • the virtual image display device 100 can acquire a live view image that can be captured if the virtual camera 290 has an imaging unit from the visual field image IM captured by the built-in camera 101.
  • the virtual image display device 100 can geometrically transform the acquired live view image and display it in a display area set for the virtual camera 290 (for example, an area adjacent to the grip part of the virtual camera 290).
  • the virtual image display device 100 can perform geometric transformation on the acquired live view image and display it in a superimposed manner on the display area of the smartphone 291 of the virtual camera 292.
  • the virtual image display device 100 can detect user operations (gestures) of switches on the virtual camera 290 by analyzing the field of view image IM taken by the built-in camera 101, and can detect user operations (gestures) of switches on the virtual camera 290. Photographing for recording purposes, storage, and other processing may be performed.
  • the virtual camera is not limited to the one with only a grip part, but various types with different external shapes, sizes, and the arrangement and presence of switches can be considered.
  • the virtual camera 290 of this example does not have a camera function, it does have real switches, a communication section, etc., and the operation information of the switches is transferred to the virtual camera via a simple communication section provided in the virtual camera 290. It may also be transmitted to the image display device 100.
  • FIG. 28 is a diagram showing a second embodiment of the XR display of the virtual image display device.
  • the XR display 141 shown in FIG. 28 is an immersive display that covers the field of view, and is a wearable device that has a goggle-type virtual image display function. It consists of 147.
  • the captured image (field image IM) captured by the built-in camera 101 is output to the image composition unit 143.
  • the geometrically transformed live view image LV1 is added to the other input of the image combining unit 143, and the image combining unit 143 combines the live view image LV1 with the display area of the camera image included in the visual field image IM. (Pasting) and output to the display element 145.
  • the display element 145 displays the visual field image IM in which the live view image LV1 is synthesized.
  • This visual field image IM is displayed as a virtual image by the optical system 147 at a display position in front of the user's eyes.
  • a user wearing the goggle-type XR display 141 can visually recognize the virtual image of the visual field image IM displayed on the display element 145 through the optical system 147. Since the user's visual field is covered by the goggle-type XR display 141, the user cannot see anything other than the visual field image IM, and can be deeply immersed in the unreal world.
  • XR display 141 Although only one XR display 141 is shown in FIG. 28, in the case of a goggle type, a pair of left and right XR displays 141 are provided corresponding to both eyes. Therefore, the built-in cameras 101 and the like are also provided on the left and right sides, and the live view image LV1 is also generated for the left and right sides.
  • FIG. 29 is a block diagram showing a second embodiment of the virtual image display system according to the present invention.
  • the virtual image display system 11 shown in FIG. 29 includes a virtual image display device 180, a virtual camera 290, and a server (XR server) 300.
  • the virtual image display device 180 is almost the same as the virtual image display device 100 shown in FIG. 6, but differs from the virtual image display device 100 in that it transmits and receives necessary information to and from the XR server 300.
  • the XR server 300 includes a database (DB) 302 that manages three-dimensional images (XR space construction data) having three-dimensional information of real space.
  • DB database
  • the XR server 300 collects images taken by a large number of cameras including a multi-view camera 320, a surveillance camera 330, a drive recorder 340, a drone camera 310, or a mobile terminal camera arranged in real space, and generates the latest XR space. Construction data is generated and managed in a database 302.
  • the database 302 digitizes city blocks, cities, shopping streets, tourist spots, etc. and manages them as XR space construction data. Furthermore, it is preferable to have a plurality of XR servers 300 cooperate with each other to manage XR space construction data over a wider area.
  • the XR processor 111 of the virtual image display device 180 has the same functions as the XR processor 110 of the virtual image display device 100 shown in FIG. Based on the (first information), the XR space construction data corresponding to the imaging area of the virtual camera 290 is cut out from the XR space construction data managed by the XR server 300, and the cut out three-dimensional XR space construction data is This two-dimensional image is converted into a dimensional image and used as a live view image.
  • the XR processor 111 converts the three-dimensional XR space construction data read from the database 302 into camera internal parameters (in this example, preset The image is converted into a two-dimensional image by perspective projection transformation using the angle of view or focal length), and this is defined as a live view image LV.
  • the XR processor 111 analyzes the field of view image IM taken by the built-in camera 101 to identify the display area of the virtual camera 290, and converts the live view image LV to be used when superimposing the display area of the virtual camera 290.
  • the information is acquired, and the live view image LV is geometrically transformed based on the acquired transformation information, but the transformation information is transformed based on the relative three-dimensional position and orientation of the XR display 140 of the virtual image display device 180 and the virtual camera 290.
  • the built-in camera 101 can be omitted.
  • the XR processor 111 may generate a better live view image using image data transmitted from imaging devices of other people nearby.
  • the XR server 300 uses not only the current image but also images recorded in the past as images of the multi-view camera 320, etc., and uses composite synthesis of multiple images to achieve higher resolution than a single image.
  • image quality XR spatial construction data is constructed. The number of pixels in an image can be increased by using a plurality of images and processing and compositing them using slight pixel shifts.
  • the XR server 300 may combine the virtual object image with the XR space construction data.
  • the XR space construction data includes an image of a person
  • the XR server 300 can convert it into an image of an avatar that imitates the person, and change the image of the person to the image of the avatar.
  • the XR server 300 may add the person's image to the registered avatar image. Can be changed.
  • the virtual image display device 180 can acquire the live view image LV including the avatar image from the XR server 300.
  • the image in which the user is included may be used by another person, but in this case, it is preferable to notify or warn to that effect on the virtual image display device 100. Furthermore, it is possible to set permission/disapproval for images containing the user, and if the setting is set to permission, notification etc. can be omitted.
  • the other party will be notified of this, a warning will be sent, or a signal will be sent to lock the other party's shooting.
  • a signal that causes a mosaic to be applied to the user's own image or a generation prohibition signal that prevents the generation of the other party's image.
  • the other party's device preferably performs image processing so as not to generate an image of the prohibited subject (erasing it, filling it with the background, etc.).
  • the virtual image display device 180 acquires the live view image LV from the XR server 300; however, the present invention is not limited to this, and the virtual image display device 180 may acquire the live view image LV from the XR server 300. Necessary information may be sent to the XR server 300, and the XR server 300 may acquire the live view image LV and send it to the virtual image display device 180, or the live view image LV may be geometrically transformed. The live view image LV1 may be transmitted to the virtual image display device 100.
  • the XR server 30 acquires a visual field image IM in the same manner as the method of acquiring the live view image LV, and transmits it to the virtual image display device 100. You can also do this.
  • the present invention can also be applied to a case where the imaging device 200 is used.
  • the imaging device 200 when the imaging device 200 is used in an XR environment, the imaging device 200 does not capture a live view image but acquires it from the XR server 300.
  • the latest XR space construction data is registered in the database 302 of the XR server 300, it is not necessarily real-time XR space construction data, so the live view image LV generated from the latest XR space construction data is not necessarily This is not a real-time image.
  • the virtual image display device 180 adjusts the brightness and color of the live view image LV, for example, in accordance with the brightness and color of the visual field image IM captured by the built-in camera 101.
  • the posture of the virtual camera 290 can be arbitrarily operated by the user by holding the virtual camera 290 in hand, but the three-dimensional position of the virtual camera 290 is not the actual position, but can be changed to an arbitrary position by the user's operation. By making this possible, users can enjoy photographing tourist spots and the like while staying at home.
  • FIG. 30 is a flowchart showing the first embodiment of the virtual image display method according to the present invention.
  • the virtual image display method of the first embodiment shown in FIG. 30 is performed by the virtual image display device 100, and is mainly performed by the XR processor 110 of the virtual image display device 100 shown in FIG.
  • the XR processor 110 acquires a visual field image IM taken by the built-in camera 101 (step S100).
  • the XR processor 110 analyzes the visual field image IM and extracts a camera image showing the imaging device 200 included in the visual field image IM (step S102).
  • the visual field image IM captured by the built-in camera 101 usually includes a camera image showing the imaging device 200, as shown in FIG. It is.
  • the XR processor 110 determines whether the imaging device 200 is an XR compatible camera from the extracted camera image (step S104). This determination can be made, for example, by comparing the extracted camera image with external appearance data of the XR compatible camera stored in the first memory 120 in advance. Further, the determination can be made based on whether or not the AR marker M provided in the imaging device 200 matches an AR marker M registered in advance.
  • the XR processor 110 determines that the imaging device 200 photographed by the built-in camera 101 is an XR-compatible camera (in the case of "Yes"), the XR processor 110 then detects whether the imaging device 200 is in an XR mode or a non-XR mode. (Step S106).
  • XR mode/non-XR mode detection can be performed by detecting the AR marker M when the imaging device 200 is set to the XR mode and the AR marker M is displayed on the main monitor 241 or the sub monitor 242. . Furthermore, if the imaging device 200 has a dedicated mode switching lever, this can be done by image recognition of the position of the mode switching lever. Furthermore, when a camera image is extracted from the visual field image IM, the XR processor 110 automatically wirelessly connects the virtual image display device 100 to the imaging device 200 and performs XR processing based on the result of communication with the imaging device 200. Mode/non-XR mode detection can be performed. For example, if there is no response from the imaging device 200 to a call from the virtual image display device 100, it can be determined that the imaging device 200 is not set to the XR mode.
  • step S108 if it is determined from the XR mode/non-XR mode detection result that the imaging device 200 is not set to the XR mode (in the case of "No"), the XR processor 110 sets the virtual image display device 100 ( The overlay synthesis function of live view images in the smart glasses) is turned off (step S110), and the process returns to step S100. This allows the user to see only the real world through the smart glasses.
  • step S108 if it is determined from the XR mode/non-XR mode detection result that the imaging device 200 is set to the XR mode (in the case of "Yes"), the imaging device 200 is 200 display area A (see FIG. 10) is specified.
  • the display area A can be specified by detecting the rectangular outline of the monitor panel 240 or by detecting the AR markers M2 to M4 attached to the imaging device 200.
  • the XR processor 110 acquires conversion information used when superimposing the live view image LV on the display area A of the imaging device 200.
  • the parameters of the affine transformation transformation matrix
  • the transformation matrix of projective transformation can be obtained from the coordinates of a plurality of feature points in the live view image LV and the coordinates of a plurality of corresponding points in the display area A corresponding to the plurality of feature points.
  • the XR processor 110 receives the live view image LV from the imaging device 200 (step S116). Although the live view image LV is continuous data, one frame worth of image data is received in step S116.
  • the XR processor 110 geometrically transforms the live view image LV (one frame of image data) based on the conversion information acquired in step S114, and outputs the geometrically transformed live view image LV1 to the XR display 140 (step S118). .
  • the XR display 140 receives the geometrically transformed live view image LV1 as shown in FIG. 11 and displays it on the display element 144 (step S120). The user can visually recognize the live view image LV1 superimposed on the real world (display area A of the imaging device 200) through the optical system 146 of the XR display 140.
  • the XR processor 110 determines whether to end the image display of the live view image LV1 on the XR display 140 (step S122). If the image display is not to be ended, the process moves to step S100, and the processes from step S100 to step S122 are repeated for each frame of the live view image LV. If the image display is not to be ended, the processing by the virtual image display device 100 is ended.
  • FIG. 31 is a flowchart showing a display method by the imaging device according to the present invention.
  • the display method by the imaging device shown in FIG. 30 is mainly performed by the camera processor 210 of the imaging device 200 shown in FIG. 7.
  • the camera processor 210 first determines whether the XR mode is set by the mode switching unit (step S200).
  • the user uses the XR mode when it is difficult to see the main monitor 241 in a bright place, when the user wants to display the live view image LV1 on a virtual monitor larger than the actual main monitor 241, or when he wants to photograph various virtual objects including avatars.
  • the imaging device 200 can be used differently depending on the situation.
  • step S200 if it is determined that the XR mode is set (in the case of "Yes"), the camera processor 210 displays the AR marker M on the sub-monitor 242 of the closed monitor panel 240.
  • This AR marker M can be used as a marker to specify the display area A of the live view image LV1, and/or can be used as camera identification information to distinguish it from other imaging devices.
  • the camera processor 210 transmits the live view image LV photographed by the imaging unit 201 and subjected to RAW development processing to the virtual image display device 100 via the second communication unit 260 (step S220).
  • step S200 determines whether the tiltable monitor panel 240 is open (step S200). S230).
  • the camera processor 210 outputs the live view image LV photographed by the imaging unit 201 and subjected to RAW development processing to the main monitor 241, and displays the live view image LV1 on the main monitor 241. let This allows the user to check the current shooting range and the like using the live view image LV displayed on the main monitor 241.
  • the camera processor 210 determines whether the viewfinder 243, which is a hybrid finder, has been switched to an EVF or an OVF. (Step S250). This determination can be made based on the user's operation of the finder switching lever.
  • the camera processor 210 causes the EVF to display the live view image LV1 (step S260).
  • the viewfinder 243 is switched to the OVF, an optical image (finder image) is displayed on the OVF (step S270). In this case, the process of generating the live view image LV1 can be stopped.
  • the user can check the live view image LV1 displayed on the EVF or the finder image displayed on the OVF.
  • FIG. 32 is a flowchart showing a second embodiment of the virtual image display method according to the present invention.
  • the virtual image display method of the second embodiment shown in FIG. 32 is a method performed mainly by the XR processor 110 of the virtual image display device 100 shown in FIG. 6, similarly to the first embodiment shown in FIG.
  • the XR processor 110 first checks the imaging device 200 (step S300).
  • FIG. 33 is a subroutine showing an embodiment of the process of step S300 for checking the imaging device shown in FIG. 32.
  • the XR processor 110 acquires the visual field image IM taken by the built-in camera 101 (step S301), and extracts the camera image of the imaging device 200 present in the visual field image IM (step S302).
  • the XR processor 110 analyzes the camera image and performs extraction processing of the AR marker M (step S303). Since the imaging device 200, which is an XR compatible camera in this example, has an AR marker M attached thereto, it is possible to confirm the presence or absence of the imaging device 200 from the presence or absence of the AR marker M.
  • step S304 if it is determined that the AR marker M is present (in the case of "Yes"), the process moves to step S305, where the XR processor 110 starts communication with the target device having the AR marker M. do.
  • the XR processor 110 confirms via communication whether the target device is the user's imaging device 200 (step S306).
  • the XR processor 110 can confirm whether the target device is the user's imaging device 200 by once confirming whether the devices have been paired with each other.
  • the virtual image display device 100 and the user's imaging device 200 can be paired using a known method.
  • step S307 if it is determined that the target device is the user's imaging device 200 (in the case of "Yes"), the XR processor 110 determines that the camera image included in the visual field image IM is the user's imaging device 200. Confirm (step S308).
  • step S304 it is determined that there is no AR marker M in the visual field image IM (camera image) (in the case of "No"), or in step S307, it is determined that the target device is not the user's imaging device 200. (in the case of "No"), the XR processor 110 determines that the user's imaging device 200 could not be confirmed (unconfirmed) (step S309).
  • the XR processor 110 determines whether the imaging device 200 is in the XR mode (step S312). ).
  • the method for determining the XR mode can be performed in the same manner as the method described above, so the description thereof will be omitted here.
  • step S312 If it is determined in step S312 that the imaging device 200 is set to the XR mode (“Yes”), the XR processor 110 displays the live view image in a superimposed manner in the display area A of the imaging device 200. whether the reproduced images should be displayed in an overlapping manner, or whether the photographing information INFO should be displayed in an overlapping manner (step S314).
  • the imaging device 200 can accept a user instruction as to whether to display a live view image, a playback image, or shooting information INFO in the display area A of the imaging device 200.
  • Information corresponding to the user instruction (live view image, playback image, or photographing information INFO) is transmitted to the virtual image display device 100.
  • the XR processor 110 determines whether the live view image should be superimposed and displayed in the display area A of the imaging device 200, and whether the reproduced image should be superimposed or not. It is possible to confirm whether the information should be displayed or whether the photographing information INFO should be displayed in a superimposed manner.
  • step S318 If it is determined in step S318 that a live view image is to be displayed, the XR processor 110 moves to step S320 and displays the live view image received from the imaging device 200 in an overlapping manner on the XR display 140.
  • FIG. 34 is a subroutine showing an embodiment of the process of step S3200 for displaying the live view images LV1 shown in FIG. 32 in an overlapping manner.
  • the XR processor 110 receives the live view image LV from the imaging device 200 (step S321).
  • the XR processor 110 acquires the photographing information INFO corresponding to the received live view image LV (step S322).
  • the photographing information INFO is, for example, text information, and is attached information associated with each frame or multiple frames of the live view image LV.
  • step S323 if it is determined that the photographing information INFO is present (in the case of "Yes"), the XR processor 110 causes the transition to step S324, and here, the photographing information INFO is added to the peripheral area of the live view image LV. Combine (step S324).
  • step S323 if it is determined in step S323 that the photographing information INFO is "absent” (in the case of "No"), the XR processor 110 skips step S324 and shifts to step S325.
  • step S325 the XR processor 110 acquires the visual field image IM from the built-in camera 101, and detects the positions of the plurality of AR markers M on the imaging device 200 based on the acquired visual field image IM.
  • the XR processor 110 performs the processing of steps S326 to S329 to display the live view image LV1 superimposed on the display area A of the imaging device 200 observed by the XR display 140.
  • steps S326 to S329 are similar to the processes in steps S112, S114, S118, and S120 in the flowchart shown in FIG. 30, so detailed explanation thereof will be omitted.
  • step S318 if it is determined in step S318 that photographing information is to be displayed, the XR processor 110 moves to step S330, and displays the photographing information INFO received from the imaging device 200 in a superimposed manner on the XR display 140.
  • FIG. 35 is a subroutine showing an embodiment of the process of step S330 for displaying the photographing information INFO shown in FIG. 32 in an overlapping manner.
  • the XR processor 110 turns off the superimposed display function of the live view image LV1 in the virtual image display device 100, and turns on the superimposed display function of the shooting information INFO (step S331).
  • the XR processor 110 receives photographing information INFO of text data from the imaging device 200 (step S332).
  • the XR processor 110 generates a photographing information image (raster image or vector image) indicating the photographing information INFO from the received photographing information INFO (step S333).
  • the XR processor 110 performs the processing of steps S334 to S338 to display the photographing information image indicating the photographing information INFO in a superimposed manner on the display area A of the imaging device 200 observed on the XR display 140.
  • the processing in steps S334 to S338 differs from the processing in steps S325 to S329 in the flowchart shown in FIG. 34 in that a photographing information image is displayed instead of the live view image LV1 (that is, the image to be displayed is However, since the other processes are the same, detailed explanation thereof will be omitted.
  • step S318 if it is determined in step S318 that the reproduced image should be displayed, the XR processor 110 moves to step S340, and displays the reproduced image received from the imaging device 200 on the XR display 140 in a superimposed manner.
  • FIG. 36 is a subroutine showing an embodiment of the process of step S340 for displaying the reproduced images shown in FIG. 32 in an overlapping manner.
  • the camera processor 210 of the imaging device 200 determines that the playback image selected in the imaging device 200 is an image of the imaging device 200 (a photographed image recorded in the second memory 220 of the imaging device 200), or a captured image (not shown) of the imaging device 200.
  • the image on the network (an image of a user managed by a server on the network) is identified (step S280). It is assumed that the imaging device 200 in this case can be connected to a network, and can save captured images on a server on the network or read captured images from the server.
  • step S281 If it is determined in step S281 that the image is an image in the imaging device 200, the camera processor 210 reads out the reproduced image from the second memory 220 of the imaging device 200 in accordance with the user's operation (step S282). Note that instead of the second memory 220, which is the built-in memory, the reproduced image may be read from a memory card that is detachable from the imaging device 200.
  • step S281 if it is determined in step S281 that the image is on the network, the camera processor 210 reads out the reproduced image from the user's image group stored on the network in accordance with the user's operation (step S283).
  • the camera processor 210 transmits the reproduced image read in step S282 or S283 to the virtual image display device 100 (step S284).
  • steps S280 to S284 above is processing by the imaging device 200, and each of the following processes is processing by the virtual image display device 100.
  • the XR processor 110 of the virtual image display device 100 receives the reproduced image transmitted from the imaging device 200 (step S341).
  • the XR processor 110 performs the processing of steps S342 to S346 to display the reproduced image in a superimposed manner on the display area A of the imaging device 200 observed by the XR display 140.
  • the processing in steps S342 to S346 differs from the processing in steps S325 to S329 in the flowchart shown in FIG. 34 in that a reproduced image is displayed instead of the live view image LV1 (that is, the displayed images are different).
  • steps S342 to S346 differs from the processing in steps S325 to S329 in the flowchart shown in FIG. 34 in that a reproduced image is displayed instead of the live view image LV1 (that is, the displayed images are different).
  • other processing is common, detailed explanation thereof will be omitted.
  • the virtual image display device 100 can superimpose and display the live view image LV1, the shooting information INFO, or the reproduced image in the display area A of the imaging device 200 observed by the XR display 140, and the virtual image display A user wearing the device 100 (smart glasses) can visually recognize the live view image LV1 etc. superimposed on the real world that is transmitted through the smart glasses.
  • FIG. 37 is a flowchart illustrating an embodiment of a method for changing the appearance of an imaging device.
  • the method for changing the appearance of the imaging device 200 shown in FIG. 37 is mainly performed by the XR processor 110 of the virtual image display device 100 shown in FIG. 6.
  • the method for changing the appearance of the imaging device 200 in this example does not physically change the appearance of the imaging device 200, but instead changes the appearance of the imaging device 200 observed by the virtual image display device 100 (smart glasses) on an image. This is to be changed.
  • the XR processor 110 acquires the visual field image IM taken by the built-in camera 101 (step S350), and extracts the camera image of the imaging device 200 present in the visual field image IM (step S352).
  • the XR processor 110 determines whether the imaging device 200 is an XR compatible camera from the extracted camera image (step S354). This determination can be made, for example, by comparing the extracted camera image with external appearance data of the XR compatible camera stored in the first memory 120 in advance.
  • step S354 if it is determined that the imaging device 200 photographed by the built-in camera 101 is an XR compatible camera (in the case of "Yes"), the XR processor 110 acquires the XR compatible data of the imaging device 200 (step S356).
  • the XR compatible data includes data indicating the external shape of the interchangeable lens section, leather exterior section, operation dial section, upper exterior section, finder section, monitor section, etc. of the imaging device 200.
  • step S354 if it is determined that the imaging device 200 photographed by the built-in camera 101 is not an XR compatible camera (in the case of "No"), the XR processor 110 controls the The view image overlay synthesis function is turned off (step S358), and the process returns to step S350. This allows the user to see only the real world (the real imaging device 200) that is transmitted through the smart glasses.
  • the XR processor 110 specifies a plurality of areas into which the camera image is divided as display areas, based on the camera image extracted in step S352 and the XR corresponding data acquired in step S356 (step S360). That is, areas such as the interchangeable lens section, leather exterior section, operation dial section, upper exterior section, viewfinder section, and monitor section that correspond to the XR compatible data are specified as display areas.
  • the XR processor 110 acquires a component image to be combined into one or more display areas of the plurality of display areas in the imaging device 200 based on the user's selection operation (step S362).
  • the first memory 120 of the virtual image display device 100 stores component images (virtual object images) that show the appearance of each divided region in which the appearance of the imaging device 200 is divided into a plurality of regions.
  • a plurality of component images stored in the memory 120 can be displayed on the main monitor 241, and a component image to be combined in the display area can be selected using the operation unit 230.
  • the component image can be an image pasted on the surface of a three-dimensional model of the component.
  • the XR processor 110 acquires conversion information used when superimposing a three-dimensional part image on a two-dimensional display area corresponding to the part image (step S364). Since the 3D data of the part image is known and the 2D data of the display area can also be detected, conversion information for projecting the 3D part image to match the corresponding display area can be obtained. .
  • the XR processor 110 geometrically transforms the component image based on the conversion information acquired in step S364, and outputs the geometrically transformed component image to the XR display 140 (step S366).
  • the XR display 140 inputs the geometrically transformed component image and displays it on the display element 144, thereby superimposing and displaying the component image on the display area of the imaging device 200 (step S368).
  • the user can visually recognize the component image (skin that changes the appearance) superimposed on the real world (the display area of the imaging device 200) through the optical system 146 of the XR display 140. That is, the user can create an original imaging device with an appearance of his/her preference. Furthermore, one imaging device can be used in a number of different appearances.
  • live view image LV1 and the like can be superimposed and displayed on the display area of the monitor section of the imaging device while changing the appearance of the imaging device.
  • the imaging device 200 of this embodiment can perform self-portraits when the XR mode is set.
  • the live view image LV1 can be displayed in the display area set on the front side of the imaging device 200 or in the display area A on the sub-monitor 242 side of the monitor panel 240 rotated by 180 degrees.
  • the user is wearing smart glasses or VR goggles, it is preferable to synthesize an avatar's face image into the user's face area.
  • the imaging device 200 has a display mode in which the live view image LV is combined with the shooting information INFO and displayed on the main monitor 241 in a non-XR environment, and a display mode in which only the live view image LV is displayed on the main monitor 241.
  • the virtual image display device 100 has a display mode that displays only the shooting information INFO and a function that switches each time the display/return button 247 is pressed, when the imaging device 200 is used in an XR environment, the virtual image display device 100 can be set in a non-XR environment. It is preferable to display the live view image LV1 etc. in accordance with the display mode.
  • the XR processor 110 of the virtual image display device 100 performs synthesis so that the display area A of the imaging device 200 is bright when it is bright and dark when it is dark, according to the brightness information of the visual field image IM captured by the built-in camera 101. It is preferable to change the brightness of the live view image LV1 to change the brightness of the live view image LV1, and in the case of brightness that causes blown-out highlights or blocked-up shadows, the live-view image is changed within a range that does not exceed a preset threshold to prevent blown-out highlights or blocked-up shadows. It is preferable to control the brightness of LV1.
  • processors such as a CPU (Central Processing Unit)
  • CPUs which are general-purpose processors that execute software (programs) and function as various processing units
  • programmable processors which are processors whose circuit configuration can be changed after manufacturing, such as FPGAs (Field Programmable Gate Array).
  • FPGAs Field Programmable Gate Array
  • PLDs Programmable Logic Devices
  • ASICs Application Specific Integrated Circuits
  • One processing unit may be composed of one of these various types of processors, or may be composed of two or more processors of the same type or different types (for example, multiple FPGAs, or a combination of a CPU and FPGA). It's okay. Further, the plurality of processing units may be configured with one processor. As an example of configuring multiple processing units with one processor, first, one processor is configured with a combination of one or more CPUs and software, as typified by computers such as clients and servers. There is a form in which a processor functions as multiple processing units. Second, there are processors that use a single IC (Integrated Circuit) chip to implement the functions of the entire system, including multiple processing units, as typified by System On Chip (SoC). be. In this way, various processing units are configured using one or more of the various processors described above as a hardware structure.
  • SoC System On Chip
  • circuitry that is a combination of circuit elements such as semiconductor elements.
  • the present invention includes a plurality of the embodiments described above, and that modifications that act selectively or compatible with each other are possible as long as the photographing device or system of the present invention can be applied.
  • the "first display" of the virtual image display device is a glasses-type or goggle-type wearable device that has a virtual image display function, and provides images including virtual images using an HMD device or transparent smart glasses.
  • a retinal projection device built into smart glasses, etc. or a method of displaying virtual images based on the principle of projection mapping by using a projector as the display method for the first display.
  • the display section serving as the first display may be of any type as long as the photographing device or system of the invention can be applied and the display that is the essence of the invention can be realized.
  • the virtual image display device 100 performs geometric transformation on the live view image LV and outputs the geometrically transformed live view image LV1 to the XR display 140.
  • the geometrically transformed live view image LV1 may be acquired from the XR server 300, or the geometrically transformed live view image LV1 may be acquired from the imaging device 200.
  • the imaging device 200 acquires the field of view image IM from the virtual image display device 100 or the relative relationship between the virtual image display device 100 and the imaging device 200 in order to perform a process of geometrically transforming the live view image LV. It is necessary to obtain three-dimensional position and orientation information.
  • the virtual image display device 100 when the imaging device 200 is used in an XR environment (when the XR mode is set), the virtual image display device 100 superimposes the live view image LV1 on the display area of the imaging device 100 on the XR display 140.
  • the live view images LV1 on the virtual image display device 100 may be superimposed.
  • the composition function may be turned on. This has the advantage that when the imaging device 200 is used in a normal environment, the live view image LV1 can be observed satisfactorily even if the display of the imaging device 200 is difficult to see due to direct sunlight.
  • a mode is provided in which the live view image LV is not automatically sent to the virtual image display device 100 even when the device using this technology is “used in an XR environment”, so that the imaging device 100 can be selectively sent.
  • the configuration may be such that the live view image can be displayed on the display.
  • Virtual image display system 100 For Virtual image display device 101... Built-in camera 102... Photographing lens 104... Image sensors 110, 111... 1 Memories 130, 230...Operation units 140, 141...XR display 142...Display control unit 143...Image composition units 144, 145...Display elements 146, 147...Optical system 146A...Lens 146B...Half mirror 150...Virtual object generation unit 151 ...Interchangeable lens section 152...Leather exterior section 153...Operation dial section 154...Upper exterior section 155...Finder section 156...Monitor section 160...First communication section 170, 270...GPS receiver 172, 272...Gyro sensor 174, 274...

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Abstract

現実世界に仮想画像を重ね合わせ、撮像装置単体では表示できない画像を表示する仮想画像表示装置、撮像装置、仮想画像表示システム及び方法を提供する。プロセッサ及び第1ディスプレイを有する仮想画像表示装置(100)は、撮像装置(200)からのライブビュー画像を受信する。プロセッサは、ライブビュー画像を撮像装置(200)の表示領域に重ね合わせる際に使用する変換情報を取得し、その変換情報に基づいてライブビュー画像を幾何変換する。第1ディスプレイは、幾何変換されたライブビュー画像を表示する。ユーザは、光学系(146)を介して撮像装置(200)の表示領域に重ね合わされた仮想のライブビュー画像を視認することができる。

Description

仮想画像表示装置、撮像装置、仮想画像表示システム及び方法
 本発明は仮想画像表示装置、撮像装置、仮想画像表示システム及び方法に係り、特に現実世界に仮想画像を重ね合わせて表示する技術に関する。
 従来、仮想空間における撮影を実行し、撮影により生成された写真(画像)を容易に確認できる方法が提案されている(特許文献1)。
 特許文献1に記載の方法は、ヘッドマウントデバイス(HMD:Head-Mounted Device)を用いて提供される仮想空間の中心に仮想カメラを配置し、仮想カメラの位置及び姿勢から仮想カメラの撮影範囲に対応する画像を生成し、生成した画像を仮想カメラのプレビュー画面に表示する。そして、ユーザからの撮影指示により仮想空間での撮影が行われると、写真画像を生成してメモリに保存し、また、生成した写真画像を仮想空間の予め定めた位置に配置し、写真画像が配置された位置を、HMDを装着したユーザに通知する。
 特許文献1に記載の仮想カメラは、メモリモジュールに保存されたオブジェクト情報に基づいて生成され、仮想空間に配置されるカメラオブジェクトであり、アバターオブジェクトの手の部分に相当する手オブジェクトによりカメラオブジェクトに設けられたボタンの押下を受け付けると、仮想空間における撮影を実行する。尚、アバターオブジェクトの手の部分に相当する手オブジェクトは、ユーザの手の位置に連動するように移動する。また、特許文献1では、HMDデバイスを用いて仮想カメラの撮影映像を提供しているが、透過型スマートグラス、網膜投影等の方法も考えられる。
 また、特許文献2には、現実世界と仮想世界を融合させた拡張現実(AR:Augmented Reality)の技術を、ゲームなどに有効に活用する情報処理装置が提案されている。
 特許文献2に記載の情報処理装置は、実空間を撮影する背面カメラから撮影画像を取得し、撮影画像に含まれるマーカを検出すると、そのマーカに対応する情報処理(ゲーム)を開始し、マーカに対応するキャラクタ、アイコンの仮想オブジェクトを、被写空間に対応する3次元座標系に配置して撮影画像上に描画し、表面の表示装置に表示する。アイコンは、マーカが置かれている平面上に置かれているように表現し、表示画面上のタッチパッドに対する接触、あるいは指による被写空間における対応位置の指示のいずれかに基づき操作可能としている。
特開2019-21236号公報 特開2015-41126号公報
 本開示の技術に係る一つの実施形態は、現実世界に仮想画像を重ね合わせ、従来の撮像装置単体では表示できない画像を表示する仮想画像表示装置、撮像装置、仮想画像表示システム及び方法を提供する。
 第1態様に係る発明は、プロセッサ及び第1ディスプレイを有する仮想画像表示装置であって、仮想画像表示装置は、第1撮像装置からのライブビュー画像を受信し、プロセッサは、ライブビュー画像を第1撮像装置の表示領域に重ね合わせる際に使用する情報を取得し、情報に基づいてライブビュー画像を変換し、第1ディスプレイは、変換されたライブビュー画像を表示する、仮想画像表示装置である。
 本発明の第2態様に係る仮想画像表示装置において、第1ディスプレイは、メガネ型又はゴーグル型の仮想画像表示機能を有するウェアラブルデバイスであることが好ましい。
 本発明の第3態様に係る仮想画像表示装置において、ユーザの視野範囲を撮影する第2撮像装置を有し、プロセッサは、第2撮像装置が撮影した撮影画像を解析して表示領域を特定し、情報を取得する。
 本発明の第4態様に係る仮想画像表示装置において、プロセッサは、第2撮像装置が撮影した第1撮像装置のマーカの位置に基づいて情報を取得する。
 本発明の第5態様に係る仮想画像表示装置において、プロセッサは、第1ディスプレイを基準にした第1撮像装置の3次元位置及び姿勢を示す情報を取得し、3次元位置及び姿勢を示す情報に基づいて情報を取得する。
 本発明の第6態様に係る仮想画像表示装置において、第1撮像装置は、ライブビュー画像を表示する第2ディスプレイを有し、表示領域は、第2ディスプレイの表示領域であることが好ましい。
 本発明の第7態様に係る仮想画像表示装置において、第2ディスプレイは、第1撮像装置の装置本体との相対的な姿勢関係が回動によって変更可能な回動機構を備え、表示領域は、回動した第2ディスプレイの表示領域であることが好ましい。
 本発明の第8態様に係る仮想画像表示装置において、第1撮像装置は、ビューファインダを有し、表示領域は、ビューファインダの表示領域であることが好ましい。
 本発明の第9態様に係る仮想画像表示装置において、第1ディスプレイは、視野を透過するディスプレイであって、現実世界の視野に変換したライブビュー画像を表示することが好ましい。
 本発明の第10態様に係る仮想画像表示装置において、ユーザの視野範囲を撮影する第2撮像装置を備え、第1ディスプレイは、視野を覆う没入型のディスプレイであって、第2撮像装置が撮影した撮影画像に、変換したライブビュー画像を重ね合わせた合成画像を表示することが好ましい。
 本発明の第11態様に係る仮想画像表示装置において、プロセッサは、ライブビュー画像に仮想オブジェクト画像を合成することが好ましい。
 本発明の第12態様に係る発明は、プロセッサ、第1ディスプレイ及びユーザの視野範囲を撮影する第2撮像装置を有する仮想画像表示装置であって、プロセッサは、第2撮像装置が撮影した画像から、少なくともグリップ部を備えた仮想カメラの画角に対応する画像を切り出してライブビュー画像として取得し、ライブビュー画像を仮想カメラの表示領域に重ね合わせる際に使用する情報を取得し、情報に基づいてライブビュー画像を変換し、第1ディスプレイは、変換されたライブビュー画像を表示する、仮想画像表示装置である。
 本発明の第13態様に係る仮想画像表示装置において、変換は、幾何変換であることが好ましい。
 第14態様に係る発明は、ライブビュー画像を撮影する撮像部と、第1モードと第2モードとを切り替えるモード切替え部と、第1モードに切り替えられた場合にライブビュー画像を表示する第2ディスプレイ又はビューファインダと、第2モードに切り替えられた場合にライブビュー画像を、第1態様から第11態様のいずれかの仮想画像表示装置に送信する通信部と、を備えた撮像装置である。
 本発明の第15態様に係る撮像装置において、第2モードに切り替えられた場合に、第2ディスプレイ又はビューファインダにマーカを表示することが好ましい。
 第16態様に係る発明は、第1態様から第13態様のいずれかの仮想画像表示装置と、第14態様又は第15態様の撮像装置と、から構成された仮想画像表示システムである。
 本発明の第17態様に係る仮想画像表示システムにおいて、仮想画像表示装置のプロセッサは、ライブビュー画像に仮想オブジェクト画像を合成し、第2モードに切り替えられた状態で記録用の撮影が行われると、仮想オブジェクト画像を撮像装置に送信し、撮像装置は、第2モードに切り替えられた状態で記録用の撮影を行うと、撮影した画像と仮想画像表示装置から受信した仮想オブジェクト画像とを紐付けて記録し、又は撮影した画像に仮想オブジェクト画像を合成して記録することが好ましい。
 第18態様に係る発明は、第1態様から第11態様のいずれかの仮想画像表示装置と、仮想画像表示装置と通信するサーバと、から構成された仮想画像表示システムであって、サーバは、実空間の3次元情報を有する3次元画像を管理し、プロセッサは、第1撮像装置の3次元位置及び姿勢を示す第1情報に基づいて、サーバが管理している3次元画像から、第1撮像装置の撮影領域に対応する3次元画像を切り出し、切り出した3次元画像を2次元画像に変換し、2次元画像をライブビュー画像として使用する、仮想画像表示システムである。
 第19態様に係る発明は、第12態様の仮想画像表示装置と、仮想画像表示装置と通信するサーバと、から構成された仮想画像表示システムであって、サーバは、実空間の3次元情報を有する3次元画像を管理し、プロセッサは、仮想カメラの3次元位置及び姿勢を示す第1情報に基づいて、サーバが管理している3次元画像から、仮想カメラの撮影領域に対応する3次元画像を切り出し、切り出した3次元画像を2次元画像に変換し、2次元画像をライブビュー画像として使用する、仮想画像表示システムである。
 本発明の第20態様に係る仮想画像表示システムにおいて、サーバは、実空間に配置された多視点カメラ、監視カメラ、ドライブレコーダ、ドローンカメラ、又は携帯端末カメラを含む多数のカメラにより撮影された画像から最新の3次元画像を生成して管理することが好ましい。
 本発明の第21態様に係る仮想画像表示システムにおいて、サーバは、3次元画像に仮想オブジェクト画像を合成することが好ましい。
 第22態様に係る発明は、プロセッサ及び第1ディスプレイを有する仮想画像表示装置が実行する仮想画像表示方法であって、プロセッサが、第1撮像装置からのライブビュー画像を受信するステップと、プロセッサが、ライブビュー画像を第1撮像装置の表示領域に重ね合わせる際に使用する情報を取得するステップと、プロセッサが、情報に基づいてライブビュー画像を変換するステップと、第1ディスプレイが、変換されたライブビュー画像を表示するステップと、を含む仮想画像表示方法である。
図1は、本発明に係る仮想画像表示システムのシステム構成を示す図である。 図2は、図1に示した撮像装置を前方から見た斜視図である。 図3は、撮像装置のモニタパネルの3つの開閉状態を示す図である。 図4は、仮想画像表示装置の第2撮像装置により撮像装置を含む視野画像を撮影する様子を示す図である。 図5は、撮像装置の特定の表示領域にライブビュー画像が重畳される様子を示す図である。 図6は、本発明に係る仮想画像表示システムを構成する仮想画像表示装置の実施形態を示すブロック図である。 図7は、本発明に係る撮像装置の実施形態を示すブロック図である。 図8は、本発明に係る仮想画像表示システムの第1実施形態を示す要部ブロック図である。 図9は、ライブビュー画像と視野画像と撮像装置の表示領域との幾何的な関係を示す図である。 図10は、ARマーカが設けられた撮像装置の外観を示す図である。 図11は、仮想画像表示装置のXRディスプレイの第1実施形態を示す図である。 図12は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第1表示例を示す図である。 図13は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第2表示例を示す図である。 図14は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第3表示例を示す図である。 図15は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第4表示例を示す図である。 図16は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第5表示例を示す図である。 図17は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第5表示例を示す図である。 図18は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第6表示例を示す図である。 図19は、撮像装置がXRモードに設定されている場合の撮像装置の第1外観例を示す図である。 図20は、撮像装置がXRモードに設定されている場合の撮像装置の第2外観例を示す図である。 図21は、撮像装置がXRモードに設定されている場合の撮像装置の第3外観例を示す図である。 図22は、撮像装置の外観を複数の領域に分割して変更する場合の概念図である。 図23は、XR環境での使用に対応した撮像装置の斜視図である。 図24は、本発明に係る仮想画像表示システムを構成する仮想カメラの実施形態を示す背面側からの斜視図である。 図25は、本発明に係る仮想画像表示システムを構成する仮想カメラの実施形態を示す前面側からの斜視図である。 図26は、本発明に係る仮想画像表示システムを構成する仮想カメラの他の実施形態を示す斜視図である。 図27は、仮想カメラが撮影するライブビュー画像の取得方法の実施形態を示す図である。 図28は、仮想画像表示装置のXRディスプレイの第2実施形態を示す図である。 図29は、本発明に係る仮想画像表示システムの第2実施形態を示すブロック図である。 図30は、本発明に係る仮想画像表示方法の第1実施形態を示すフローチャートである。 図31は、本発明に係る撮像装置による表示方法を示すフローチャートである。 図32は、本発明に係る仮想画像表示方法の第2実施形態を示すフローチャートである。 図33は、図32に示した撮像装置の確認を行うステップS300の処理の実施形態を示すサブルーチンである。 図34は、図32に示したライブビュー画像LV1の重ね合わせ表示を行うステップS3200の処理の実施形態を示すサブルーチンである。 図35は、図32に示した撮影情報INFOの重ね合わせ表示を行うステップS330の処理の実施形態を示すサブルーチンである。 図36は、図32に示した再生画像の重ね合わせ表示を行うステップS340の処理の実施形態を示すサブルーチンである。 図37は、撮像装置の外観変更方法の実施形態を示すフローチャートである。
 以下、添付図面に従って本発明に係る仮想画像表示装置、撮像装置、仮想画像表示システム及び方法の好ましい実施形態について説明する。
 [仮想画像表示システムの概要]
 図1は、本発明に係る仮想画像表示システムのシステム構成を示す図である。
 図1に示す仮想画像表示システム10は、仮想画像表示装置100と、第1撮像装置(以下、単に「撮像装置」という)200とから構成され、仮想画像表示装置100と撮像装置200とは相互に通信する。通信は、Bluetooth(登録商標)、Wi-Fi(Wireless Fidelity)(登録商標)等の規格の近距離無線通信が好ましいが、有線でもよい。
 この実施形態の仮想画像表示装置100は、メガネ型の仮想画像表示機能を有するウェアラブルデバイスであり、図示しないプロセッサ及び第1ディスプレイ、及び第2撮像装置(以下、「内蔵カメラ」という)を備えている。
 第1ディスプレイは、拡張現実(AR:Augmented Reality)、仮想現実(VR:Virtual Reality)、複合現実(MR:Mixed Reality)、又はAR、VR、MRの総称であるクロスリアリティ(XR:X Reality)を実現するためのディスプレイである。
 ARは、メガネを通して見える現実世界に仮想世界(仮想画像等)を重ね合わせることで、目の前にある現実世界を“仮想的に拡張する”技術であり、VRは、カメラにより撮影された映像等をVRゴーグルやVRヘッドセットに表示し、VRゴーグル等によって現実世界を遮断し、非現実の世界に深く没入できるという特徴がある。MRは、現実世界に仮想オブジェクトや情報を重ねて表示する技術であり、ARと同様であるが、ARを更に発展させた技術であり、ユーザの位置や動きに合わせてデジタル情報を表示したり、直接ユーザがデジタル情報を触って操作することが可能である。
 図1に示した仮想画像表示装置100の第1ディスプレイ(以下、「XRディスプレイ」という)は、グラス(メガネ)を通して見える現実世界に仮想世界を重ね合わせるAR又はMRの表示機能を有するものである。
 図1において、146は、仮想画像表示装置100(以下、「スマートグラス」ともいう)のハーフミラーを含む光学系であり、スマートグラスの表示素子に表示される映像(仮想画像)は、光学系146を介して現実世界に重ね合わされる。尚、スマートグラスの詳細については後述する。
 図2は、図1に示した撮像装置を前方から見た斜視図である。
 図1及び図2に示す撮像装置200は、交換レンズ202と、交換レンズ202が着脱自在なカメラ本体(装置本体)203とから構成されたミラーレスのデジタル一眼カメラである。尚、撮像装置200は、ミラーレスのデジタル一眼カメラに限らず、デジタル一眼レフカメラ、レンズ交換が不能なレンズ一体型のデジタルカメラでもよし、カメラ機能を有するスマートフォン、PDA(Personal Digital Assistants)でもよい。
 図1において、カメラ本体203の上面には、シャッターボタン232、シャッタースピード/感度ダイヤル234、露出補正ダイヤル236等が設けられている。
 また、カメラ本体203の一壁面である背面には、モニタパネル240が、図示しない回動機構を介して回動自在に配設されている。
 図3は、撮像装置のモニタパネルの3つの開閉状態を示す図である。
 図3に示すようにモニタパネル240は、カメラ本体203との相対的な姿勢関係が回動によって変更可能なチルト式のパネルである。
 図3(A)は、モニタパネル240が閉じている状態の撮像装置200を示しており、図3(B)及び(C)は、モニタパネル240が90°及び180°回動した状態の撮像装置200を示している。
 モニタパネル240が閉じているときに隠れるモニタパネル240の内側の面(裏面)には、メインモニタ(第2ディスプレイ)241が配設され、モニタパネル240が閉じているときにカメラ外観と略面一となる面(表面)には、サブモニタ242が配設されている。
 メインモニタ241は、図3(B)及び(C)に示すようにモニタパネル240が開いているときに動作可能となり、ライブビュー画像、記録済みの画像(再生画像)等を表示し、サブモニタ242は、図1及び図3(A)に示すようにモニタパネル240が閉じているときに動作可能となり、シャッタースピード、絞り値、ISO感度、その他の撮影に関する情報(撮影情報)を表示する。
 また、図1に示すようにカメラ本体203の背面には、ビューファインダ243の接眼部が配置されている。このビューファインダ243は、電子ビューファインダ(EVF:Electronic View Finder)と光学ファインダ(OVF:Optical View Finder)との切替えが可能なハイブリッドファインダである。
 更に、OVF表示では、電子式レンジファインダ(ERF:Electronic Range Finder)(EVFを表示する小窓)をOVFの一部に表示、又は非表示を選択することができる。ERFは、視野率100%、2.5倍拡大、6倍拡大の3通りの表示ができ、OVFでの撮影時にピントの確認、画角、露出及びホワイトバランスをモニタすることができる。
 図2に示すようにカメラ前面には、ビューファインダ243のEVFとOVFとの切替えを行うためのファインダ切替えレバー249が設けられている。
 図2上で、ファインダ切替えレバー249を時計回り方向に回動させると、EVFとOVFとの切替えを行うことができる。また、OVF表示のときに、図2上でファインダ切替えレバー249を反時計回り方向に回動させると、ERFの表示と非表示との切替えを行うことができる。
 更に、カメラ本体203の背面には、上下左右等の複数方向を指示するトグルスイッチ244、メニュー/実行ボタン245、再生ボタン246、表示/戻るボタン247等が設けられている。
 更にまた、各種の機能の割り当てが可能な複数のファンクションボタンが設けられている。
 [仮想画像表示システムの概要]
 図4は、仮想画像表示装置の第2撮像装置により撮像装置を含む視野画像を撮影する様子を示す図である。
 図4において、仮想画像表示装置100の内蔵カメラ101は、撮像装置200を含むユーザの視野に相当する視野画像を撮影する。内蔵カメラ101は、ユーザがスマートグラスを装着し、瞳が正面を向いている場合のユーザの視野に相当する視野画像を撮影する。
 ユーザは、撮像装置200を手に持ってフレーミング等の各種の操作を行う。
 撮像装置200は、XR環境での使用中の場合、撮像装置200の操作により生成されるライブビュー画像を、連続データとして仮想画像表示装置100に送信する。
 仮想画像表示装置100のプロセッサは、視野画像に存在する撮像装置200の画像(カメラ画像)に基づいて撮像装置200の表示領域を特定する。この表示領域は、図3に示した撮像装置200のメインモニタ241やサブモニタ242のように現実に画像の表示が可能な表示領域に限らず、例えば、カメラ本体203の一壁面である背面上に予め設定した領域であってもよい。
 ユーザは、スマートグラスを通して現実世界の撮像装置200を視認することができるが、プロセッサは、撮像装置200から受信したライブビュー画像を変換(幾何変換)し、スマートグラスに表示させることで、現実の撮像装置200の特定の表示領域に、スマートグラスの光学系146を介してライブビュー画像(仮想画像)を重ね合わせ表示させる。
 図5は、撮像装置の特定の表示領域にライブビュー画像が重畳される様子を示す図である。
 スマートグラスを装着したユーザの目の前の表示位置において、スマートグラスの光学系146を介して幾何変換されたライブビュー画像LV1を表示する。これにより、ユーザは、図5に示すように現実の撮像装置200を、スマートグラスを通して視認することができ、かつ撮像装置200の特定の表示領域に合成された(貼り付けられた)、実際には存在しないXR環境上の画像(ライブビュー画像LV1)が撮像装置200に表示されているように、ライブビュー画像LV1を観察することができる。
 図1及び図3に示した撮像装置200は、図5に示したようなサイズのライブビュー画像LV1を表示する現実のモニタを備えていないが、仮想画像表示装置100は、ライブビュー画像LV1を表示することで、ユーザは、撮像装置200が、あたかも図5に示したライブビュー画像LV1を表示するディスプレイを備えるものとして視認することができる。
 この仮想画像表示システム10によれば、ユーザは、撮像装置200の背面の特定の表示領域(現実世界)を見ているのではなく、特定の表示領域に合成されるライブビュー画像LV1をスマートグラスにより観察するため、現実の特定の表示領域が直射日光の照射により見にくい場合でも、ライブビュー画像LV1を良好に観察することができる。
 また、撮像装置200は、現実世界のカメラ製品であるため、作品志向の撮影操作を行うのに操作性がよく、撮影体験の質を高く維持することができる。更に、フレーミング等のために撮像装置200の位置や角度を動かしながら使用する場合であっても、撮像装置200に対してライブビュー画像LV1を追従してスマートグラスに表示することができ、すばやい撮像装置200の操作が要求される動きの激しい撮影(スポーツ撮影や流し撮り、子供、ペットなどの撮影)でもシャッターチャンスを逃さないようにすることができる。
 尚、スマートグラスの内蔵カメラ101が撮影する視野画像は、視野画像におけるカメラ画像の特定の表示領域(座標)を求め、ライブビュー画像を撮像装置200の特定の表示領域に重ね合わせる際に使用する情報(変換情報)の取得に使用され、また、スマートグラスの代わりに、視野(視界)を覆う没入型のディスプレイ(VRゴーグル)を使用する場合、VRゴーグルに表示する視野画像として使用される。
 <仮想画像表示装置の実施形態>
 図6は、本発明に係る仮想画像表示システムを構成する仮想画像表示装置の実施形態を示すブロック図である。
 図6に示す仮想画像表示装置100は、図1に示した外観形状を有する仮想画像表示装置100の内部構成を示すブロック図である。
 仮想画像表示装置100は、内蔵カメラ101、プロセッサ(XRプロセッサ)110、第1メモリ120、操作部130、仮想画像表示機能を有する第1ディスプレイであるXRディスプレイ140、表示制御部142、仮想オブジェクト生成部150、第1通信部160、GPS(Global Positioning System)受信機170、ジャイロセンサ172、加速度センサ174、及び地磁気センサ176等を備えている。
 内蔵カメラ101は、撮影レンズ102、イメージセンサ104、及びAFE(Analog Front End)106を有する。
 内蔵カメラ101は、撮像装置200を手に持って撮影する場合、その撮像装置200(カメラ画像)を含む視野画像を撮影するもので、撮影レンズ102は、人間の視野角と同等以上の視野角を有することが好ましい。
 イメージセンサ104は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサにより構成することができる。尚、イメージセンサ104は、CMOS型に限らず、CCD(Charge Coupled Device)型のイメージセンサでもよい。
 撮影レンズ102によってイメージセンサ104の受光面に結像された被写体の光学像は、イメージセンサ104によって電気信号に変換される。イメージセンサ104の各画素には、入射する光量に応じた電荷が蓄積され、イメージセンサ104からは各画素に蓄積された電荷量(信号電荷)に応じた電気信号が画像信号として読み出される。
 AFE106は、イメージセンサ104から出力されるアナログの画像信号に対して各種のアナログ信号処理を施す。AFE106は、相関二重サンプリング回路、AGC(Automatic Gain Control)回路、アナログ-デジタル変換回路(A/D変換回路)(いずれも図示省略)を含む。相関二重サンプリング回路は、イメージセンサ104からのアナログ信号に対して相関二重サンプリング処理を施し、信号電荷のリセットに起因するノイズを除去する。AGC回路は、相関二重サンプリング回路によりノイズが除去されたアナログ信号を増幅し、アナログ信号の信号レベルが適切な範囲に入るようにする。A/D変換回路は、AGC回路でゲイン調整された画像信号をデジタル信号に変換する。
 尚、イメージセンサ104がCMOS型イメージセンサである場合、AFE106は、イメージセンサ104内に内蔵されていることが多い。
 XRプロセッサ110は、CPU(Central Processing Unit)等から構成され、各部を統括制御するとともに、撮像装置200から、第1通信部160を介して受信したライブビュー画像を、撮像装置200の特定の表示領域に重ね合わせる際に使用する情報(変換情報)を取得する処理、及びその情報に基づいてライブビュー画像を変換(幾何変換)してXRディスプレイ140に出力する処理等の各種の処理を行う。尚、XRプロセッサ110による処理の詳細については後述する。
 第1メモリ120は、フラッシュメモリ、ROM(Read-only Memory)、RAM(Random Access Memory)等を含む。フラッシュメモリ及びROMは、ファームウエアを含む各種のプログラム、パラメータ、アバターを含む各種の仮想オブジェクトを示す画像(仮想オブジェクト画像)等を記憶する不揮発性メモリである。
 RAMは、XRプロセッサ110による処理の作業領域として機能し、また、不揮発性メモリに格納されたファームウエア等を一時的に記憶する。尚、XRプロセッサ110が、第1メモリ120の一部(RAM)を内蔵していてもよい。
 操作部130は、各種の操作指令、パラメータの設定、アバターを含む仮想オブジェクトの選択、アバターのコントロール等を行う部分であり、マイクロフォンを備え、音声により操作入力を行う音声入力装置の他に、手や指などの身体の動きを、内蔵カメラ101が撮影する画像から読み取って操作入力とするジェスチャー入力部、スマートグラスのフレームに設けられるタッチパネル、XRディスプレイ140に表示されるGUI(Graphical User Interface)画面、及びGUI画面上のカーソル等を移動させる専用コントローラ等が考えられる。
 また、撮像装置200のジャイロセンサ272、加速度センサ274、及び地磁気センサ276等により撮像装置200の揺れ、振動、又は光線角度を検知し、検知した情報を各種の操作指令等として使用することができる。
 尚、撮像装置200の撮影操作中は両手が使用されているため、音声入力装置が好ましい。
 表示制御部142は、XRプロセッサ110からライブビュー画像、再生画像、撮影情報等を入力すると、表示用の信号形式に変換してXRディスプレイ140に出力する。
 XRディスプレイ140は、図示しない表示素子を有し、表示制御部142からの表示用の信号により駆動される表示素子にライブビュー画像等を表示する。表示素子に表示されるライブビュー画像は、スマートグラスの光学系146(図1参照)を介してグラス越しの現実世界に重ね合わされる。
 XRディスプレイ140は、ユーザの目の前の表示位置において、撮像装置200の特定の表示領域に重畳するように幾何変換されたライブビュー画像等を表示し、ユーザは、現実世界に重ね合わされたライブビュー画像等を観察することができる。
 仮想オブジェクト生成部150は、第1メモリ120に記憶されたアバターを含む各種の仮想オブジェクト画像からユーザにより指示された所望の仮想オブジェクト画像を読み出し、ライブビュー画像への合成用に加工した仮想オブジェクト画像を生成する。例えば、ユーザ自身を表すアバターが選択され、また、髪形や衣装が選択されると、その選択された髪形や衣装を纏ったアバターを生成し、更にアバターの位置、向き等が操作部130により指示される場合、その位置等にアバターを移動させる処理を行う。
 また、仮想オブジェクト生成部150は、撮像装置200の部品(外装部品、スイッチ類等)を示す仮想オブジェクトの選択指示を受け付け、選択された部品の画像(部品画像)を撮像装置200への合成用に加工した仮想オブジェクト画像を生成する。撮像装置200に部品画像を合成することで、XRディスプレイ140を通じて観察される撮像装置200の外観を変更することができる。
 第1通信部160は、撮像装置200との間で必要な情報を送受信する部分であり、撮像装置200がXR環境でライブビュー画像を撮影している場合、撮像装置200からライブビュー画像を受信する。また、第1通信部160は、撮像装置200がXR環境でシャッターボタン232(図1参照)が押下され、記録用の撮影が行われた場合には、シャッターレリーズ信号を受信する。シャッターレリーズ信号の受信時にライブビュー画像にアバターの画像を合成している場合には、第1通信部160は、そのアバターの画像を撮像装置200に送信する。
 GPS受信機170、ジャイロセンサ172、加速度センサ174、及び地磁気センサ176は、XRディスプレイ140(内蔵カメラ101)の3次元位置及び姿勢を示す情報を検出するためのセンサ類である。XRディスプレイ140の3次元位置及び姿勢を示す情報は、XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報を取得するために使用する。XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報は、ライブビュー画像を幾何変換するための変換情報の算出に使用することができる。
 <撮像装置の実施形態>
 図7は、本発明に係る撮像装置の実施形態を示すブロック図である。
 図7に示す撮像装置200は、図1に示した仮想画像表示システム10を構成する撮像装置200の内部構成を示すブロック図である。
 撮像装置200は、撮像部201、カメラプロセッサ210、第2メモリ220、操作部230、表示制御部248、メインモニタ241、サブモニタ242、ビューファインダ243、画像処理部250、第2通信部(通信部)260、GPS受信機270、ジャイロセンサ272、加速度センサ274、及び地磁気センサ276等を備えている。
 撮像部201は、交換レンズ202、イメージセンサ204、及びAFE206を有する。
 交換レンズ202は、カメラ本体203に装着されたものであり、カメラ本体203のレンズマウントに設けられた複数の信号端子を介してカメラ本体203との間で双方向通信を行うことができ、例えば、カメラ本体203からのリクエスト信号に応じて交換レンズ202のレンズ情報(焦点距離、フォーカス位置、絞り値等の情報)をカメラ本体203に送信し、また、カメラ本体203からの指令にしたがってフォーカスレンズ、絞り等を駆動する。
 イメージセンサ204は、CMOS型のカラーイメージセンサにより構成されているが、CMOS型に限らず、CCD型のイメージセンサでもよい。
 AFE206は、イメージセンサ204から出力されるアナログの画像信号に対して各種のアナログ信号処理を施した後にデジタルの画像信号に変換し、RAWデータとして出力する。
 カメラプロセッサ210は、CPU等から構成され、各部を統括制御するとともに、操作部230を使用したユーザ操作にしたがって各部を統括制御するとともに、AF(Auto Focus)制御、AE(Automatic Exposure)制御を含む各種の処理を行う。
 尚、AF制御及びAE制御は、それぞれ操作部230によりオートモードが設定されている場合に自動的に行われ、マニュアルモードが設定されている場合には、AF制御及びAE制御が行われないことは言うまでもない。
 操作部230は、図1に示したようにシャッターボタン232、シャッタースピード/感度ダイヤル234、露出補正ダイヤル236の他に、トグルスイッチ244、メニュー/実行ボタン245、再生ボタン246、表示/戻るボタン247等を含み、これらのボタン、ダイヤル等の操作により各種の指示、設定を行うことができる。
 本例の撮像装置200の操作部230は、撮像装置200を非XR環境(通常の環境)で使用する第1モード(非XRモード)とXR環境で使用する第2モード(XRモード)と、を切り替えるモード切替え部を有する点で、従来の撮像装置の操作部とは相違する。
 XRモード/非XRモードのモード切替え部は、XRモードの設定/解除が割り当てられたファンクションボタンを使用することができるが、専用のモード切替えレバーを設けるようにしてもよい。また、トグルスイッチ244及びメニュー/実行ボタン245を使用し、メニュー画面上でXRモードの設定/解除を行うものでもよい。
 専用のモード切替えレバーとしては、例えば、図2に示したファインダ切替えレバー249と同様の構成のモード切替えレバーをカメラ本体203の前面、背面又は上面に設けることができる。
 尚、XRモードが設定され、XR環境で使用する場合の撮像装置200の動作の詳細については後述する。
 第2メモリ220は、フラッシュメモリ、ROM、RAM等を含む。フラッシュメモリ及びROMは、ファームウエアを含む各種のプログラム、パラメータ及び撮影画像(静止画、動画)等を記憶する不揮発性メモリである。
 RAMは、カメラプロセッサ210による処理の作業領域として機能し、また、不揮発性メモリに格納されたファームウエア等を一時的に記憶する。尚、カメラプロセッサ210が、第2メモリ220の一部(RAM)を内蔵していてもよい。
 表示制御部248は、カメラプロセッサ210、又は画像処理部250からライブビュー画像、再生画像、撮影情報等を入力すると、表示用の信号形式に変換してメインモニタ241、サブモニタ242、及びビューファインダ243(EVF)に出力する。
 メインモニタ241は、図3(B)及び(C)に示すようにモニタパネル240が開いているときに動作可能となり、非XRモードの場合にカメラプロセッサ210からの指示にしたがってライブビュー画像、記録済みの画像(再生画像)等を表示する。
 サブモニタ242は、図3(A)に示すようにモニタパネル240が閉じているときに動作可能となり、非XRモードの場合にカメラプロセッサ210からの指示にしたがってシャッタースピード、絞り値、ISO感度等を示す撮影情報を表示する。
 ビューファインダ243は、ファインダ切替えレバーの操作によりEVFとOVFとの切替えが可能であり、EVFに切り替えられ、かつ非XRモードの場合にカメラプロセッサ210からの指示にしたがってライブビュー画像を表示する。
 したがって、モニタパネル240が閉じており、かつ非XRモードの場合には、ユーザは、ビューファインダ243で撮影範囲を確認しながらフレーミングを行うことができる。
 尚、非XRモードの場合にモニタパネル240が開いていても、ビューファインダ243に目を近づけると、アイセンサ(図示せず)の働きにより、自動的にビューファインダ243の表示に切り替え、目を離すとメインモニタ241の表示に切り替えることができる。
 一方、メインモニタ241及びサブモニタ242は、XRモードの場合には、それぞれライブビュー画像及び撮影情報を表示せず、例えば、カメラプロセッサ210からの指示にしたがってメインモニタ241又はサブモニタ242の表示領域を特定するマーカ(例えば、ARマーカ)を表示することができる。
 画像処理部250は、撮像部201から出力されるRAWデータに対してオフセット処理、ホワイトバランス補正、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、デモザイク処理(デモザイキング処理)等のRAW現像処理を行う。また、シャッターボタン232の押下に基づいて取得されたRAWデータに対しては、画像処理部250は、RAW現像処理後に圧縮処理を行い、画像ファイルとして第2メモリ220又は図示しないメモリカードに記録する。
 また、撮像部201から出力される連続するRAWデータに対し、画像処理部250によりRAW現像処理された連続データは、ライブビュー画像LVとして表示制御部248を介してメインモニタ241、又は第2通信部260に出力される。
 第2通信部260は、仮想画像表示装置100との間で必要な情報を送受信する部分であり、撮像装置200がXRモードに設定され、XR環境でライブビュー画像を撮影している場合、第2通信部260は、ライブビュー画像LVを仮想画像表示装置100に送信する。
 また、第2通信部260は、撮像装置200がXR環境でシャッターボタン232(図1参照)が押下され、記録用の撮影が行われた場合には、シャッターレリーズ信号を仮想画像表示装置100に送信する。仮想画像表示装置100は、第1通信部160を介してシャッターレリーズ信号を受信し、その受信時にライブビュー画像にアバターの画像を合成している場合には、仮想画像表示装置100の第1通信部160からそのアバターの画像を撮像装置200に送信する。
 GPS受信機270、ジャイロセンサ272、加速度センサ274、及び地磁気センサ276は、撮像装置200の3次元位置及び姿勢を示す情報を検出するためのセンサ類である。撮像装置200の3次元位置及び姿勢を示す情報は、XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報を取得するために使用する。XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報は、ライブビュー画像LVを幾何変換するための変換情報の算出に使用することができる。
 [仮想画像表示システムの第1実施形態]
 図8は、本発明に係る仮想画像表示システムの第1実施形態を示す要部ブロック図であり、図6に示した仮想画像表示装置100のXRプロセッサ110の機能を示す機能ブロック図である。
 図8において、XRプロセッサ110は、変換情報取得部112、合成部114、及び幾何変換部116として機能する。
 スマートグラスの内蔵カメラ101は、撮像装置200を含むユーザの視野に相当する視野画像IMを撮影し、撮影した視野画像IMを変換情報取得部112に出力する。
 撮像装置200は、撮像装置200がXR環境での使用中の場合、撮像装置200の操作により生成されるライブビュー画像LVを連続データとして送信し、第1通信部160は、撮像装置200からライブビュー画像LVを受信する。
 変換情報取得部112は、ライブビュー画像LVを撮像装置200の表示領域に重ね合わせる際に使用する変換情報を取得する部分であり、内蔵カメラ101から撮影画像(視野画像IM)を入力する。
 変換情報取得部112は、入力した視野画像IMを解析して撮像装置200の表示領域を示す領域情報を取得し、領域情報に基づいて変換情報を取得する。
 図9は、ライブビュー画像と視野画像と撮像装置の表示領域との幾何的な関係を示す図である。
 図9において、ライブビュー画像LVの画像座標系をXY座標系とし、視野画像IMの画像座標系をX’Y’座標系とする。また、ライブビュー画像LVの縦横の画像サイズをh1,w1とし、視野画像IMの縦横の画像サイズをh2,w2とする。尚、ライブビュー画像LVのXY座標系における4隅の点(特徴点)P1~P4の座標は、ライブビュー画像LVの画像サイズにより既知である。
 図9に示すように視野画像IMには、撮像装置200を示すカメラ画像が含まれている。
 変換情報取得部112は、視野画像IMにおける撮像装置200の特定の表示領域を示す領域情報として、例えば、表示領域の4隅の点(特徴点P1~P4に対応する対応点P1’~P4’)の座標を取得する。
 第1実施形態の変換情報取得部112は、ライブビュー画像LVの4隅の特徴点P1~P4に対応する対応点P1’~P4’として、視野画像IMを解析してモニタパネル240(図1参照)の四角形の輪郭を検出し、その輪郭の4隅の点を対応点P1’~P4’とすることができる。尚、本例では、閉じているモニタパネル240の四角形の輪郭で囲まれた領域を表示領域とするが、表示領域は適宜定義することができる。
 続いて、変換情報取得部112は、視野画像IMのカメラ画像上の表示領域(対応点P1’~P4’により特定されるモニタパネル240の領域)にライブビュー画像LVを重ね合わせる際に使用する変換情報を取得する。
 いま、ライブビュー画像LVを、アフィン変換により幾何変形させ、カメラ画像上の表示領域に重ね合わせる場合、アフィン変換のパラメータ(変換情報)を取得する必要がある。
 アフィン変換は、次式により行うことができる。
Figure JPOXMLDOC01-appb-M000001
 [数1]において、(x,y)は、ライブビュー画像LVの座標(XY座標系における座標)を示し、(x',y')は、アフィン変換後の座標(視野画像IMのX’Y’座標系における座標)を示す。
 また、[数1]において、パラメータa~dは、画像の拡大縮小、回転、スキュー(せん断)を示すパラメータであり、パラメータtx,tyは、平行移動を示すパラメータである。
 アフィン変換ではパラメータ推定のために2つの画像(本例では、ライブビュー画像LVと視野画像IM)のマッチング点(特徴点と対応点)を3組以上与える必要があるが、上記のライブビュー画像LVの特徴点P1~P4と、視野画像IMの対応点P1’~P4’の4組のマッチング点が得られるため、[数1]式に示したアフィン変換のパラメータa~d、tx,tyを求めることができる。
 変換情報取得部112は、このようにしてアフィン変換のパラメータa~d、tx,tyを、変換情報として取得することができる。
 また、2つの画像の間で幾何変換する他の方法として、例えば射影変換が考えられる。
 射影変換は、次式により行うことができる。
Figure JPOXMLDOC01-appb-M000002
 射影変換で、3×3の変換行列で表される9つのパラメータ(h11~h33)を全て求める必要があり、アフィン変換に比べて2つの画像間のマッチング点を多く求める必要があるが、アフィン変換よりも精度の高い幾何変換を行うことができる。
 図8に戻って、合成部114には、第1通信部160を介してライブビュー画像LVが加えられている。合成部114は、ライブビュー画像LVに仮想オブジェクトを合成する部分であり、合成部114の他の入力には、仮想オブジェクト生成部150により生成された仮想オブジェクトの画像が加えられている。
 仮想オブジェクト生成部150は、ユーザ指示により第1メモリ120から所望の仮想オブジェクト(例えば、アバター)の画像を読み出し、ライブビュー画像LVへの合成用に加工したアバターの画像を生成出力する。
 ユーザは、ユーザ自身を示すアバターの画像を第1メモリ120に登録することができる。ユーザ自身を示すアバターの画像は、ユーザ自身を撮影した画像でもよいし、アニメのキャラクタ、ロボット、ペット等の画像でもよい。
 また、ユーザは、操作部130での操作により髪形や衣装を適宜選択することができ、仮想オブジェクト生成部150は、ユーザにより選択指示された髪形や衣装を纏ったアバターの画像を生成することができる。更に、アバターの位置、向き等がユーザにより指示されると、仮想オブジェクト生成部150は、ロールプレイングゲーム中のアバターのように、その指示された位置等にアバターの画像を移動させる処理を行う。
 更に、仮想オブジェクト生成部150は、よりリアルなアバターの画像を生成する場合、ライブビュー画像LV等から得られる明るさや色味に合せて、アバターの画像の明るさや色味を調整するようにしてもよい。
 合成部114は、第1通信部160を介して加えられるライブビュー画像LVに、仮想オブジェクト生成部150により生成されたアバターを含む仮想オブジェクトの画像を合成し、合成したライブビュー画像LVを幾何変換部116に出力する。
 尚、合成部114は、仮想オブジェクト生成部150により仮想オブジェクトが生成されない場合には、入力したライブビュー画像LVをそのままライブビュー画像LVとして幾何変換部116に出力する。
 幾何変換部116は、変換情報取得部112により取得された変換情報に基づいて、合成部114を介して加えられるライブビュー画像LVを幾何変換する部分である。例えば、幾何変換部116による幾何変換がアフィン変換の場合、変換情報取得部112は、[数1]式に示したアフィン変換のパラメータ(a~d,tx,ty)を変換情報として取得し、幾何変換部116は、ライブビュー画像LVの座標(x,y)の画素を、上記変換情報に基づいてアフィン変換することで、視野画像IMの座標(x',y')の画素に変換する。また、幾何変換部116による幾何変換が射影変換の場合には、[数2]式に示した射影変換のパラメータ(h11~h33)を変換情報として取得し、幾何変換部116は、ライブビュー画像LVの座標(x,y)の画素を、上記変換情報に基づいて射影変換することで、視野画像IMの座標(x’,y’)の画素に変換する。
 幾何変換部116により幾何変換されたライブビュー画像LV(以下、「ライブビュー画像LV1」という)は、XRディスプレイ140に出力される。
 XRディスプレイ140は、幾何変換されたライブビュー画像LV1を、XRディスプレイ140の対応する画素位置に(内蔵カメラ101の視野画像IMに対応する画素位置)に表示する。図9に示した例では、ライブビュー画像LVのXY座標系の4つの座標P1~P4で表されるライブビュー画像LVは、視野画像IMのX’Y’座標系に座標変換され、4つの座標P1’~P4’で表されるライブビュー画像LV1として表示される。
 尚、ユーザがスマートグラスを装着している場合のユーザの視野範囲と、内蔵カメラ101が撮影する視野画像IMとはパララックスがあるため、XRディスプレイ140は、視野画像IMにおけるカメラ画像の大きさ(距離に相当)とカメラ画像の位置に応じてパララックスを補正することが好ましい。
 <変換情報取得部の第2実施形態>
 図8に示した第1実施形態の変換情報取得部112は、視野画像IMを解析してモニタパネル240の四角形の輪郭を検出し、その輪郭の4隅の点(図9のP1’~P4’)で囲まれた四角形の領域を、撮像装置200の表示領域Aとして設定し、変換情報を取得しているが、これに限らず、変換情報取得部112は、内蔵カメラ101が撮影した撮像装置200のマーカ(以下、「ARマーカ」という)の位置に基づいて変換情報を取得するものでもよい。
 図10は、ARマーカが設けられた撮像装置の外観を示す図である。
 図10に示す撮像装置200には、9つのARマーカM1~M9が設けられている。
 ARマーカは、予め登録されたイラストや画像等を示すマーカであり、位置情報と紐付けることができる。したがって、変換情報取得部112は、視野画像IMからARマーカM1~M9を読み取ることで、そのARマーカM1~M9が表示された位置の位置情報を取得することができ、撮像装置200の各面の傾き、位置、サイズ、中心座標などの情報を取得することができる。
 ARマーカM1~M9のうちのARマーカM1は、サブモニタ242に表示されたARマーカであり、ARマーカM2~M9は、予めカメラ本体203に設けられたARマーカである。
 ARマーカM2~M4は、モニタパネル240の4隅のうちの3箇所の位置を示すARマーカであり、モニタパネル240の領域をライブビュー画像LV1の表示領域Aとする場合、撮像装置200のライブビュー画像LV1の表示領域Aを特定するARマーカMとなる。
 尚、撮像装置200をXR環境で使用する場合、ARマーカM1をライブビュー画像LV1の表示領域Aを特定するマーカとして表示させることができる。また、サブモニタ242にARマーカMを表示する場合、そのARマーカMの個数は、1個に限らず、複数表示させることができる。更に、メインモニタ241(図3(B)及び(C)参照)を、ライブビュー画像LV1の表示領域とする場合、メインモニタ241の領域を特定する複数のARマーカMを表示させることができる。
 ARマーカM5は、カメラ本体203の上面に設けられたマーカであり、ARマーカM6は、カメラ本体203の背面上部に設けられたマーカであり、ARマーカM7はカメラ本体203の側面に設けられたマーカである。これらのARマーカM5~M7は、カメラ本体203の各面を特定するために設けられたマーカである。
 また、ARマーカM8は、シャッタースピード/感度ダイヤル234の上面に設けられたマーカであり、ARマーカM9は、露出補正ダイヤル236の上面に設けられたマーカである。これらのARマーカM8、M9は、ダイヤルの位置(回動位置を含む)を特定するために設けられたマーカである。
 ARマーカM4~M9は、カメラ本体203に仮想オブジェクト(外観を変更するスキン)を貼り付けるための領域を特定するために使用することができる。
 尚、ARマーカM1~M9の代わりに、二次元バーコード(例えば、「QRコード」(登録商標))によりマーカを構成してもよい。二次元バーコードを表示する場合、撮像装置200が何を表示しているかの情報、ライブビュー画像内に表示されるデータや指標(シャッタースピード、絞り値、ヒストグラムなどの数値情報)をコード化した二次元バーコードとすることができ、また、二次元バーコードは、データ表示の配置情報を組み込んだ情報を含んでいてもよい。
 また、ARマーカM1~M9の代わりに、位置の特定に適した他の形状を有するマーカでもよく、ARマーカMと二次元バーコードとが混在していてもよく、マーカの種類、位置、及び個数は、図10に示した実施形態に限定されない。
 <変換情報取得部の第3実施形態>
 ライブビュー画像LVを撮像装置200の表示領域Aに重ね合わせる際に使用する変換情報を取得する変換情報取得部は、内蔵カメラ101が撮影した視野画像IMを使用する場合に限らず、撮像装置200の3次元位置及び姿勢を示す情報と、XRディスプレイ140の3次元位置及び姿勢を示す情報とを取得し、XRディスプレイ140(第1ディスプレイ)を基準にした撮像装置200の相対的な3次元位置及び姿勢を示す情報を取得することで、変換情報を取得することができる。
 変換情報取得部は、仮想画像表示装置100のGPS受信機170、ジャイロセンサ172、加速度センサ174、及び地磁気センサ176のセンサ出力に基づいてXRディスプレイ140の3次元位置及び姿勢を示す情報を取得することができ、同様に撮像装置200のGPS受信機270、ジャイロセンサ272、加速度センサ274、及び地磁気センサ276のセンサ出力に基づいてXRディスプレイ140の3次元位置及び姿勢を示す情報を取得することができる。
 ここで、仮想画像表示装置100(XRディスプレイ140)をグローバル座標系で表し、撮像装置200をカメラ座標系(ローカル座標系)で表すものとすると、撮像装置200の大きさ、形状は既知であるため、ローカル座標系における撮像装置200の各部の3次元位置(例えば、)は、予め設定することができる。
 一方、XRディスプレイ140のグローバル座標系は、例えば、XRディスプレイ140の表示素子の中心を原点とし、表示素子の原点を通る表示素子の互いに直交する面内の方向をX軸及びY軸とし、表示素子の原点を通る法線方向をZ軸とするXYZの3軸直交座標系と定義することができる。
 前述したようにXRディスプレイ140の3次元位置及び姿勢を示す情報と、撮像装置200の3次元位置及び姿勢を示す情報とを取得すること(即ち、XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報を取得すること)で、これらの情報に基づいてライブビュー画像LVを、撮像装置200の表示領域Aに重ね合わせる際に使用する変換情報を取得することができる。
 例えば、撮像装置200の表示領域Aのローカル座標系の3次元位置(即ち、ライブビュー画像LVの3次元位置)を、XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報に基づいて、XRディスプレイ140の座標系であるグローバル座標系の座標に変換する。続いて、グローバル座標系に座標変換した撮像装置200の表示領域Aの3次元位置(即ち、ライブビュー画像LVの3次元位置)を、XRディスプレイ140の表示素子のサイズ、光学系の焦点距離等の既知のパラメータに基づいてXRディスプレイ140の表示素子の表示面上に透視投影変換することで、変換後のライブビュー画像LV1を求めることができる。
 尚、XRディスプレイ140を基準にした撮像装置200の相対的な3次元位置及び姿勢を示す情報は、仮想画像表示装置100のGPS受信機170、ジャイロセンサ172、加速度センサ174、及び地磁気センサ176のセンサ出力、及び撮像装置200のGPS受信機270、ジャイロセンサ272、加速度センサ274、及び地磁気センサ276のセンサ出力に基づいて求める場合に限らず、仮想画像表示装置100(スマートグラス)に設けた光センシング計測装置(例えば、LiDAR(Light Detection And Ranging))が測定した計測データ、TOF(Time Of Flight)カメラが取得した距離画像、あるいはスマートグラスの左右に設けた内蔵カメラが取得したステレオ画像等により求めてもよい。
 <XRディスプレイの第1実施形態>
 図11は、仮想画像表示装置のXRディスプレイの第1実施形態を示す図である。
 図11に示すXRディスプレイ140は、視野を透過するディスプレイであって、現実世界の視野に幾何変換したライブビュー画像LV1を表示する、メガネ型のウェアラブルデバイス(スマートグラス)である。
 XRディスプレイ140は、表示素子144、レンズ146A及びハーフミラー146Bを含む光学系146と、を備えている。表示素子144に表示された幾何変換後のライブビュー画像LV1は、光学系146によりユーザの目の前の表示位置において、虚像として表示される。
 ユーザは、ハーフミラー146Bを介して透過する現実世界を視認することができるとともに、ハーフミラー146Bで反射して現実世界に重ね合わされたライブビュー画像LV1を視認することができる。尚、ライブビュー画像LV1は、現実世界の撮像装置200の表示領域Aに重ね合わされた画像であり、撮像装置200からの反射光線ではないため、仮想の画像である。
 また、図11に示す表示素子144は、有機EL(electro-luminescence)パネルや液晶パネルなどの面発光素子であるが、これに限らず、多数の可動式の微小鏡面(マイクロミラー)を、集積回路上に平面状に配列したDMD(Digital Micromirror Device)と、DMDに赤、緑、青の光を入射させる光源とで構成された表示素子でもよい。
 <XRモードにおける第1表示例>
 図12は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第1表示例を示す図である。
 図12(A)は、裸眼で撮像装置200を見た場合のイメージを示す図である。図12(A)では、モニタパネル240が閉じており、サブモニタ242に撮影情報が表示されている。XRモードが設定されている場合に、仮想画像表示装置100(スマートグラス)を装着していない場合、ユーザは、ライブビュー画像LV1を観察することができない。
 図12(B)は、仮想画像表示装置100を装着して撮像装置200を見た場合のイメージを示す図である。図12(B)に示す第1表示例は、撮像装置200の閉じているモニタパネル240の領域にライブビュー画像LV1を重ねて表示する場合に関して示している。
 この場合、ユーザは、仮想画像表示装置100を装着して撮像装置200を見ることで、あたかもモニタパネル240の領域にライブビュー画像LV1が表示されているように見える。
 尚、設定により現実世界に合成される画像をライブビュー画像LV1から切り替えて、別の表示形態に変更することも可能である。
 <XRモードにおける第2表示例>
 図13は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第2表示例を示す図である。
 図13に示す第2表示例は、撮像装置200のメインモニタ241の領域にライブビュー画像LV1を重ねて表示する場合に関して示している。また、図13は、モニタパネル240が90°回動した状態の撮像装置200を示している。この場合、モニタパネル240の内側のメインモニタ241を上方から視認でき、ローアングルの撮影に適している。
 撮像装置200がXRモードに設定されている場合、メインモニタ241にはライブビュー画像は表示されておらず、仮想画像表示装置100を装着することで、ユーザは、あたかもメインモニタ241の領域にライブビュー画像が表示されているように見える。
 図13に示す第2表示例によれば、生成されるライブビュー画像LV1は、撮像装置200のメインモニタ241の可動範囲に応じた制限を受けるが、メインモニタ241が自由に回転できないことによってライブビュー画像LV1の表示の向きなどが分からなくならず、実物の撮像装置200の操作方法と同じため操作性が良く、迷うことがない利点がある。
 また、実物のモニタパネル240の代わりに、ダミーのモニタパネルを表示させて、そのダミーのモニタパネルにライブビュー画像LV1を表示させることができる。この場合、実物のモニタパネル240の可動範囲よりもダミーのモニタパネルの可動範囲を大きく(例えば、+10度だけ大きく)することができる。更に、ダミーのモニタパネルの可動範囲を選択により切り替えたり(自由に、段階的に、…)、切り替えたことが分かるようにモニタパネルのフレームの色や形(リアルカメラライクと透明な額縁状など)を替えることが好ましい。
 <XRモードにおける第3表示例>
 図14は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第3表示例を示す図である。
 図14に示す第3表示例は、図12(B)に示した第1表示例の変形例であり、撮像装置200の閉じているモニタパネル240よりも大きいダミーのモニタパネル上にライブビュー画像LV1を重ねて表示する場合に関して示している。
 幾何変形して重ね合わせて表示するライブビュー画像LV1の大きさは、自由に設定可能であり、図14に示す第3表示例では、仮想画像表示装置100を装着することで、ユーザは、モニタパネル240のサイズよりも大きい、実在しない大きさのダミーのモニタパネルにライブビュー画像LV1が表示されているように見える。
 尚、ダミーのモニタパネルのサイズは、一定サイズに限らず、モニタパネル240の隅を引っ張るなどの拡大操作をすることに連動して、拡縮できるようにしてもよい。この場合、モニタパネル240に実際に画枠を引っ張った感触を感じさせる感触付与部材を持たせることが好ましい。
 この場合のモニタパネル240の隅を引っ張るなどの拡大操作を検出する方法としては、仮想画像表示装置100の内蔵カメラ101の画像認識によってジェスチャーコントロールの原理を用いて拡大縮小の動作に合わせてダミーのモニタパネルのサイズを拡大縮小させても良いし、撮像装置200のモニタパネル240に設けられたタッチパネルに対してピンチ操作を行ったことを検出して、それに連動させるなど、他の方法を用いても良い。
 また、モニタパネル240の隅を引っ張ると、ダミーのモニタパネルの縦横比は固定のまま、ダミーのモニタパネルを引っ張っている方向及び上に向かって拡大し、又は引っ張っている方向及び上下に均等に拡大し、又は下に向かって拡大するようにしてもよい。
 <XRモードにおける第4表示例>
 図15は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第4表示例を示す図である。
 図15に示す第4表示例は、実在しないモニタパネルの領域にライブビュー画像LV1を重ねて表示する場合に関して示している。
 モニタパネル240は、図3(B)及び(C)に示すようにカメラ本体203に対してチルトできる回動機構を備えているが、図15に示すようにライブビュー画像LV1を回動させる回動機構を備えていない。
 図15に示す第4表示例では、カメラ本体203の背面の右側に仮想の回動機構を設け、モニタパネルを適宜回動させている。これにより、ライブビュー画像LV1が、モニタパネル240の大きさとほぼ同じ大きさで、その一端が撮像装置200に固定されているように見えており、かつモニタパネルをチルト操作してユーザの方向に向けた状態のように、視線方向に対して正対して見えるように表示している。
 なお、図15においては左右の一辺を軸に横方向にチルトするように表示しているが、これは一例であり、上下の一辺を固定軸にして上下方向のチルトの表示をしても良いし、また、異なる2方向のチルトを組み合わせた不定形の表示を行っても良い。この場合は、モニタパネルはいずれかの辺で撮像装置200に固定されている様には見えず、ヒンジ機構で連結されているように仮想画像で表現しても良い。
 <XRモードにおける第5表示例>
 図16は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第5表示例を示す図である。
 図16に示す第5表示例は、図15に示した第4表示例の変形例であり、カメラ本体203の向きが逆向きの場合に関して示している。即ち、図16に示す第5表示例は、カメラ本体203の背面の左側に仮想の回動機構を設け、モニタパネルを適宜回動させている。これにより、ライブビュー画像LV1が、モニタパネル240の大きさとほぼ同じ大きさで、かつ視線方向に対して正対して見えるように表示している。
 このように、モニタパネルを回動させる仮想の2軸又は3軸のヒンジを設け、ライブビュー画像LV1が常に正対して見えるようにカメラ本体に対してモニタパネルを自動的に回動させて表示させることが好ましい。これにより、リアルカメラの使い勝手に近い操作感が得られ、戸惑うことがなく、また、空中にライブビュー画像LV1が浮かんでいるような不自然合成画像にならず、よりリアルな感覚の撮影が行えることで、撮影行為の質が向上する。
 図17は、図16に示したライブビュー画像等の第5表示例に対する変形例を示す図である。
 図17(A)は、図16に示したライブビュー画像等の第5表示例と同一の表示状態を示す図である。図17(A)に示すように撮像装置200は、撮像装置200全体が、XRディスプレイ140の視野内に入っている場合に関して示している。
 図17(B)は、図17(A)に示した撮像装置200が、XRディスプレイ140の視野に対して左側に移動し、撮像装置200の左半分が視野から外れた場合に関して示している。
 この場合でも、仮想画像表示装置100は、撮像装置200からライブビュー画像LVを受信することができるため、図17(B)に示すようにライブビュー画像LV1をXRディスプレイ140に表示することができる。即ち、仮想画像表示装置100は、撮像装置200に対してライブビュー画像LV1を、本来の表示位置よりも図17(B)上で右側に移動させ、ライブビュー画像LV1全体を表示する。
 図17(C)は、図17(B)に示した撮像装置200が、更に左側に移動し.撮像装置200の左側の2/3が、XRディスプレイ140の視野から外れた場合に関して示している。この場合、仮想画像表示装置100は、撮像装置200に対してライブビュー画像LV1を、図17(B)に示した表示位置よりも図17(C)上で更に右側に移動させ、ライブビュー画像LV1全体を表示する。
 図17(D)は、図17(C)に示した撮像装置200が、更に左側に移動し.撮像装置200全体が、XRディスプレイ140の視野から外れた場合に関して示している。この場合、仮想画像表示装置100は、撮像装置200に対してライブビュー画像LV1を、図17(C)に示した表示位置よりも図17(D)上で更に右側に移動させ、ライブビュー画像LV1全体を表示する。この場合、ライブビュー画像LV1の左端は、視野の左端と一致している。
 図17に示す表示例では、撮像装置200が左側に移動して視野から外れる場合に関して示しているが、これに限らず、撮像装置200が右側に移動して視野から外れる場合、上方に移動して視野から外れる場合、及び下方に移動して視野から外れる場合も、上記と同様にライブビュー画像LV1を移動させ、ライブビュー画像LV1全体を表示させることができる。
 また、図15に示したライブビュー画像等の第4表示例を含む他の表示例の場合も、上記と同様に撮像装置200が視野から外れる場合には、撮像装置200に対してライブビュー画像LV1を移動させることができる。
 これにより、撮像装置200が視野から外れても、視野から外れた位置の周辺にライブビュー画像LV1を表示し続けることでライブビューを見続けることができる。
 尚、図12から図17に示した第1表示例から第5表示例において、合成表示されるライブビュー画像LV1とともに、ライブビュー画像LV1の下端部において、撮影情報を表示することが可能である。
 <XRモードにおける第6表示例>
 図18は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第6表示例を示す図である。
 図18に示す第6表示例は、撮像装置200の閉じているモニタパネル240のサブモニタ242(図1参照)よりも広い領域に、撮影情報INFOを重ねて表示する場合に関して示している。
 この撮影情報INFOは、通常のサブモニタ242に表示される撮影情報(図12(A)参照)に加えてヒストグラムを含んでいる。このヒストグラムは、現在撮影中のライブビュー画像の輝度の分布を示す輝度ヒストグラムである。ヒストグラムは、輝度ヒストグラムに限らず、R(赤)、G(緑)、B(青)の色ごとのRGBヒストグラムでもよい。
 また、撮影情報INFOは、シャッタースピード、絞り値、EV値(exposure value)などの撮影条件を示す情報に限らず、種々の撮影情報を含む。例えば、被写体情報を表すメタデータ、ISO感度、顔認識枠やAF枠などの検出エリア情報などを撮影情報INFOに含めることができる。
 仮想画像表示装置100は、撮像装置200から撮影情報INFOを示すテキストデータ又は画像を受信することができる。また、仮想画像表示装置100は、サブモニタ242に撮影情報INFOが表示されている場合、その撮影情報INFOを画像認識によって読み取ることで取得することができる。
 撮影情報INFOは、他の撮像装置のデータと区別するためのカメラ識別情報を含むことが好ましいが、撮影情報INFOを表示する際には、カメラ識別情報は非表示にする。
 一方、仮想画像表示装置100は、撮影情報INFOを合成して表示する場合、ビューファインダ243の領域にライブビュー画像LVを重ね合わせて表示させることが好ましい。
 これにより、仮想画像表示装置100を装着したユーザは、ビューファインダ243に目を近づけると、ビューファインダ243の接眼部からライブビュー画像LVを視認することができる。
 <撮像装置の第1外観例>
 図19は、撮像装置がXRモードに設定されている場合の撮像装置の第1外観例を示す図である。
 図10に示したように撮像装置200には、ARマーカM1~M9が設けられており、仮想画像表示装置100は、視野画像IMからARマーカM1~M9の位置を検出することで、撮像装置200の各面、又は撮像装置200の外観形状を示すポリゴンを特定することができる。
 仮想画像表示装置100は、ARマーカM1~M9に合せて撮像装置200の外観を示す仮想オブジェクト画像(スキン)を貼り付け合成することで、元の撮像装置200の外観とは異なる外観になるように表示させることができる。
 撮像装置200の外観とは異なる外観にする方法として、上述の例では撮像装置200の外観を示す仮想オブジェクト画像(スキン)を貼り付け合成するという方法を記載したが、仮想オブジェクト画像(スキン)は張り付ける面に平面的に張り付いているものでなくても構わない。例えば、図19の撮像装200の前面に取り付けられているレンズ200Bのように、別部材が飛び出して見える、または別部材が取り付けられているような形状を持っていても構わない。
 また、1つのARマーカに対して仮想オブジェクト画像(スキン)は複数であっても構わない。
 また、レンズ200Bの部分が着脱可能であるように構成しても構わない。更に、レンズ200Bの部分を持って取り外すような操作(例えば回転して引き離すなど、レンズ交換を模したジェスチャー)を画像認識によって検出して,その操作に連動して着脱が行われるようにしても良い。
 また、図19に示す撮像装置200の第1外観例では、カメラ本体203の背面のモニタを大きくし、かつ背面のスイッチ類を変更している。
 <撮像装置の第2外観例>
 図20は、撮像装置がXRモードに設定されている場合の撮像装置の第2外観例を示す図である。
 仮想画像表示装置100は、図19に示した第1外観例と同様に、撮像装置200の外観を示す仮想オブジェクト画像(スキン)を貼り付け合成することで、撮像装置200の外観を変更させる。
 図20に示す撮像装置200の第2外観例では、カメラ本体203の上面がシャッターボタン232のみのシンプルな形状に変更されている。図20に示す第2外観例の場合、図1等に示したシャッタースピード/感度ダイヤル234及び露出補正ダイヤル236は見えなくなる。
 撮像装置200がXRモードに設定され、外観の変更により撮像装置200の一部の操作系が見えなくなる場合には、撮像装置200は、見えなくなる操作系(実物のシャッタースピード/感度ダイヤル234及び露出補正ダイヤル236等)を動作不能にすることが好ましい。
 <撮像装置の第3外観例>
 図21は、撮像装置がXRモードに設定されている場合の撮像装置の第3外観例を示す図である。
 仮想画像表示装置100は、図19に示した第1外観例と同様に、撮像装置200の外観を示す仮想オブジェクト画像(スキン)を貼り付け合成することで、撮像装置200の外観を変更させる。
 図21に示す撮像装置200の第3外観例では、ビューファインダの位置が左端から中央部に変更されており、また、カメラ本体203の背面のモニタや操作系が削除されている。
 <撮像装置の外観第3外観例>
 図22は、撮像装置の外観を複数の領域に分割して変更する場合の概念図である。
 仮想画像表示装置100の第1メモリ120は、撮像装置200の外観を複数の領域に分割した分割領域毎に外観を示す仮想オブジェクト画像を記憶している。
 図0に示す例では、仮想オブジェクト画像として、交換レンズ部151、皮革外装部152、操作ダイヤル部153、上部外装部154、ファインダ部155、モニタ部156が、第1メモリ120に記憶されている。
 交換レンズ部151は、広角レンズ、望遠レンズ等の種類の異なる複数の交換レンズ部を含む。皮革外装部152は、黒レザー、茶レザー、赤レザー、クロコダイル柄等を含む。上部外装部154は、シルバー、ブラック、ゴールド、ツートン等の質感、色の外装を含む。ファインダ部155及びモニタ部156も種々の形状、及び大きさのものを含む。
 ユーザは、これらの分割領域毎の外観を示す仮想オブジェクト画像を、操作部230での操作により選択して組み合わせることで、撮像装置200の外観をオリジナルの外観にすることができる。
 即ち、XRプロセッサ110は、操作部230でのユーザ操作により、外観を示す1乃至複数の仮想オブジェクト画像を受け付け、これらの仮想オブジェクト画像を、撮像装置200の3次元位置及び姿勢により適宜幾何変換し、XRディスプレイ140に出力する。これにより、ユーザは、XRディスプレイ140を介して視認される撮像装置を、ユーザが選択した仮想オブジェクト画像の外観を有するものとして認識することができる。
 また、複数種類の仮想オブジェクト画像を組み合わせる場合、予め効果的な組合せを複数用意しておき、ユーザは、複数の組合せの中から選択するようにしてもよい。この場合、XRプロセッサ110は、複数の組合せの中から選択された組合せの仮想オブジェクト画像を受け付け、これらの仮想オブジェクト画像を、撮像装置200の3次元位置及び姿勢により適宜幾何変換し、XRディスプレイ140に出力する。
 更にまた、複数種類の仮想オブジェクト画像の効果的な組合せは、過去の学習結果により決定(AI(artificial intelligence)により決定)して登録し、又は更新するようにしてもよい。
 過去の組合せデータ(AIには限定しないが)によって、GUIの操作性や外観の変更を行うことにより、過去のデータによって得られたユーザの好みやユーザの操作性に合った、仮想オブジェクト画像の効果的な組合せを提供することができる。この学習をAIによって行うことで、より操作性が高く好みに合ったものにすることができる。
 また、これらの技術をさらに多数のユーザに対して過去の組合せデータを集めることで多くのユーザの好みをデータサーバー上に持っておけば、必要に応じて不特定多数のユーザや、特定のユーザグループ(左利きのユーザ、女性ユーザ、子供ユーザ、高齢者ユーザなど)の使勝手に対する外観や操作性の向上につながるようにカスタマイズすることもできる。また、これらをメニュー画面や設定画面で選択的に、あるいはAIがユーザに合わせて自動的に行う方法を用いても良い。
 更に、仮想オブジェクト画像の交換だけでなく、例えば、図1等に示したシャッタースピード/感度ダイヤル234及び露出補正ダイヤル236を入れ替えるなどの配置の変更を行えるように構成しても構わない。
 また、ユーザは、これら撮像装置200の外観をオリジナルの外観にする操作を、分割領域毎の外観を示す仮想オブジェクト画像を、操作部230での操作により選択して組み合わせることで行うことが出来ると記載したが、オリジナルの外観にする操作を直感的に行うために、画像認識技術を用いたジェスチャーコントロールで行えるようにしてもよい。すなわち、仮想画像表示装置100に設けられた内蔵カメラ101の視野画像IMから画像認識によりユーザが外観を示す仮想オブジェクト画像を変更するジェスチャーを行ったことを認識して、ジェスチャーに対応する外観を示す仮想オブジェクト画像を移動させたり交換させたりするように表示を制御することで、仮想外観を変化させても良い。
 更に、いずれの分割領域に仮想オブジェクト画像(スキン)が貼り付けられたが直感的に分かるようにXRディスプレイ140に、表示される撮像装置200の画像の輝度を上げて表示、あるいは内側の部分が光っていることを表す光芒の表現を周囲に表示するなどによって、画像視野内の使用している撮像装置200の画像を光って見えるようにしてもよい。
 尚、これらの仮想オブジェクト画像は、撮像装置200の3次元位置及び姿勢により適宜、幾何変換されて合成される。
 また、交換レンズ部151を、例えば、実際の広角レンズからバーチャルの望遠レンズに交換することで、仮想画像表示装置100は、ライブビュー画像LV1を望遠レンズで撮影されたように拡大表示することができる。
 <XR環境での使用に対応した撮像装置>
 図23は、XR環境での使用に対応した撮像装置の斜視図である。
 図23に示す撮像装置280は、ダミーレンズ281、3つの実レンズ282、及びダミーモニタ283を備えている。
 ダミーレンズ281は、外観のみを構成するレンズであり、撮影機能がない。
 3つの実レンズ282は、それぞれ焦点距離が異なるレンズであり、ユーザは、適宜選択して使用することができる。実レンズ282により撮影されたライブビュー画像は、仮想画像表示装置100に送信される。
 ダミーモニタ283は、表示機能がなく、カメラ本体に対して回動可能な可変ダミーモニタである。
 前述した撮像装置200は、XR環境で使用する場合、メインモニタ241等にはライブビュー画像を表示せず、仮想画像表示装置100が、ライブビュー画像LV1を撮像装置200の表示領域に重ね合わせて表示するが、本例の撮像装置280の場合、仮想画像表示装置100は、撮像装置280のダミーモニタ283にライブビュー画像を重ね合わせて表示する。
 また、仮想画像表示装置100は、ダミーモニタ283が回動するとその回動したダミーモニタ283にライブビュー画像を重ね合わせて表示させることができる。これにより、図13、図15及び図17に示した場合と同様のライブビュー画像LV1を表示させることができる。
 <仮想カメラ>
 図24は、本発明に係る仮想画像表示システムを構成する仮想カメラの実施形態を示す背面側からの斜視図である。
 図24に示す仮想カメラ290は、少なくとも手で把持できるグリップ部を備えた仮想カメラであり、操作スイッチ類が設けられている。この場合、「仮想カメラ」という言葉は用いているが、グリップ部には実態があり、仮想表示によるカメラという意味ではない。
 仮想カメラ290は、レンズ、撮像素子等の撮像部を備えておらず、カメラ機能がないダミーカメラであり、本例の仮想カメラ290は、グリップ部のみの外観形状を有する。
 仮想カメラ290のグリップ部には、少なくともシャッターボタンを含む操作部材が設けられているが、操作部材は、ユーザ操作により可動するが、操作信号を発生しないダミースイッチである。
 仮想カメラ290は、レンズや撮像素子が不要で、通信部も大幅に簡易化でき、軽量化も可能であり、折り畳みなどの適用により小型化も容易に可能である。また、ユーザは、カメラ機能がない仮想カメラ290であっても通常のカメラと同様にフレーミングや操作部材の操作感が得られる。
 本実施形態の仮想カメラ290の操作部材は、ユーザ操作により可動するが、操作信号を発生しないダミースイッチであるが、他の実施形態として、仮想カメラ290の各操作部材は実際に操作感覚が得られるように操作可能となっており、ユーザ操作を検出する操作検出部と操作信号を送信する(ライブビュー画像の送信は含まない)通信部を有することで、ユーザが行った仮想カメラ290の各操作部材に対する操作内容を、通信部を介して仮想画像表示装置100(または仮想画像表示システム10または後述するXRサーバ300)に送信することによってユーザが行った操作をリアルタイムで反映させることが出来るようにしてもよい。
 また、ユーザが行った操作をリアルタイムで反映させる方法としては、この方法に限らず、他のバリエーションとして、仮想カメラ290の各操作部材は実際に操作感覚が得られるように操作可能であるが、操作を検出する操作検出部や通信部は持たないものであっても、操作感覚の質を向上させることが出来る。この場合は、仮想画像表示装置100や仮想画像表示システム10が有する撮像装置200や、画像認識用のカメラアイを用いてユーザの指の動きや操作部材の操作状況を画像認識によって検出することでユーザが行った操作をリアルタイムに反映させることが可能である。この場合の反映にかかる時間や反映のエラー率は操作検出手部及び通信部を有するものに対して一般的には性能が劣るが、画像認識の性能によっては実用上遜色がないものにすることができる。
 図25は、本発明に係る仮想画像表示システムを構成する仮想カメラの実施形態を示す正面側からの斜視図である。
 図25(A)に示す仮想カメラ290は、図24に示した背面側からの仮想カメラ290を正面側から見た斜視図である。
 前述したように仮想カメラ290は、撮影レンズ、撮像素子等の撮像部を備えておらず、カメラ機能がないダミーカメラである。
 図25(B)に示す仮想カメラ290Bは、スマートフォンに搭載されているような小型カメラ293Bを、グリップの前面であって、グリップを把持した手によって隠れない部分に内蔵している。
 この場合、ユーザ操作を検出する操作検出部に加えて、画像送信を含む通信部を有することで、ユーザが行った撮像装置290Bの各操作部材に対する操作内容及び小型カメラ293Bによって取得されたライブビュー画像等を、通信部を介して仮想画像表示装置100(または仮想画像表示システム10または後述するXRサーバ300)に送信することができる。以降の流れは、後述するスマートフォンを併用する実施形態と同様である。
 また、仮想カメラ290Bは、カメラ付きグリップ部が備えているカメラ機能を使用した、現実の撮像装置として使用することができる。また、カメラ付きグリップ部のカメラ機能を使用する場合、カメラ付きグリップ部により撮影されるライブビュー画像に対して、後述するスマートフォンを使用する実施形態のように、仮想画像表示装置100の内蔵カメラ101の視野画像IMや、XRサーバ300から取得されるライブビュー画像によって補完や解像度強化、白飛び、黒つぶれ補正などを施して最終的な画像としてもよい。
 図25(C)に示す仮想カメラ290Cは、画像認識用の小型カメラ293Cを、グリップの前面であって、グリップを把持した手によって隠れない部分に内蔵している。この小型カメラ293Cは、図25(B)に示した小型カメラ293Bよりも解像度が低いものでもよい。
 仮想カメラ290Cは、操作を検出する操作検出部に加えて通信部を有するが、この場合の通信部は、画像送信を行うものでなくてもよい。通信部は画像送信を含まない場合は、ユーザが行った仮想カメラ290Cの各操作部材に対する操作内容及び、小型カメラ293Cによって取得された画像データを送信するのではなく、小型カメラ293によって取得された画像データから、画像認識などを用いて、仮想カメラ290Cが向けられている被写体の情報や、設定された画角の範囲情報などを数値化や文字化して、各操作部材に対する操作内容とともに通信部を介して仮想画像表示装置100(または仮想画像表示システム10またはXRサーバ300)に送信することができる。これにより、画像送信を含む通信部に比べて小型、ローコストな構成にすることができる。以降の処理の流れに関しては、カメラ機能がないダミーカメラによる実施形態と、後述するスマートフォンを使用する実施形態との処理の組み合わせによって実現できるため、その説明は省略する。
 図26は、本発明に係る仮想画像表示システムを構成する仮想カメラの他の実施形態を示す斜視図である。
 図26に示す仮想カメラ292は、図24に示した仮想カメラ290にスマートフォン291を合体させたものである。
 この仮想カメラ292は、カメラ機能を備えていない仮想カメラとして使用したり、スマートフォン291が備えているカメラ機能を使用した、現実の撮像装置として使用することができる。また、スマートフォン291のカメラ機能を使用する場合、スマートフォン291により撮影されるライブビュー画像に対して、後述するように仮想画像表示装置100の内蔵カメラ101の視野画像IMや、XRサーバ300から取得されるライブビュー画像によって補完や解像度強化、白飛び、黒つぶれ補正などを施して最終的な画像としてもよい。
 図24に示した仮想カメラ290、及びスマートフォン291のカメラ機能を使用しない場合の仮想カメラ292は、ライブビュー画像を撮影することができないが、仮想の撮像部を設定することで、仮想カメラ290、292の画角に対応する画像(ライブビュー画像)を取得することができる。
 図27は、仮想カメラが撮影するライブビュー画像の取得方法の実施形態を示す図である。
 前述したように仮想画像表示装置100の内蔵カメラ101は、仮想カメラ290を含むユーザの視野に相当する視野画像IMを撮影し、撮影した視野画像IMを取得する。図27において、L1は、内蔵カメラ101の光軸である。
 仮想カメラ290がカメラ機能を有する場合に撮影するライブビュー画像は、仮想カメラ290の3次元位置、姿勢(撮影方向)、及び画角により特定することができる。図27において、L2は、仮想カメラ290において仮定した光軸であり、仮想カメラ290の3次元位置及び姿勢から求めることができる。
 仮想画像表示装置100は、撮像装置200と同様に、XRディスプレイ140を基準にした仮想カメラ290の3次元位置及び姿勢を示す情報を取得することができる。
 したがって、仮想カメラ290の画角を設定すれば、仮想カメラ290の3次元位置及、姿勢及び画角により撮影されるライブビュー画像が、内蔵カメラ101により撮影される視野画像IMのどの範囲に相当するかを求めることができる。
 即ち、仮想画像表示装置100は、内蔵カメラ101が撮影した視野画像IMから、仮想カメラ290の画角に対応する画像を切り出してライブビュー画像として取得することができる。尚、内蔵カメラ101の画角は、仮想カメラ290に設定する画角よりも広く、視野画像IMは、仮想カメラ290が撮影するライブビュー画像を含むものとする。
 このように、仮想画像表示装置100は、仮想カメラ290が仮に撮像部を有する場合に撮影することができるライブビュー画像を、内蔵カメラ101が撮影した視野画像IMから取得することができる。
 仮想画像表示装置100は、取得したライブビュー画像を幾何変換し、仮想カメラ290に対して設定した表示領域(例えば、仮想カメラ290であるグリップ部に隣接する領域)に表示させることができる。
 また、仮想画像表示装置100は、図26に示した仮想カメラ292の場合、取得したライブビュー画像を幾何変換し、仮想カメラ292のスマートフォン291の表示領域に重ね合わせて表示することができる。
 更に、仮想画像表示装置100は、内蔵カメラ101が撮影した視野画像IMを解析することで、仮想カメラ290におけるスイッチ類のユーザ操作(ジェスチャー)を検出することができ、スイッチ類のユーザ操作に基づく記録用の撮影、保存及びその他の処理を実施することができる。
 また、仮想カメラは、グリップ部だけのものに限らず、外観形状、大きさ、スイッチ類の配置や有無が異なる種々のものが考えられる。
 尚、本例の仮想カメラ290は、カメラ機能を備えていないが、本物のスイッチ類及び通信部等を備え、スイッチ類の操作情報は、仮想カメラ290に備えた簡易の通信部を介して仮想画像表示装置100に送信するようにしてもよい。
 <XRディスプレイの第2実施形態>
 図28は、仮想画像表示装置のXRディスプレイの第2実施形態を示す図である。
 図28に示すXRディスプレイ141は、視野を覆う没入型のディスプレイであって、ゴーグル型の仮想画像表示機能を有するウェアラブルデバイスであり、内蔵カメラ101、画像合成部143、表示素子145、及び光学系147から構成されている。
 内蔵カメラ101が撮影した撮影画像(視野画像IM)は、画像合成部143に出力される。
 画像合成部143の他の入力には、幾何変換されたライブビュー画像LV1が加えられており、画像合成部143は、視野画像IMに含まれるカメラ画像の表示領域にライブビュー画像LV1を合成し(貼り付け)、表示素子145に出力する。
 表示素子145は、ライブビュー画像LV1が合成された視野画像IMを表示する。この視野画像IMは、光学系147によりユーザの目の前の表示位置において、虚像として表示される。
 ゴーグル型のXRディスプレイ141を装着したユーザは、光学系147を通じて表示素子145に表示された視野画像IMの虚像を視認することができる。ユーザは、ゴーグル型のXRディスプレイ141により視野が覆われるため、視野画像IM以外を見ることができず、非現実の世界に深く没入することができる。
 尚、図28では、1つのXRディスプレイ141のみを示したが、ゴーグル型の場合、両目に対応する左右一対のXRディスプレイ141を備える。したがって、内蔵カメラ101等もそれぞれ左右に設けられ、ライブビュー画像LV1も左右用のライブビュー画像が生成されることになる。
 [仮想画像表示システムの第2実施形態]
 図29は、本発明に係る仮想画像表示システムの第2実施形態を示すブロック図である。
 図29に示す仮想画像表示システム11は、仮想画像表示装置180、仮想カメラ290、及びサーバ(XRサーバ)300から構成されている。
 仮想画像表示装置180は、図6に示した仮想画像表示装置100とほぼ共通するが、XRサーバ300との間で必要な情報を送受信する点で、仮想画像表示装置100と相違する。
 図29において、XRサーバ300は、実空間の3次元情報を有する3次元画像(XR空間構築データ)を管理するデータベース(DB:database)302を備える。
 XRサーバ300は、実空間に配置された多視点カメラ320、監視カメラ330、ドライブレコーダ340、ドローンカメラ310、又は携帯端末カメラを含む多数のカメラにより撮影された画像を収集し、最新のXR空間構築データを生成してデータベース302にて管理している。
 データベース302は、街区、都市、商店街、観光地等をデジタル化し、XR空間構築データとして管理する。また、複数のXRサーバ300を連携させ、より広域のXR空間構築データを管理することが好ましい。
 仮想画像表示装置180のXRプロセッサ111は、図6に示した仮想画像表示装置100のXRプロセッサ110と同様の機能を備えるが、更に仮想カメラ290の3次元位置、姿勢、及び画角を示す情報(第1情報)に基づいて、XRサーバ300が管理しているXR空間構築データから、仮想カメラ290の撮影領域に対応するXR空間構築データを切り出し、切り出した3次元のXR空間構築データを2次元画像に変換し、この2次元画像をライブビュー画像として使用する。
 XRプロセッサ111は、データベース302から読み出した3次元のXR空間構築データを、仮想カメラ290の3次元位置及び姿勢(撮影方向)に基づいて、仮想カメラ290のカメラ内部パラメータ(本例では、予め設定した画角又は焦点距離)を使用して透視投影変換することで2次元画像に変換し、これをライブビュー画像LVとする。
 また、XRプロセッサ111は、内蔵カメラ101が撮影した視野画像IMを解析して仮想カメラ290の表示領域を特定し、ライブビュー画像LVを、仮想カメラ290の表示領域に重ね合わせる際に使用する変換情報を取得し、取得した変換情報に基づいてライブビュー画像LVを幾何変換するが、仮想画像表示装置180のXRディスプレイ140と仮想カメラ290との相対的な3次元位置及び姿勢に基づいて変換情報を取得し、かつXRディスプレイにて視野画像IMを使用しない場合には、内蔵カメラ101は省略することができる。XRプロセッサ111は、周囲にいる他の人の撮像装置から送信される画像データを用いてより良いライブビュー画像を生成するようにしてもよい。
 また、XRサーバ300は、最新のXR空間構築データを生成する際に、多視点カメラ320等の画像として現在画像だけでなく過去に記録した画像も用い複数の画像のコンポジット合成によって単体よりも高画質のXR空間構築データを構築することが好ましい。複数の画像を用いて、わずかな画素のずれを利用して加工及び合成することによって画像の画素数を増やすことができる。
 複数の画像を用いて、補完画像を作成する際に、白飛び、黒つぶれなどの相互補完を行い、画像データの得られない、または品質の悪い部分を補完し、更に品質の悪い部分を補完する際に、光の強弱によって発生する明暗の上下関係が逆転しないように補完画像の明るさを補正することが好ましい。更に、補完画像の明るさを補正する際に、全体の表示ラチチュード(印刷ラチチュードの中)に納まるようにガンマカーブを補正し、あるいは全体の印刷ラチチュードの中に納まるように印刷パラメータカーブを補正することが好ましい。
 主被写体画像と合成する際に、明るさ、光線方向、色温度、ガンマカーブ(印刷パラメータ)を多視点カメラ320等の画像に合わせる補正を行うことが好ましい。更に、多視点カメラ320の過去画像及び現在画像から主要被写体以外を画像合成する場合、現在画像から天気や時刻等の変化する条件を検出し、検出した天気や時刻等の変化する条件に合わせて、過去画像やXR空間構築データを変換して合成することが好ましい。
 また、XRサーバ300は、XR空間構築データに仮想オブジェクト画像を合成するようにしてもよい。例えば、XRサーバ300は、XR空間構築データが人物の画像を含んでいる場合、その人物を模したアバターの画像に変換し、人物の画像に代えてアバターの画像に変更することができる。また、XRサーバ300は、人物の画像から人物を特定し、かつ特定した人物が自分のアバターの画像をXRサーバ300に登録している場合には、人物の画像を登録されたアバターの画像に変更することができる。
 これにより、仮想画像表示装置180は、XRサーバ300からアバターの画像を含むライブビュー画像LVを取得することができる。
 尚、自分が入っている画像が他者によって使用される場合が考えられるが、この場合には、その旨を仮想画像表示装置100にて報知し、又は警告することが好ましい。また、自分が入っている画像の許可/不許可の設定が可能であり、許可に設定されている場合には報知等は省略することができる。
 また、自分が入っている画像が他者によって使用される場合、不許可に設定されている場合には、その旨を相手に報知し、警告し、又は相手の撮影をロックする信号を送信し、あるいは自分の画像部分にモザイクを掛けさせる信号、相手側の画像を生成させない生成禁止信号を送信することができる。相手側の装置は、生成禁止信号を受信すると、禁止被写体の画像を生成しない(消す、背景で塗り潰す等)ように画像処理を行うことが好ましい。
 更に、この実施形態では、仮想画像表示装置180が、XRサーバ300からライブビュー画像LVを取得するようにしているが、これに限らず、仮想画像表示装置180は、ライブビュー画像LVの抽出に必要な情報をXRサーバ300に送信し、XRサーバ300がライブビュー画像LVを取得し、仮想画像表示装置180に送信するようにしてもよいし、ライブビュー画像LVを幾何変換し、幾何変換したライブビュー画像LV1を仮想画像表示装置100に送信するようにしてもよい。
 また、XRサーバ30は、XRディスプレイ140の視野範囲を示す情報を取得することで、ライブビュー画像LVを取得する方法と同様にして視野画像IMを取得し、仮想画像表示装置100に送信するようにしてもよい。
 更にまた、この実施形態では、仮想カメラ290を使用しているが、撮像装置200を使用する場合にも適用できる。この場合、撮像装置200がXR環境で使用されている場合、撮像装置200はライブビュー画像を撮影せず、XRサーバ300から取得することになる。
 また、XRサーバ300のデータベース302には、最新のXR空間構築データが登録されるが、必ずしもリアルタイムのXR空間構築データではないため、最新のXR空間構築データから生成されるライブビュー画像LVも必ずしもリアルタイムの画像ではない。
 したがって、仮想画像表示装置180は、例えば、内蔵カメラ101で撮影される視野画像IMと明るさや色味に合わせて、ライブビュー画像LVの明るさや色味を調整することが好ましい。
 尚、仮想カメラ290の姿勢は、仮想カメラ290を手に持ってユーザが任意に操作することができるが、仮想カメラ290の3次元位置も現実の位置ではなく、ユーザ操作により任意の位置に変更可能にすることにより、ユーザは、自宅に居ながら観光地等の撮影を楽しむことができる。
 [仮想画像表示方法の第1実施形態]
 図30は、本発明に係る仮想画像表示方法の第1実施形態を示すフローチャートである。
 図30に示す第1実施形態の仮想画像表示方法は、仮想画像表示装置100により行われ、主として図6に示した仮想画像表示装置100のXRプロセッサ110により行われる方法である。
 図30において、XRプロセッサ110は、内蔵カメラ101により撮影した視野画像IMを取得する(ステップS100)。
 XRプロセッサ110は、視野画像IMを解析して、視野画像IMに含まれる撮像装置200を示すカメラ画像を抽出する(ステップS102)。撮像装置200を手に持って撮像装置200によりライブビュー画像を撮影する場合、図9に示すように内蔵カメラ101により撮影される視野画像IMには、通常、撮像装置200を示すカメラ画像が含まれている。
 XRプロセッサ110は、抽出したカメラ画像から撮像装置200が、XR対応カメラか否かを判別する(ステップS104)。この判別は、例えば、抽出したカメラ画像と第1メモリ120に予め保存されたXR対応カメラの外観データとを比較することにより行うことができる。また、撮像装置200に設けられたARマーカMが、予め登録されたARマーカMと一致するか否かにより判別することができる。
 XRプロセッサ110は、内蔵カメラ101により撮影された撮像装置200がXR対応カメラであると判別すると(「Yes」の場合)、続いて撮像装置200がXRモードか、又は非XRモードかを検出する(ステップS106)。
 XRモード/非XRモードの検出は、撮像装置200がXRモードに設定され、メインモニタ241又はサブモニタ242にARマーカMを表示する場合には、そのARマーカMを検出することで行うことができる。また、撮像装置200が専用のモード切替えレバーを有している場合、モード切替えレバーの位置を画像認識することで行うことができる。更に、視野画像IMからカメラ画像が抽出された場合に、XRプロセッサ110は、仮想画像表示装置100から自動的に撮像装置200に対して無線接続し、撮像装置200との通信結果に基づいてXRモード/非XRモードの検出を行うことができる。例えば、仮想画像表示装置100からの発呼に対して撮像装置200から応答がない場合には、撮像装置200はXRモードに設定されていないと判別することができる。
 ステップS108において、XRモード/非XRモードの検出結果から、撮像装置200がXRモードに設定されていないと判別されると(「No」の場合)、XRプロセッサ110は、仮想画像表示装置100(スマートグラス)におけるライブビュー画像の重ね合わせ合成機能をOFFにし(ステップS110)、ステップS100に戻る。これにより、ユーザは、スマートグラスを透過する現実世界のみを見ることができる。
 一方、ステップS108において、XRモード/非XRモードの検出結果から、撮像装置200がXRモードに設定されていると判別されると(「Yes」の場合)、抽出したカメラ画像に基づいて撮像装置200の表示領域A(図10参照)を特定する。表示領域Aの特定は、モニタパネル240の四角形の輪郭を検出し、あるいは撮像装置200に付されたARマーカM2~M4を検出することで行うことができる。
 次に、XRプロセッサ110は、ライブビュー画像LVを、撮像装置200の表示領域Aに重ね合わせる際にしようする変換情報を取得する。ライブビュー画像LVをアフィン変換して表示領域Aに重ね合わせる場合には、アフィン変換のパラメータ(変換行列)を変換情報として取得し、ライブビュー画像LVを射影変換して表示領域Aに重ね合わせる場合には、射影変換の変換行列を変換情報として取得する。尚、変換行列は、ライブビュー画像LVの複数の特徴点の座標と、複数の特徴点に対応する表示領域Aにおける複数の対応点の座標から求めることができる。
 続いて、XRプロセッサ110は、撮像装置200からライブビュー画像LVを受信する(ステップS116)。ライブビュー画像LVは連続データであるが、ステップS116では、1フレーム分の画像データを受信する。
 XRプロセッサ110は、ステップS114で取得した変換情報に基づいて、ライブビュー画像LV(1フレームの画像データ)を幾何変換し、幾何変換したライブビュー画像LV1をXRディスプレイ140に出力する(ステップS118)。
 XRディスプレイ140は、図11に示すように幾何変換されたライブビュー画像LV1を入力して表示素子144に表示する(ステップS120)。ユーザは、XRディスプレイ140の光学系146を通じて現実世界(撮像装置200の表示領域A)に重ね合わされたライブビュー画像LV1を視認することができる。
 XRプロセッサ110は、XRディスプレイ140によるライブビュー画像LV1の画像表示を終了する否かを判別する(ステップS122)。画像表示を終了させない場合には、ステップS100に遷移させ、ステップS100からステップS122の処理を、ライブビュー画像LVの1フレーム毎に繰り返す。画像表示を終了させない場合には、仮想画像表示装置100による処理を終了させる。
 [撮像装置による表示方法]
 図31は、本発明に係る撮像装置による表示方法を示すフローチャートである。
 尚、図30に示す撮像装置による表示方法は、主として図7に示した撮像装置200のカメラプロセッサ210により行われる方法である。
 図31において、カメラプロセッサ210は、まず、モード切替え部によりXRモードが設定されているか否かを判別する(ステップS200)。
 ユーザは、明るい場所などでメインモニタ241が見えにくい場合、実際のメインモニタ241よりも大きく仮想モニタにライブビュー画像LV1を表示したい場合、あるいはアバターを含む各種の仮想オブジェクトを撮影したい場合にXRモードを設定し、より自然な使い勝手を優先させ、現実のメインモニタ241に表示されるライブビュー画像等を観察したい場合に非XRモードに設定することで、XRモードと非XRモードのメリット/デメリットに応じて撮像装置200を使い分けることができる。
 ステップS200において、XRモードが設定されていると判別されると(「Yes」の場合)、カメラプロセッサ210は、閉じているモニタパネル240のサブモニタ242にARマーカMを表示させる。このARマーカMは、ライブビュー画像LV1の表示領域Aを特定するマーカとして利用することができ、及び/又は他の撮像装置と区別するためのカメラ識別情報として利用することができる。
 続いて、カメラプロセッサ210は、撮像部201により撮影され、RAW現像処理されたライブビュー画像LVを、第2通信部260を介して仮想画像表示装置100に送信する(ステップS220)。
 一方、ステップS200において、XRモードが設定されていないと判別されると(非XRモードの場合)には、カメラプロセッサ210は、チルト可能なモニタパネル240が開いているか否かを判別する(ステップS230)。モニタパネル240が開いていると判別すると、カメラプロセッサ210は、撮像部201により撮影され、RAW現像処理されたライブビュー画像LVをメインモニタ241に出力し、メインモニタ241にライブビュー画像LV1を表示させる。これにより、ユーザは、メインモニタ241に表示されたライブビュー画像LVにより現在の撮影範囲等を確認することができる。
 一方、モニタパネル240が開いていないと判別すると(「No」の場合)、カメラプロセッサ210は、続いてハイブリッドファインダであるビューファインダ243が、EVFに切り替えられているか、又はOVFに切り替えられているかを判別する(ステップS250)。この判別は、ファインダ切替えレバーのユーザ操作に基づいて行うことができる。
 カメラプロセッサ210は、ビューファインダ243がEVFに切り替えられている場合には、EVFにライブビュー画像LV1を表示させる(ステップS260)。一方、ビューファインダ243がOVFに切り替えられている場合には、OVFに光学像(ファインダ像)が表示される(ステップS270)。この場合、ライブビュー画像LV1を生成する処理は停止させることができる。
 ユーザは、ビューファインダ243の接眼部を覗くことで、EVFに表示されたライブビュー画像LV1、又はOVFに表示されるファインダ像を確認することができる。
 [仮想画像表示方法の第2実施形態]
 図32は、本発明に係る仮想画像表示方法の第2実施形態を示すフローチャートである。
 図32に示す第2実施形態の仮想画像表示方法は、図30に示した第1実施形態と同様に、主として図6に示した仮想画像表示装置100のXRプロセッサ110により行われる方法である。
 図32において、XRプロセッサ110は、まず、撮像装置200の確認を行う(ステップS300)。
 図33は、図32に示した撮像装置の確認を行うステップS300の処理の実施形態を示すサブルーチンである。
 図33において、XRプロセッサ110は、内蔵カメラ101により撮影した視野画像IMを取得し(ステップS301)、視野画像IMに存在する撮像装置200のカメラ画像を抽出する(ステップS302)。
 続いて、XRプロセッサ110は、カメラ画像を画像解析し、ARマーカMの抽出処理を行う(ステップS303)。本例のXR対応カメラである撮像装置200には、ARマーカMが付されているため、ARマーカMの有無から撮像装置200の有無の確認が可能である。
 ステップS304において、ARマーカMの「有り」が判別されると(「Yes」の場合)、ステップS305に遷移し、ここで、XRプロセッサ110は、ARマーカMを有する対象機器との通信を開始する。
 続いて、XRプロセッサ110は、対象機器がユーザの撮像装置200であるか否かを通信により確認する(ステップS306)。XRプロセッサ110は、例えば、一度、ペアリングした機器同士か否か確認することで、対象機器がユーザの撮像装置200であるか否かを確認することができる。尚、仮想画像表示装置100とユーザの撮像装置200とは、公知の方法によりペアリングすることができる。
 ステップS307において、対象機器がユーザの撮像装置200であると判別されると(「Yes」の場合)、XRプロセッサ110は、視野画像IMに含まれるカメラ画像が、ユーザの撮像装置200であると確認する(ステップS308)。
 一方、ステップS304において、視野画像IM(カメラ画像)内にARマーカMが無いと判別され(「No」の場合)、又はステップS307において、対象機器がユーザの撮像装置200ではないと判別されると(「No」の場合)、XRプロセッサ110は、ユーザの撮像装置200を確認することができなかった(未確認)とする(ステップS309)。
 図32に戻って、ステップS310において、ユーザの撮像装置200の存在の確認がとれると(「Yes」の場合)、XRプロセッサ110は、撮像装置200がXRモードか否かを判別する(ステップS312)。XRモードの判別方法は、前述した方法と同様に行うことができるため、ここではその説明は省略する。
 ステップS312において、撮像装置200がXRモードに設定されていると判別された場合(「Yes」の場合)、XRプロセッサ110は、撮像装置200の表示領域Aに、ライブビュー画像を重ね合わせて表示すべきか、再生画像を重ね合わせて表示すべきか、又は撮影情報INFOを重ね合わせて表示すべきかを確認する(ステップS314)。
 撮像装置200は、XR環境で使用する場合において、ライブビュー画像、再生画像、又は撮影情報INFOのいずれを、撮像装置200の表示領域Aに表示させるかのユーザ指示を受け付けることができ、受け付けたユーザ指示に対応する情報(ライブビュー画像、再生画像、又は撮影情報INFO)を仮想画像表示装置100に送信する。
 したがって、XRプロセッサ110は、撮像装置200から受信した情報(ライブビュー画像等)に基づいて、撮像装置200の表示領域Aに、ライブビュー画像を重ね合わせて表示すべきか、再生画像を重ね合わせて表示すべきか、又は撮影情報INFOを重ね合わせて表示すべきかを確認することができる。
 ステップS318において、ライブビュー画像を表示すると判別されると、XRプロセッサ110は、ステップS320に遷移させ、撮像装置200から受信したライブビュー画像をXRディスプレイ140に重ね合わせ表示する。
 図34は、図32に示したライブビュー画像LV1の重ね合わせ表示を行うステップS3200の処理の実施形態を示すサブルーチンである。
 図34において、XRプロセッサ110は、撮像装置200からライブビュー画像LVを受信する(ステップS321)。
 続いて、XRプロセッサ110は、受信したライブビュー画像LVに対応する撮影情報INFOを取得する(ステップS322)。ここで、撮影情報INFOは、例えば、テキスト情報であり、ライブビュー画像LVの1フレーム又は複数フレーム毎に対応付けられた付属情報である。
 ステップS323において、撮影情報INFOの「有り」が判別されると(「Yes」の場合)、XRプロセッサ110は、ステップS324に遷移させ、ここで、ライブビュー画像LVの周辺領域に撮影情報INFOを合成する(ステップS324)。
 一方、ステップS323において、撮影情報INFOの「無し」が判別されると(「No」の場合)、XRプロセッサ110は、ステップS324を飛ばしてステップS325に遷移させる。
 尚、XRプロセッサ110は、撮影情報INFOを取得しも、撮影情報INFOの受け渡し情報が、「非表示」を表す情報を含む場合には、撮影情報INFO「無し」と判別し、ステップS324を飛ばしてステップS325に遷移させる。また、XRサーバ300から取得したデータを元に撮像装置200の操作によってライブビュー画像を作り出す場合において、そのライブビュー画像の撮影情報INFOを取得しても、撮像装置200の操作により生成されたライブビュー画像の撮影情報INFOである場合には、撮影情報INFO「無し」と判別し、ステップS324を飛ばしてステップS325に遷移させる。
 ステップS325において、XRプロセッサ110は、内蔵カメラ101から視野画像IMを取得し、取得した視野画像IMに基づいて撮像装置200上の複数のARマーカMの位置を検出する。
 その後、XRプロセッサ110は、ステップS326~S329の処理を行うことで、XRディスプレイ140により観察される撮像装置200の表示領域Aにライブビュー画像LV1を重ね合わせて表示する。尚、ステップS326~S329の処理は、図30に示したフローチャートのステップS112、S114、S118,及びS120の処理と同様であるため、その詳細な説明は省略する。
 図32に戻って、ステップS318において、撮影情報表示と判別されると、XRプロセッサ110は、ステップS330に遷移させ、撮像装置200から受信した撮影情報INFOをXRディスプレイ140に重ね合わせ表示する。
 図35は、図32に示した撮影情報INFOの重ね合わせ表示を行うステップS330の処理の実施形態を示すサブルーチンである。
 図35において、XRプロセッサ110は、仮想画像表示装置100におけるライブビュー画像LV1の重ね合わせ表示機能をOFFにし、撮影情報INFOの重ね合わせ表示機能をONにする(ステップS331)。
 続いて、XRプロセッサ110は、撮像装置200からテキストデータの撮影情報INFOを受信する(ステップS332)。
 XRプロセッサ110は、受信した撮影情報INFOから撮影情報INFOを示す撮影情報画像(ラスター画像又はベクター画像)を生成する(ステップS333)。
 その後、XRプロセッサ110は、ステップS334~S338の処理を行うことで、XRディスプレイ140により観察される撮像装置200の表示領域Aに撮影情報INFOを示す撮影情報画像を重ね合わせて表示する。尚、ステップS334~S338の処理は、図34に示したフローチャートのステップS325~329の処理とは、ライブビュー画像LV1の代わりに撮影情報画像を表示する点で相違する(即ち、表示する画像が相違する)が、その他の処理は共通するため、その詳細な説明は省略する。
 図32に戻って、ステップS318において、再生画像表示と判別されると、XRプロセッサ110は、ステップS340に遷移させ、撮像装置200から受信した再生画像をXRディスプレイ140に重ね合わせ表示する。
 図36は、図32に示した再生画像の重ね合わせ表示を行うステップS340の処理の実施形態を示すサブルーチンである。
 図36において、撮像装置200のカメラプロセッサ210は、撮像装置200において選択された再生画像は、撮像装置200の画像(撮像装置200の第2メモリ220に記録された撮影画像)か、又は図示しないネットワーク上の画像(ネットワーク上のサーバで管理されているユーザの画像)か、を識別する(ステップS280)。尚、この場合の撮像装置200は、ネットワークと接続可能であり、ネットワーク上のサーバに撮影画像を保存し、又はサーバから撮影画像を読み出すことができるものとする。
 ステップS281において、撮像装置200内の画像と判別されると、カメラプロセッサ210は、ユーザ操作にしたがって撮像装置200の第2メモリ220から再生画像を読み出す(ステップS282)。尚、内蔵メモリである第2メモリ220の代わりに、撮像装置200に着脱自在なメモリカードから再生画像を読み出すようにしてもよい。
 一方、ステップS281において、ネットワーク上の画像と判別されると、カメラプロセッサ210は、ユーザ操作にしたがってネットワークに保存されたユーザの画像群から再生画像を読み出す(ステップS283)。
 カメラプロセッサ210は、ステップS282又はS283で読み出した再生画像を仮想画像表示装置100に送信する(ステップS284)。
 上記ステップS280~S284の処理は、撮像装置200での処理であり、以下の各処理が、仮想画像表示装置100による処理である。
 仮想画像表示装置100のXRプロセッサ110は、撮像装置200から送信された再生画像を受信する(ステップS341)。
 その後、XRプロセッサ110は、ステップS342~S346の処理を行うことで、XRディスプレイ140により観察される撮像装置200の表示領域Aに再生画像を重ね合わせて表示する。尚、ステップS342~S346の処理は、図34に示したフローチャートのステップS325~329の処理とは、ライブビュー画像LV1の代わりに再生画像を表示する点で相違する(即ち、表示する画像が相違する)が、その他の処理は共通するため、その詳細な説明は省略する。
 このようにして仮想画像表示装置100は、XRディスプレイ140により観察される撮像装置200の表示領域Aにライブビュー画像LV1、撮影情報INFO、又は再生画像を重ね合わせ表示することができ、仮想画像表示装置100(スマートグラス)を装着したユーザは、スマートグラスを透過する現実世界に重ね合わされたライブビュー画像LV1等を視認することができる。
 <撮像装置の外観変更方法>
 図37は、撮像装置の外観変更方法の実施形態を示すフローチャートである。
 図37に示す撮像装置200の外観変更方法は、主として図6に示した仮想画像表示装置100のXRプロセッサ110により行われる方法である。
 尚、本例の撮像装置200の外観変更方法は、物理的に撮像装置200の外観を変更するのではなく、仮想画像表示装置100(スマートグラス)により観察される撮像装置200の外観を画像上で変更するものである。
 図37において、XRプロセッサ110は、内蔵カメラ101により撮影した視野画像IMを取得し(ステップS350)、視野画像IMに存在する撮像装置200のカメラ画像を抽出する(ステップS352)。
 XRプロセッサ110は、抽出したカメラ画像から撮像装置200が、XR対応カメラか否かを判別する(ステップS354)。この判別は、例えば、抽出したカメラ画像と第1メモリ120に予め保存されたXR対応カメラの外観データとを比較することにより行うことができる。
 ステップS354において、内蔵カメラ101により撮影された撮像装置200がXR対応カメラであると判別されると(「Yes」の場合)、XRプロセッサ110は、撮像装置200のXR対応データを取得する(ステップS356)。XR対応データは、撮像装置200の交換レンズ部、皮革外装部、操作ダイヤル部、上部外装部、ファインダ部、モニタ部等の外観形状を示すデータを含む。
 一方、ステップS354において、内蔵カメラ101により撮影された撮像装置200がXR対応カメラでないと判別されると(「No」の場合)、XRプロセッサ110は、仮想画像表示装置100(スマートグラス)におけるライブビュー画像の重ね合わせ合成機能をOFFにし(ステップS358)、ステップS350に戻る。これにより、ユーザは、スマートグラスを透過する現実世界のみ(実物の撮像装置200)を見ることができる。
 次に、XRプロセッサ110は、ステップS352により抽出したカメラ画像と、ステップS356で取得したXR対応データに基づいて、カメラ画像を分割した複数の領域を表示領域として特定する(ステップS360)。即ち、XR対応データに対応する、交換レンズ部、皮革外装部、操作ダイヤル部、上部外装部、ファインダ部、モニタ部等の領域を表示領域として特定する。
 続いて、XRプロセッサ110は、ユーザの選択操作に基づいて撮像装置200における複数の表示領域のうちの1以上の表示領域に合成する部品画像を取得する(ステップS362)。仮想画像表示装置100の第1メモリ120には、撮像装置200の外観を複数の領域に分割した分割領域毎に外観を示す部品画像(仮想オブジェクト画像)が記憶されており、ユーザは、第1メモリ120に記憶された複数の部品画像をメインモニタ241に表示させ、操作部230により表示領域に合成する部品画像を選択することができる。尚、部品画像は、部品の3次元モデルの表面に画像が貼り付けられたものとすることができる。
 XRプロセッサ110は、3次元の部品画像をその部品画像に対応する2次元の表示領域に重ね合わせる際に使用する変換情報を取得する(ステップS364)。部品画像の3次元データは既知であり、表示領域の2次元データも検出することができるため、3次元の部品画像を対応する表示領域に合致するように投影する変換情報は取得することができる。
 XRプロセッサ110は、ステップS364で取得した変換情報に基づいて部品画像を幾何変換し、幾何変換した部品画像をXRディスプレイ140に出力する(ステップS366)。
 XRディスプレイ140は、幾何変換された部品画像を入力して表示素子144に表示することで、部品画像を撮像装置200の表示領域に重ね合わせ表示する(ステップS368)。ユーザは、XRディスプレイ140の光学系146を通じて現実世界(撮像装置200の表示領域)に重ね合わされた部品画像(外観を変更するスキン)を視認することができる。即ち、ユーザは自分好みの外観を有する、オリジナルの撮像装置にすることができる。また、1つの撮像装置を何通りもの外観で使い分けることができる。
 尚、撮像装置の外観を変更しつつ、撮像装置のモニタ部の表示領域にライブビュー画像LV1等を重ね合わせ表示することができることは言うまでもない。
 [その他]
 本実施形態の撮像装置200は、XRモードが設定された場合において、自撮り撮影を行うことができる。この場合、撮像装置200の前面に設定した表示領域、又は180°回動させたモニタパネル240のサブモニタ242側の表示領域Aに、ライブビュー画像LV1を表示させることができる。また、ユーザは、スマートグラスやVRゴーグルを装着しているが、ユーザの顔領域にはアバターの顔画像を合成することが好ましい。
 また、撮像装置200は、非XR環境において、メインモニタ241にライブビュー画像LVに撮影情報INFOを合成して表示させる表示態様と、メインモニタ241にライブビュー画像LVのみを表示させる表示態様と、撮影情報INFOのみを表示させる表示態様と、表示/戻るボタン247を押す毎に切り替える機能を有するが、仮想画像表示装置100は、撮像装置200をXR環境で使用する場合、非XR環境で設定された表示態様に合わせてライブビュー画像LV1等を表示させることが好ましい。
 仮想画像表示装置100のXRプロセッサ110は、内蔵カメラ101により取り込んだ視野画像IMの明るさ情報に応じて、撮像装置200の表示領域Aが明るい時は明るく、暗い時は暗くなるように、合成するライブビュー画像LV1の明るさを変化させることが好ましく、白飛びや黒つぶれが生じる明るさの場合は白飛びや黒つぶれが生じないようにあらかじめ設定された閾値を超えない範囲でライブビュー画像LV1の明るさを制御することが好ましい。
 更に、本実施形態において、例えば、CPU(Central Processing Unit)等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 更に、本発明は上述した実施形態を複数備え、本発明の撮影装置、またはシステムを適用できるものであれば、選択的、または両立に作用する変形が可能であることは言うまでもない。
 また、仮想画像表示装置の「第1ディスプレイ」は、メガネ型又はゴーグル型の仮想画像表示機能を有するウェアラブルデバイスであり、HMDデバイスや透過型スマートグラスを用いて仮想画像を含む映像を提供しているが、それ以外の方法(例えば、スマートグラス等に内蔵された網膜投影装置や、第1ディスプレイのディスプレイ方式としてプロジェクターを使用することにより、プロジェクションマッピングの原理によって仮想画像を表示する方法など、本発明の撮影装置、またはシステムを適用でき、本発明の本質である表示を実現できるものであれば、第1ディスプレイとしての表示部は如何なるものでもよい。
 更に、本実施形態では、仮想画像表示装置100が、ライブビュー画像LVを幾何変換し、幾何変換したライブビュー画像LV1をXRディスプレイ140に出力するが、仮想画像表示装置100は、前述したようにXRサーバ300から幾何変換されたライブビュー画像LV1を取得してもよいし、撮像装置200から幾何変換されたライブビュー画像LV1を取得するようにしてもよい。この場合、撮像装置200は、ライブビュー画像LVを幾何変換する処理を行うために、仮想画像表示装置100から視野画像IMを取得し、又は仮想画像表示装置100と撮像装置200との相対的な3次元位置及び姿勢の情報を取得する必要がある。
 また、仮想画像表示装置100は、撮像装置200がXR環境で使用される場合(XRモードが設定されている場合)に、XRディスプレイ140にて撮像装置100の表示領域にライブビュー画像LV1を重ね合わせて表示させるが、撮像装置200が非XR環境(通常の環境)で使用される場合(非XRモードが設定されている場合)にも、仮想画像表示装置100におけるライブビュー画像LV1の重ね合わせ合成機能をONできるようにしてもよい。これにより、撮像装置200を通常の環境で使用する場合に、撮像装置200のディスプレイが直射日光の照射により見にくい場合でも、ライブビュー画像LV1を良好に観察することができるというメリットがある。
 更に、この技術を用いたものを「XR環境での使用中」であっても、自動的にはライブビュー画像LVを仮想画像表示装置100に送信しないモードを設けて、選択的に撮像装置100のディスプレイにライブビュー画像を表示することが出来るような構成であっても構わない。
 更にまた、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10、11…仮想画像表示システム
100…仮想画像表示装置
101…内蔵カメラ
102…撮影レンズ
104…イメージセンサ
110、111…XRプロセッサ
112…変換情報取得部
114…合成部
116…幾何変換部
120…第1メモリ
130、230…操作部
140、141…XRディスプレイ
142…表示制御部
143…画像合成部
144、145…表示素子
146、147…光学系
146A…レンズ
146B…ハーフミラー
150…仮想オブジェクト生成部
151…交換レンズ部
152…皮革外装部
153…操作ダイヤル部
154…上部外装部
155…ファインダ部
156…モニタ部
160…第1通信部
170、270…GPS受信機
172、272…ジャイロセンサ
174、274…加速度センサ
176、276…地磁気センサ
180…仮想画像表示装置
200、280…撮像装置
201…撮像部
202…交換レンズ
203…カメラ本体
204…イメージセンサ
210…カメラプロセッサ
220…第2メモリ
232…シャッターボタン
234…感度ダイヤル
236…露出補正ダイヤル
240…モニタパネル
241…メインモニタ
242…サブモニタ
243…ビューファインダ
244…トグルスイッチ
245…実行ボタン
246…再生ボタン
247…ボタン
248…表示制御部
250…画像処理部
260…第2通信部
281…ダミーレンズ
282…実レンズ
283…ダミーモニタ
290、290B、290C、292…仮想カメラ
291…スマートフォン
300…XRサーバ
302…データベース
310…ドローンカメラ
320…多視点カメラ
330…監視カメラ
340…ドライブレコーダ
A…表示領域
IM…視野画像
INFO…撮影情報
LV、LV1…ライブビュー画像
M、M1~M9…ARマーカ
P1~P4…特徴点
P1'~P4'…対応点
S100~S122、S200~S284、S300~S368…ステップ

Claims (22)

  1.  プロセッサ及び第1ディスプレイを有する仮想画像表示装置であって、
     前記仮想画像表示装置は、第1撮像装置からのライブビュー画像を受信し、
     前記プロセッサは、
     前記ライブビュー画像を前記第1撮像装置の表示領域に重ね合わせる際に使用する情報を取得し、
     前記情報に基づいて前記ライブビュー画像を変換し、
     前記第1ディスプレイは、前記変換された前記ライブビュー画像を表示する、
     仮想画像表示装置。
  2.  前記第1ディスプレイは、メガネ型又はゴーグル型の仮想画像表示機能を有するウェアラブルデバイスである、
     請求項1に記載の仮想画像表示装置。
  3.  ユーザの視野範囲を撮影する第2撮像装置を有し、
     前記プロセッサは、前記第2撮像装置が撮影した撮影画像を解析して前記表示領域を特定し、前記情報を取得する、
     請求項1又は2に記載の仮想画像表示装置。
  4.  前記プロセッサは、前記第2撮像装置が撮影した前記第1撮像装置のマーカの位置に基づいて前記情報を取得する、
     請求項3に記載の仮想画像表示装置。
  5.  前記プロセッサは、前記第1ディスプレイを基準にした前記第1撮像装置の3次元位置及び姿勢を示す情報を取得し、前記3次元位置及び姿勢を示す情報に基づいて前記情報を取得する、
     請求項1又は2に記載の仮想画像表示装置。
  6.  前記第1撮像装置は、前記ライブビュー画像を表示する第2ディスプレイを有し、
     前記表示領域は、前記第2ディスプレイの表示領域である、
     請求項1から5のいずれか1項に記載の仮想画像表示装置。
  7.  前記第2ディスプレイは、前記第1撮像装置の装置本体との相対的な姿勢関係が回動によって変更可能な回動機構を備え、
     前記表示領域は、回動した前記第2ディスプレイの表示領域である、
     請求項6に記載の仮想画像表示装置。
  8.  前記第1撮像装置は、ビューファインダを有し、
     前記表示領域は、前記ビューファインダの表示領域である、
     請求項1から5のいずれか1項に記載の仮想画像表示装置。
  9.  前記第1ディスプレイは、視野を透過するディスプレイであって、現実世界の視野に前記変換した前記ライブビュー画像を表示する、
     請求項1から8のいずれか1項に記載の仮想画像表示装置。
  10.  ユーザの視野範囲を撮影する第2撮像装置を備え、
     前記第1ディスプレイは、視野を覆う没入型のディスプレイであって、前記第2撮像装置が撮影した撮影画像に、前記変換した前記ライブビュー画像を重ね合わせた合成画像を表示する、
     請求項1から8のいずれか1項に記載の仮想画像表示装置。
  11.  前記プロセッサは、前記ライブビュー画像に仮想オブジェクト画像を合成する、
     請求項1から10のいずれか1項に記載の仮想画像表示装置。
  12.  プロセッサ、第1ディスプレイ及びユーザの視野範囲を撮影する第2撮像装置を有する仮想画像表示装置であって、
     前記プロセッサは、
     前記第2撮像装置が撮影した画像から、少なくともグリップ部を備えた仮想カメラの画角に対応する画像を切り出してライブビュー画像として取得し、
     前記ライブビュー画像を前記仮想カメラの表示領域に重ね合わせる際に使用する情報を取得し、
     前記情報に基づいて前記ライブビュー画像を変換し、
     前記第1ディスプレイは、前記変換された前記ライブビュー画像を表示する、
     仮想画像表示装置。
  13.  前記変換は、幾何変換である、
     請求項1から12のいずれか1項に記載の仮想画像表示装置。
  14.  ライブビュー画像を撮影する撮像部と、
     第1モードと第2モードとを切り替えるモード切替え部と、
     前記第1モードに切り替えられた場合に前記ライブビュー画像を表示する第2ディスプレイ又はビューファインダと、
     前記第2モードに切り替えられた場合に前記ライブビュー画像を、請求項1から11のいずれか1項に記載の仮想画像表示装置に送信する通信部と、
     を備えた撮像装置。
  15.  前記第2モードに切り替えられた場合に、前記第2ディスプレイ又は前記ビューファインダにマーカを表示する、
     請求項14に記載の撮像装置。
  16.  請求項1から13のいずれか1項に記載の仮想画像表示装置と、請求項14又は15に記載の撮像装置と、から構成された、
     仮想画像表示システム。
  17.  前記仮想画像表示装置の前記プロセッサは、前記ライブビュー画像に仮想オブジェクト画像を合成し、
     前記第2モードに切り替えられた状態で記録用の撮影が行われると、前記仮想オブジェクト画像を前記撮像装置に送信し、
     前記撮像装置は、前記第2モードに切り替えられた状態で記録用の撮影を行うと、前記撮影した画像と前記仮想画像表示装置から受信した前記仮想オブジェクト画像とを紐付けて記録し、又は前記撮影した画像に前記仮想オブジェクト画像を合成して記録する、
     請求項16に記載の仮想画像表示システム。
  18.  請求項1から11のいずれか1項に記載の仮想画像表示装置と、前記仮想画像表示装置と通信するサーバと、から構成された仮想画像表示システムであって、
     前記サーバは、実空間の3次元情報を有する3次元画像を管理し、
     前記プロセッサは、
     前記第1撮像装置の3次元位置及び姿勢を示す第1情報に基づいて、前記サーバが管理している前記3次元画像から、前記第1撮像装置の撮影領域に対応する3次元画像を切り出し、
     前記切り出した前記3次元画像を2次元画像に変換し、前記2次元画像を前記ライブビュー画像として使用する、
     仮想画像表示システム。
  19.  請求項12に記載の仮想画像表示装置と、前記仮想画像表示装置と通信するサーバと、から構成された仮想画像表示システムであって、
     前記サーバは、実空間の3次元情報を有する3次元画像を管理し、
     前記プロセッサは、
     前記仮想カメラの3次元位置及び姿勢を示す第1情報に基づいて、前記サーバが管理している前記3次元画像から、前記仮想カメラの撮影領域に対応する3次元画像を切り出し、
     前記切り出した前記3次元画像を2次元画像に変換し、前記2次元画像を前記ライブビュー画像として使用する、
     仮想画像表示システム。
  20.  前記サーバは、実空間に配置された多視点カメラ、監視カメラ、ドライブレコーダ、ドローンカメラ、又は携帯端末カメラを含む多数のカメラにより撮影された画像から最新の前記3次元画像を生成して管理する、
     請求項18又は19に記載の仮想画像表示システム。
  21.  前記サーバは、前記3次元画像に仮想オブジェクト画像を合成する、
     請求項18から20のいずれか1項に記載の仮想画像表示システム。
  22.  プロセッサ及び第1ディスプレイを有する仮想画像表示装置が実行する仮想画像表示方法であって、
     前記プロセッサが、第1撮像装置からのライブビュー画像を受信するステップと、
     前記プロセッサが、前記ライブビュー画像を前記第1撮像装置の表示領域に重ね合わせる際に使用する情報を取得するステップと、
     前記プロセッサが、前記情報に基づいて前記ライブビュー画像を変換するステップと、
     前記第1ディスプレイが、前記変換された前記ライブビュー画像を表示するステップと、
     を含む仮想画像表示方法。
PCT/JP2023/012414 2022-03-31 2023-03-28 仮想画像表示装置、撮像装置、仮想画像表示システム及び方法 WO2023190468A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-060129 2022-03-31
JP2022060129 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023190468A1 true WO2023190468A1 (ja) 2023-10-05

Family

ID=88202496

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/012414 WO2023190468A1 (ja) 2022-03-31 2023-03-28 仮想画像表示装置、撮像装置、仮想画像表示システム及び方法

Country Status (1)

Country Link
WO (1) WO2023190468A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122513A1 (ja) * 2016-01-15 2017-07-20 富士フイルム株式会社 撮像システム、レンズ装置及びレンズ装置の作動方法
JP2017224913A (ja) * 2016-06-14 2017-12-21 キヤノン株式会社 撮像システム、情報処理装置
JP2019021236A (ja) * 2017-07-21 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122513A1 (ja) * 2016-01-15 2017-07-20 富士フイルム株式会社 撮像システム、レンズ装置及びレンズ装置の作動方法
JP2017224913A (ja) * 2016-06-14 2017-12-21 キヤノン株式会社 撮像システム、情報処理装置
JP2019021236A (ja) * 2017-07-21 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置

Similar Documents

Publication Publication Date Title
US9530249B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
WO2018051815A1 (ja) 情報処理装置および方法、並びにプログラム
JP5232669B2 (ja) カメラ
JP5835384B2 (ja) 情報処理方法、情報処理装置、およびプログラム
CN109218606B (zh) 摄像控制设备、其控制方法及计算机可读介质
JP2005079719A (ja) 撮影画像処理装置及びその方法
JP2015176559A (ja) 情報処理方法、情報処理装置、およびプログラム
US20200120269A1 (en) Double-selfie system for photographic device having at least two cameras
JP2023512966A (ja) 画像処理方法、電子機器及びコンピュータ可読記憶媒体
JP6792253B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP5602702B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP6350695B2 (ja) 装置、方法、およびプログラム
JP7487464B2 (ja) 画像処理装置、撮像装置、動画再生システム、方法およびプログラム
WO2023190468A1 (ja) 仮想画像表示装置、撮像装置、仮想画像表示システム及び方法
CN114073069A (zh) 成像系统、图像处理设备、成像装置和记录介质
JP2020204874A (ja) 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
JP7128347B2 (ja) 画像処理装置、画像処理方法及びプログラム、撮影装置
KR20230019016A (ko) 액션 카메라로서 사용되는 촬상장치
JP2018163683A (ja) 情報処理方法、情報処理プログラムおよび情報処理装置
WO2017145483A1 (ja) 画像処理装置、画像処理システム及びプログラム
JP2013168969A (ja) 画像表示方法、および画像表示装置
CN112887663A (zh) 图像显示方法、图像通信系统、摄影装置、以及存储介质
JP2019204560A (ja) プログラム
WO2024106035A1 (ja) 撮像装置、撮像システム、及び撮像方法
JP2014022982A (ja) 撮影機能を有する電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23780477

Country of ref document: EP

Kind code of ref document: A1