WO2015162991A1 - 画像融合システム、情報処理装置、情報端末、および情報処理方法 - Google Patents

画像融合システム、情報処理装置、情報端末、および情報処理方法 Download PDF

Info

Publication number
WO2015162991A1
WO2015162991A1 PCT/JP2015/055412 JP2015055412W WO2015162991A1 WO 2015162991 A1 WO2015162991 A1 WO 2015162991A1 JP 2015055412 W JP2015055412 W JP 2015055412W WO 2015162991 A1 WO2015162991 A1 WO 2015162991A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
real object
information processing
display
display device
Prior art date
Application number
PCT/JP2015/055412
Other languages
English (en)
French (fr)
Inventor
山岸 建
圭司 外川
岡 正昭
伸次 高嶋
洋一 西牧
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Publication of WO2015162991A1 publication Critical patent/WO2015162991A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds

Definitions

  • the present invention relates to an image fusion system using an image display by information processing, an information processing apparatus that performs the information processing, an information terminal, and an information processing method thereof.
  • Information processing devices such as portable game machines and PDAs (Personal Digital Assistants) are widely used.
  • many information processing apparatuses are equipped with a communication function, and a multifunctional information processing apparatus in which functions of a mobile phone, a PDA, and the like are integrated into one has appeared, such as a smartphone.
  • Such an information processing apparatus includes a large-capacity memory and a high-speed processor, and a user can enjoy various applications by installing an application program in the information processing apparatus.
  • AR augmented reality
  • Patent Document 1 A technique has also been proposed (see, for example, Patent Document 1).
  • AR technology fuses the real world and the virtual world by an approach different from the construction of a virtual world based on user motion recognition. These techniques not only provide visual enjoyment, but may be useful for intuitively and easily operating the device and understanding the output results. However, since a general AR is a two-dimensional image in a limited area such as a screen of a display device, it may feel unsatisfactory in terms of realism and power.
  • the present invention has been made in view of such problems, and an object of the present invention is to provide a technology capable of constructing a more realistic world using display images.
  • an aspect of the present invention relates to an image fusion system.
  • This image fusion system includes an information processing device that displays an image on a display device, a semi-transmission mirror that reflects an image displayed on the display device and transmits an image of a real object that is behind, and a reflection of the semi-transmission mirror.
  • a support mechanism that maintains the screen and the screen of the display device at a predetermined angle, and the information processing device is an actual product so that the image reflected by the semi-transparent mirror and the image of the transmitted real object appear to be fused.
  • a display image generation unit that displays an image corresponding to the state of the body on the display device is provided.
  • This information processing device is an information processing device that displays an image on a connected display device, and is a half-position that is positioned at a predetermined angle with the screen of the display device in a state where the display device is supported by a support mechanism.
  • a state recognition unit that detects the state of the real object that exists behind the transmission mirror, and when the display image is reflected by the semi-transmission mirror, the real object appears to be fused with the image of the real object that passes through the semi-transmission mirror.
  • a display image generation unit configured to generate the display image corresponding to the state of the body.
  • Still another aspect of the present invention relates to an information processing method.
  • This information processing method is an information processing method in which an information processing device displays an image on a connected display device, and in a state where the display device is supported by a support mechanism, a predetermined angle with the screen of the display device is set. Detecting a state of a real object that exists behind a semi-transparent mirror positioned as it forms, and, when a display image is reflected by the semi-transparent mirror, fused with the image of the real object that is transmitted through the semi-transparent mirror. Generating the display image according to the state of the real object so that it can be seen.
  • a more realistic world can be constructed using display images.
  • FIG. A is a figure which shows the front surface of information processing apparatus
  • (b) is a figure which shows the back surface of information processing apparatus.
  • (A) is a figure which shows the upper surface of an information processing apparatus
  • (b) is a figure which shows the lower surface of an information processing apparatus
  • (c) is a figure which shows the left side surface of an information processing apparatus.
  • FIG. 1 shows the structural example of the support mechanism at the time of providing a convex part in this Embodiment. It is a figure which shows the structural example of the data for determining a display image according to the condition of the real world stored in the content data storage part in this Embodiment. It is a figure which shows an example of the display form in this Embodiment. It is a figure which shows another example of the display form in this Embodiment. It is a figure which shows the functional block of the real object in the aspect linked
  • FIG. 5 is a diagram illustrating a change example of a state viewed from the front of a projector in an aspect in which a display image and an actual object are linked in the present embodiment. It is a figure which shows the image displayed in the state of the upper stage of FIG. 13, and a lower stage. It is a figure which shows the structural example of the projector of a structure which does not provide an actual object chamber in this Embodiment. It is a figure for demonstrating in detail the aspect shown in FIG. In the modification of this Embodiment, it is a figure which shows the structure of the projector in the case of introduce
  • FIG. 1 shows a system configuration example according to the present embodiment.
  • the image fusion system 2 includes an information processing apparatus 10 and a projector 112.
  • the projector 112 supports the information processing apparatus 10 such that the real object room 3 that forms a space for placing a real object (a cat figure in the figure) 114 and the screen maintains a predetermined angle with respect to the real object room 3.
  • Supporting mechanism 116 to be included.
  • the support mechanism 116 is configured by a top plate on which the screen of the information processing apparatus 10 can be placed downward.
  • the shapes of the actual object chamber 3 and the support mechanism 116 are not limited to this.
  • the support mechanism 116 may be provided with an instrument for fixing the information processing apparatus 10.
  • an information processing apparatus 10 is a portable terminal configured integrally with a display device.
  • the main body of the information processing apparatus 10 may be another individual connected to the display device wirelessly or by wire. In this case, the support mechanism 116 supports the display device.
  • the front surface of the projector 112 is configured by a half mirror 118 that can reflect the image displayed by the information processing apparatus 10 forward and at the same time visually recognize the inside of the real object chamber 3. That is, by installing the half mirror 118 so as to form an acute angle with the top plate as the support mechanism 116, the image displayed on the screen of the information processing apparatus 10 can be seen from the front of the projector 112. Then, the real object 114 and the display image are displayed in the real world by making the real object 114 placed inside the real object chamber 3 behind the half mirror 118 and the image reflected on the half mirror 118 appear to be superimposed. To fuse.
  • FIG. 1 figure of the head near to the "Hello! And described the balloon 120a, the mark 120b on the chest of the figure being displayed is a real object 114.
  • These are images displayed by the information processing apparatus 10.
  • the support mechanism 116 is a top plate, the light from the information processing apparatus 10 can be transmitted to the half mirror 118 with little loss by configuring the top plate with a highly transparent resin or glass. desirable.
  • a plate or the like is not necessarily provided between the screen and the half mirror 118.
  • the back surface 122 of the vessel 112 is made of a material with low transparency or an opaque material.
  • the side surface of the projector 112 may be formed of a resin plate or the like to form a sealed space, or the user may freely move the real object 114 as an opening.
  • the bottom surface 124 of the projector 112 may be a general plate regardless of whether it is transparent or opaque, or may be a touch pad connected to the information processing apparatus 10. In the latter case, the position of the real object 114 in the real object chamber 3 can be acquired by detecting a contact portion with the touch pad.
  • the bottom surface 124 may be another display device connected to the information processing apparatus 10. In this case, if an optical sensor is provided on the bottom surface of the real object 114, a signal from the information processing apparatus 10 to the real object 114 can be transmitted using a luminance change or the like.
  • the bottom surface 124 may be a touch panel including a transparent touch pad and a display device provided thereunder so that the above functions can be realized simultaneously.
  • FIG. 2 is a diagram for explaining the mode shown in FIG. 1 in more detail.
  • the left side of the figure shows a state where the projector 112 is viewed from the right side.
  • the real object 114 is placed in the real object chamber 3 between the half mirror 118 and the back surface 122 of the projector 112.
  • the information processing apparatus 10 is placed on the top plate as the support mechanism 116 with the screen facing downward. Then, the image displayed on the information processing apparatus 10 is reflected by the half mirror 118 and reaches the user's viewpoint 126 ahead as indicated by a thick arrow.
  • the real object 114 can be simultaneously seen through the half mirror 118, as shown in FIG. 1, it appears to the user that a balloon or a mark is attached to the real object 114.
  • An image 127 that is visible when the display image is reflected by the half mirror 118 is composed of a balloon 120a and a mark 120b, as shown in the lower right of FIG. From the positional relationship between these images and the real object 114, the balloon 120a appears to be superimposed on the back surface 122 of the projector 112, and the mark 120b appears to be superimposed on the real object 114.
  • the information processing apparatus 10 In order to make such an image 127 visible, the information processing apparatus 10 generates a screen 129.
  • the position coordinates on the screen 129 of the information processing apparatus 10 have the origin at the left end of the side located on the rear side in the information processing apparatus 10 mounted on the projector 112 as shown in the figure. For example, if the angle ⁇ is 45 °, an image obtained by inverting the image to be reflected upside down may be displayed.
  • FIG. 3A shows the front surface of the information processing apparatus 10.
  • the information processing apparatus 10 is formed by a horizontally long casing, and the left and right areas gripped by the user have an arcuate outline.
  • a rectangular touch panel 50 is provided on the front surface of the information processing apparatus 10.
  • the touch panel 50 includes a display device 20 and a transparent front touch pad 21 that covers the surface of the display device 20.
  • the display device 20 is an organic EL (Electro-Liminescence) panel and displays an image.
  • the display device 20 may be a display unit such as a liquid crystal panel.
  • the front touch pad 21 is a multi-touch pad having a function of detecting a plurality of points touched at the same time, and the touch panel 50 is configured as a multi-touch screen.
  • a triangle button 22a, a circle button 22b, a x button 22c, and a square button 22d are provided on the right side of the rhombus.
  • operation buttons 22 are provided on the right side of the rhombus.
  • an upper key 23a, a left key 23b, a lower key 23c, and a right key 23d are provided on the left side of 50.
  • the user can input the eight directions of up / down / left / right and diagonal by operating the direction key 23.
  • a left stick 24 a is provided below the direction key 23, and a right stick 24 b is provided below the operation button 22.
  • the user tilts the left stick 24a or the right stick 24b (hereinafter, collectively referred to as “analog stick 24”), and inputs a direction and a tilt amount.
  • An L button 26a and an R button 26b are provided on the left and right tops of the housing.
  • the operation button 22, the direction key 23, the analog stick 24, the L button 26a, and the R button 26b constitute operation means operated by the user.
  • a front camera 30 is provided in the vicinity of the operation button 22.
  • a left speaker 25a and a right speaker 25b (hereinafter, collectively referred to as “speaker 25”) that output sound are provided, respectively.
  • a HOME button 27 is provided below the left stick 24a, and a START button 28 and a SELECT button 29 are provided below the right stick 24b.
  • FIG. 3B shows the back surface of the information processing apparatus 10.
  • a rear camera 31 and a rear touch pad 32 are provided on the rear surface of the information processing apparatus 10.
  • the rear touch pad 32 is configured as a multi-touch pad, like the front touch pad 21.
  • the information processing apparatus 10 is equipped with two cameras and a touch pad on the front surface and the back surface.
  • FIG. 4A shows the upper surface of the information processing apparatus 10.
  • the L button 26a and the R button 26b are provided on the left and right ends of the upper surface of the information processing apparatus 10, respectively.
  • a power button 33 is provided on the right side of the L button 26 a, and the user turns the power on or off by pressing the power button 33.
  • the information processing apparatus 10 has a power control function of transitioning to a suspended state when a time during which the operating means is not operated (no operation time) continues for a predetermined time. When the information processing apparatus 10 enters the suspended state, the user can return the information processing apparatus 10 from the suspended state to the awake state by pressing the power button 33.
  • the game card slot 34 is an insertion slot for inserting a game card, and this figure shows a state where the game card slot 34 is covered with a slot cover.
  • An LED lamp that blinks when the game card is being accessed may be provided in the vicinity of the game card slot 34.
  • the accessory terminal 35 is a terminal for connecting a peripheral device (accessory), and this figure shows a state where the accessory terminal 35 is covered with a terminal cover. Between the accessory terminal 35 and the R button 26b, a-button 36a and a + button 36b for adjusting the volume are provided.
  • FIG. 4B shows the lower surface of the information processing apparatus 10.
  • the memory card slot 37 is an insertion slot for inserting a memory card, and this figure shows a state in which the memory card slot 37 is covered with a slot cover.
  • an audio input / output terminal 38, a microphone 39, and a multi-use terminal 40 are provided on the lower surface of the information processing apparatus 10.
  • the multi-use terminal 40 corresponds to USB (Universal Serial Bus) and can be connected to other devices via a USB cable.
  • USB Universal Serial Bus
  • FIG. 4C shows the left side surface of the information processing apparatus 10.
  • a SIM card slot 41 which is a SIM card insertion slot, is provided.
  • FIG. 5 shows a circuit configuration of the information processing apparatus 10.
  • the wireless communication module 71 is configured by a wireless LAN module compliant with a communication standard such as IEEE 802.11b / g, and is connected to an external network such as the Internet via a wireless access point.
  • the wireless communication module 71 may have a Bluetooth (registered trademark) protocol communication function.
  • the mobile phone module 72 corresponds to the third generation (3rd Generation) digital mobile phone system conforming to the IMT-2000 (International Mobile Telecommunication 2000) standard defined by the ITU (International Telecommunication Union). Connect to the telephone network 4.
  • a SIM card 74 Into the SIM card slot 41, a SIM card 74 in which a unique ID number for specifying the telephone number of the mobile phone is recorded is inserted. By inserting the SIM card 74 into the SIM card slot 41, the mobile phone module 72 can communicate with the mobile phone network 4.
  • the CPU (Central Processing Unit) 60 executes a program loaded in the main memory 64.
  • a GPU (Graphics Processing Unit) 62 performs calculations necessary for image processing.
  • the main memory 64 is composed of a RAM (Random Access Memory) or the like, and stores programs, data, and the like used by the CPU 60.
  • the storage 66 is configured by a NAND flash memory (NAND-type flash memory) or the like, and is used as a built-in auxiliary storage device.
  • the motion sensor 67 detects the movement of the information processing apparatus 10, and the geomagnetic sensor 68 detects the geomagnetism in the triaxial direction.
  • the GPS control unit 69 receives a signal from a GPS satellite and calculates a current position.
  • the front camera 30 and the rear camera 31 capture an image and input image data.
  • the front camera 30 and the rear camera 31 are constituted by CMOS image sensors (Complementary Metal Oxide Semiconductor Image Sensor).
  • the display device 20 is an organic EL display device and includes a light emitting element that emits light by applying a voltage to a cathode and an anode.
  • the display device 20 may be a liquid crystal panel display device provided with a backlight.
  • the operation unit 70 includes various operation means in the information processing apparatus 10. Specifically, the operation button 22, the direction key 23, the analog stick 24, the L button 26a, the R button 26b, the HOME button 27, and START. A button 28, a SELECT button 29, a power button 33, a-button 36a, and a + button 36b are included.
  • the front touchpad 21 and the rear touchpad 32 are multi-touchpads, and the front touchpad 21 is disposed on the surface of the display device 20.
  • the speaker 25 outputs sound generated by each function of the information processing apparatus 10, and the microphone 39 inputs sound around the information processing apparatus 10.
  • the audio input / output terminal 38 inputs stereo sound from an external microphone and outputs stereo sound to external headphones or the like.
  • a game card 76 in which a game file is recorded is inserted.
  • the game card 76 has a recording area in which data can be written.
  • data is written / read by the media drive.
  • a memory card 78 is inserted into the memory card slot 37.
  • the multi-use terminal 40 can be used as a USB terminal, and is connected to a USB cable 80 to transmit / receive data to / from another USB device.
  • a peripheral device is connected to the accessory terminal 35.
  • FIG. 6 shows functional blocks of the information processing apparatus 10.
  • Each functional block included in the control unit 130 can be configured by the CPU 60, the GPU 62, the main memory 64, and the like as described above in terms of hardware, and various storage devices in the information processing apparatus 10 and the like in terms of software.
  • This is realized by a program loaded into the main memory 64 from the loaded recording medium. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the control unit 130 includes a user operation reception unit 132 that receives a user operation on the information processing apparatus 10, a state recognition unit 134 that recognizes a real world state including a real object, and a display image generation unit that generates an image to be displayed on the display device 20.
  • 138 includes a content data storage unit 136 for storing various data used for generating the display image.
  • the control unit 130 further includes a real object synchronization processing unit 140 that performs a synchronization process of movement between the real object and the display image.
  • the user operation reception unit 132 receives a user operation via at least one of the operation unit 70, the front touchpad 21, and the rear touchpad 32 illustrated in FIG. For example, before the information processing apparatus 10 is placed on the projector 112, a user operation for selecting an image or content to be displayed is received via the operation unit 70 or the front touchpad 21. Information related to the selected image or content is notified to the display image generation unit 138. Alternatively, a touch operation on the rear touch pad 32 is accepted when an image is displayed while being placed on the projector 112. Also in this case, the user operation reception unit 132 notifies the display image generation unit 138 that the operation has been performed, thereby giving a change in accordance with the touch operation to the image being displayed.
  • touch operations whether touched or not, the touched position, the shape of the touched area (depending on whether the touch was made with the fingertip or the palm, etc.), number of touch points, touch time, touch The destination of the point, the moving speed of the touch point, and the like may be determined, and the processing of the display image generation unit 138 may be changed according to the determination result.
  • the state recognition unit 134 acquires a real-world state or a state change from at least one of the front camera 30, the front touch pad 21, the motion sensor 67, and the geomagnetic sensor 68 shown in FIG.
  • the type of the real object, the position where it is placed, the pose, and the like are specified from the image obtained by the front camera 30 capturing the real object room 3.
  • an image with a high degree of coincidence is detected and its position is specified, and from the registration information
  • the type and pose of the real object are specified.
  • the specified information is notified to the display image generation unit 138.
  • a marker such as a barcode is attached to the surface of the real object facing the lens of the front camera 30 such as the top surface, detected from the captured image, and collated with the registered information. Also good.
  • a convex portion that generates a partial contact with the front touch pad 21 of the information processing apparatus 10 may be provided on the top surface of the support mechanism 116, and an image or content to be displayed may be changed depending on the position.
  • FIG. 7 shows an example of the structure of the support mechanism 116 in that case.
  • a region 150 of the support mechanism 116 is a region where the front touchpad 21 faces when the information processing apparatus 10 is placed.
  • a convex portion 152 that partially protrudes from the upper surface of the top plate that is the support mechanism 116 is provided at a predetermined position in the region 150.
  • the state recognition unit 134 specifies the position of the convex portion 152 via the front touch pad 21 and notifies the display image generation unit 138 of the position.
  • the display image generating unit 138 displays an image or content corresponding to the actual position of the convex portion 152.
  • the convex portion 152 is desirably provided in the vicinity of the edge of the region 150 so as not to hinder image projection onto the half mirror 118, but the shape and size thereof are not particularly limited. You may distinguish the image and content which should be displayed with a shape and size.
  • the convex portion 152 When the display image is switched by providing the convex portion 152 in this way, a plurality of top plates with different positions of the convex portion 152 may be prepared, and the top plate may be replaced depending on the image to be displayed. These parts may be configured to be attachable to a plurality of positions on one top plate.
  • the convex portion 152 may be a screw head, and a plurality of screw holes may be provided in the top plate.
  • the back surface of the convex portion 152 may be constituted by an adhesive member so that it can be adhered to the top plate surface.
  • the state recognition unit 134 further specifies the movement and inclination of the information processing apparatus 10 from the motion sensor 67 and the geomagnetic sensor 68 and notifies the display image generation unit 138 of the movement.
  • the movement and inclination of the information processing apparatus 10 represent the movement and inclination of the projector 112 itself. Therefore, when the user tilts the projector 112 or tilts or shakes the image during image display, the state or movement is detected via the motion sensor 67 or the geomagnetic sensor 6, and the image is changed accordingly.
  • the information processing apparatus 10 may be provided with any one of sensors that detect some physical quantity such as a temperature sensor, an illuminance sensor, and a clock, and the display may be changed according to the detected values. .
  • the display may be changed based on surrounding sounds acquired by the microphone 39 of the information processing apparatus 10.
  • the state recognition unit 134 acquires the position where the real object is placed via the touch pad. Thereby, the position of the real object can be specified by means other than the image captured by the front camera 30.
  • the type and pose of the real object can be specified based on the shape of contact with the touch pad on the bottom surface.
  • the display image generation unit 138 generates data of an image to be displayed, for example, an image such as the screen 129 in FIG. 2, according to the information notified from the user operation reception unit 132 and the state recognition unit 134, and outputs the generated data to the display device 20. To do.
  • the image generated here may be a still image or a moving image, or they may be mixed in the screen.
  • the content data storage unit 136 stores rules relating to an image and content to be displayed, a position to be displayed, how to change the image, and the like according to the notified information. For example, as described above, when the display image is made different depending on the type of the real object, the pose, the position of the convex portion 152, etc., a table in which the identification information is associated with the image to be displayed is stored.
  • information such as the reference image and marker used for pattern matching is also stored corresponding to the type and pose of the real object.
  • the contents of the change given to the image according to the case where the touch operation of the back touch pad 32 is performed while the image is displayed or the detection value by the motion sensor 67 changes are also stored. Furthermore, the image data itself to be displayed is also stored.
  • the real object synchronization processing unit 140 performs processing for synchronizing the image and the real object when the real object is configured to move.
  • the real object may move according to a request from the information processing apparatus 10 or may move due to a factor independent of the information processing apparatus 10.
  • the user may touch and move the real object or change the pose, or the real object may be a robot that is moved by a separately prepared remote controller. Or you may make it move automatically by a user's initial operation like a wound doll.
  • the real object may be automatically moved by setting the information processing apparatus 10 on the projector 112 as an initial operation.
  • a load sensor or an optical sensor is provided in the projector 112 to detect that the information processing apparatus 10 has been placed based on a change in weight applied to the projector or light emitted from the screen.
  • the case of moving a real object according to a request from the information processing apparatus 10 is a case of moving a display image and a real object according to a pre-configured program, or a case of moving a display image and a real object by a user operation on the information processing apparatus 10 Etc.
  • the real object synchronization processing unit 140 transmits, via the wireless communication module 71, a control signal for giving the real object a motion that is linked to the image generated by the display image generation unit 138.
  • the real object synchronization processing unit 140 receives information regarding the movement from the real object via the wireless communication module 71 and notifies the display image generation unit 138 of the information. To do.
  • the information processing apparatus 10 and the real object establish communication by radio. Alternatively, communication may be established by wire.
  • transmission / reception of information between the information processing apparatus 10 and the real object is not limited to using such a communication line.
  • a separate display device is provided on the bottom surface of the projector 112 and an optical sensor is provided on the bottom surface of the real object
  • the luminance change in the display device is used as a signal from the information processing device 10 to the real object.
  • a camera that captures a predetermined area of the screen of the information processing apparatus 10 is provided on a real object
  • information can be transmitted by displaying a marker such as a barcode corresponding to the information in the area.
  • the real object synchronization processing unit 140 changes the brightness of the display device on the bottom surface of the projector 112 or displays a predetermined marker in a predetermined region of the screen of the information processing device 10. To request.
  • the front camera 30 captures a space including a real object, thereby tracking pose changes and movements using general pattern matching and visual tracking techniques.
  • the change or movement of the pose of the real object can be specified by the change of the contact point.
  • the state recognition unit 134 also serves as the real object synchronization processing unit 140.
  • the ⁇ movement '' of the real object linked to the display device may be a continuous change while the real object is changing its pose or orientation or moving, It may be a change in pose, orientation, position, etc. at discrete points before and after such elapsed time.
  • the display image may be changed according to the minute time, or when the real object finishes moving, the display image changes at once according to the state at that time. You may let them.
  • FIG. 8 shows an example of the structure of data stored in the content data storage unit 136 for determining a display image according to the real world situation.
  • the display image setting table 300 includes a convex portion field 302, a real object field 304, a pose field 306, a display image field 308, and a display position field 310.
  • the image to be displayed is determined according to the position of the convex portion 152 of the top plate shown in FIG. 7, the type of the real object, and the pose. Therefore, the convex portion column 302 stores the position coordinates of the convex portion on the top plate, and the real object column 304 and the pose column 306 store the type of real object and pose identification information that can be acquired from the photographed image.
  • the identification information and the display position of the image to be displayed according to the combination are stored in the display image column 308 and the display position column 310.
  • the second line of the display image setting table 300 third line is in the convex portion position coordinates (X1, Y1), when the real object is a pause which is "upright” figure of “cat", “Hello “Is displayed near the head of the figure, and” mark “is displayed on the” chest “of the figure.
  • a display form as shown in FIG. 1 can be realized.
  • the convex part is at the position coordinates (X2, Y2), for the “Cat” figure
  • “Mark” is for the “Chest” of the figure and for the “Television” miniature. Displays the video “TV program A” on the “screen” of the miniature.
  • an image of “wallpaper A” is displayed on the “entire surface” of the real object room.
  • an image to be displayed for each real object in the real object room can be set.
  • the description in the display position column 310 is expressed in a simple manner in the figure, in practice, as described above, the position of each part of the real object is specified in the real world, and is a screen for making it appear at that position. In order to determine the position above, information necessary for the processing is stored in the same column.
  • the description format of the other columns is not limited to that illustrated.
  • the elements that determine the display image are not limited to the combinations shown in the figure, and the position of the convex portion may be removed, or another factor such as temperature or season may be added.
  • the content data storage unit 136 also stores the state change during image display and the display image change corresponding to the user operation as described above in association with each other.
  • FIG. 9 shows an example of a display form configured as described above.
  • the upper part is an image displayed on the screen of the information processing apparatus 10, and the lower part is a state viewed from the front of the projector 112 having the shape shown in FIG.
  • the support mechanism of the projector 112 and the information processing apparatus 10 placed on the upper surface thereof are not shown.
  • a miniature television 162 is placed in the real object room in the projector 112 in addition to the cat figure 160 as a real object.
  • a mark 164 is displayed at a position corresponding to the chest of the cat figure 160
  • a TV image 166 is displayed at a position corresponding to the screen of the miniature TV 162
  • a wallpaper pattern 168 is displayed on the back.
  • This form corresponds to the description on the fourth to sixth lines of the display image setting table 300 shown in FIG.
  • the content data storage unit 136 may store wallpaper image data in which areas corresponding to these are masked in advance.
  • the position is specified based on the photographed image of the front camera 30 and the like, and the display image generation unit 138 determines the mask area.
  • the content data storage unit 136 has a detailed shape and a shape of each real object. It is desirable to register the size. As a result, the apparent size and shape from the front can be accurately derived based on the position of the real object specified by pattern matching or the like.
  • FIG. 9 illustrates the wallpaper pasted on the entire background, when another creature or object is represented behind the real object, the part behind the real object is also masked.
  • the real object with respect to the information processing apparatus 10 is obtained by using a photographed image of the front camera 30 or the like. May be obtained accurately. Thereby, even if the information processing apparatus 10 is placed on the top plate at random, and the positional relationship between the screen of the information processing apparatus 10 and the real object room is shifted each time, an image can be displayed at an accurate position with respect to the real object. . In addition, since it becomes clear which of the upper and lower sides of the information processing apparatus 10 is placed on the near side of the top board, the top and bottom of the display image on the screen can be appropriately switched according to the placement direction.
  • the means for specifying how the information processing apparatus 10 is placed is not limited to this, and the convex portion 152 of the support mechanism 116 shown in FIG. 7 may be used. That is, by acquiring the position of the convex portion 152 with respect to the front touch pad 21 of the information processing apparatus 10, the positional relationship between the screen of the information processing apparatus 10 and the actual object chamber of the projector 112 can be specified. An image can be appropriately displayed regardless of the position and orientation. Note that it is desirable that the edge portion be black so that the edge portion of the screen constituting the housing of the information processing apparatus 10 is not reflected on the half mirror 118 at any position.
  • FIG. 10 shows another display form example by the projector 112 having the same shape.
  • water 170 is sealed with the real object chamber 3 behind the half mirror 118 as a sealed space. That is, the water 170 is a real object.
  • the information processing apparatus 10 displays the ducks 172a, 172b, and 172c floating on the water 170.
  • the water surface is not parallel to the bottom surface of the projector 112.
  • the water surface is basically kept horizontal, and the inclination of the bottom surface of the projector 112 coincides with the inclination of the information processing apparatus 10, so that the angle of the water surface with respect to the bottom surface is determined by the output value from the motion sensor 67 or the geomagnetic sensor 68.
  • the state recognition unit 134 sequentially acquires the angle based on the output value of the sensor, and notifies the display image generation unit 138 of it.
  • the display image generation unit 138 changes the image so that the ducks 172a, 172b, and 172c exist on the plane corresponding to the water surface of the water 170 regardless of the inclination.
  • the display image generation unit 138 draws the object after tilting the camera coordinate system for the objects of the ducks 172a, 172b, and 172c arranged on the horizontal plane of the world coordinate system in accordance with the tilt of the information processing apparatus 10.
  • the speed at which the information processing apparatus 10 is tilted is acquired from the sensor output value, and the ducks 172a, 172b, 172c are also displayed so as to swing according to a predetermined rule accordingly. May be. If a sensor capable of detecting an external pressure change or an air flow is used, even if the projector 112 is not inclined, the actual water surface vibration can be detected and the vibrations of the ducks 172a, 172b, and 172c can be expressed more precisely. Further, by displaying a state in which the duck hitting the side wall of the real object room 3 rebounds, a more realistic display can be realized. For these processes, existing three-dimensional graphics techniques can be used as appropriate.
  • this display mode when the user taps the back of the information processing apparatus 10, a new duck 172d is displayed so as to fall from above.
  • the user operation reception unit 132 of the information processing apparatus 10 detects that the back touch pad 32 has been tapped, and notifies the display image generation unit 138 of it.
  • the display image generation unit 138 adds a new duck 172d to the display target and expresses the state of falling from the upper end of the real object chamber 3 as a moving image.
  • water 170 is enclosed in the projector 112 as a real object.
  • the water is not limited to water as long as it changes depending on the inclination of the projector 112, and sand, a sphere, a car, or the like may be used.
  • Various variations of the image to be displayed are conceivable depending on what is enclosed.
  • the aspect which changes an image by operating the back surface of the information processing apparatus 10 during image display can be applied even when not enclosing a real object. For example, in the display form shown in FIG.
  • a snow noise video is displayed on the screen of the miniature television 162, and when the back of the information processing apparatus 10 is tapped, the display is switched to the video display of the TV program. According to this aspect, it is possible to produce a situation where a poorly tuned television is recovered by tapping.
  • FIG. 10 is a mode in which the display image is changed in accordance with a change in the state of water, which is a real object.
  • FIG. 11 shows functional blocks of the real object in a mode in which the real object is provided with an operation function and interlocked with the display image.
  • the real object 180 includes an image synchronization processing unit 182 that performs a synchronization process of movement with the display image of the information processing apparatus 10, an operation unit 184 that actually moves the real object 180, and an operation pattern storage that stores an operation pattern according to the situation. Part 186.
  • the real object 180 may be moved according to a request from the information processing apparatus 10 or may be moved by a factor independent of the information processing apparatus 10.
  • the real object 180 may be configured such that both modes can be realized, or only one of the modes can be realized. Depending on the mode to be realized, some of the functions of the real object 180 described below can be omitted as appropriate.
  • the image synchronization processing unit 182 when moving the real object 180 according to a request from the information processing apparatus 10, the image synchronization processing unit 182 includes a communication mechanism that establishes communication with the wireless communication module 71 of the information processing apparatus 10. Then, a control signal that defines the movement of the real object 180 is received from the real object synchronization processing unit 140.
  • the image synchronization processing unit 182 may include a camera that captures a marker displayed in a predetermined area of the screen of the information processing apparatus 10.
  • an optical sensor provided on a surface in contact with the bottom surface may be used.
  • the information processing apparatus 10 displays a marker that defines the movement that the real object should make in a predetermined region within the field of view of the camera on the screen.
  • the information processing apparatus 10 uses the pattern in which the luminance of the area in contact with the optical sensor in the screen of the display device that forms the bottom surface of the projector 112 is associated with the movement that the real object should make. Change.
  • an optical sensor may be provided on the upper surface of the real object 180, and the movement may be requested by a luminance change on the screen of the information processing apparatus 10.
  • a touch pad is provided on the screen, the ground area of the real object 180 is specified, and the brightness of the area is changed, so that the optical sensor reliably changes the brightness. Can be captured.
  • the image synchronization processing unit 182 When moving the real object 180 due to a factor independent of the information processing apparatus 10, the image synchronization processing unit 182 includes a communication mechanism that establishes communication with the wireless communication module 71 of the information processing apparatus 10, and transmits information related to the movement. .
  • identification information is given to a plurality of movement patterns such as rotation, right-to-left movement, and arm lifting, and represents an actual movement pattern generated by a user's initial operation or remote control operation.
  • the identification information is transmitted to the information processing apparatus 10.
  • the movement is specified from the image in the image captured by the front camera 30 of the information processing apparatus 10, or the bottom surface of the projector 112 is configured with a touch pad, and the information processing apparatus 10 is in contact with the touch pad.
  • the function of the image synchronization processing unit 182 can be omitted when the movement is specified from
  • a simple pose change such as opening the arm of the figure, which is the real object 180, to the left or right, or spreading the leg, can be recognized by pattern matching of the captured image. Changes that spread the legs can also be identified by the touchpad. For fine movements that are difficult to recognize by these means, it is desirable to transmit information relating to the movement pattern through a communication line. Therefore, a means for causing the information processing apparatus 10 to recognize the movement of the real object 180 is appropriately selected according to the granularity of the motion allowed for the real object 180, the shape of the real object, the allowable cost, and the like.
  • the operation unit 184 is configured by an actuator that changes the angle of a joint provided on the real object 180 or rotates an axle when a wheel is provided.
  • Existing parts such as moving toys and industrial robots can be used for the parts that can be moved by the actuator and the method of movement, and they are appropriately selected according to the design and allowable cost.
  • the operation unit 184 may include a vibrator, a light emitter, a display, a sound reproduction mechanism, a buzzer, and the like, and may generate sound and vibration, emit light, display a predetermined image, and the like along with the operation. Note that when the movement of the real object 180 is limited to that by the user's hand, the function of the operation unit 184 can be omitted.
  • the operation pattern storage unit 186 stores data for identifying the movement requested by the information processing apparatus 10 and for transmitting the movement due to an independent factor to the information processing apparatus 10.
  • FIG. 12 shows an example of the structure of data stored in the operation pattern storage unit 186.
  • the motion information table 400 includes an identification number column 402, a motion column 404, a marker column 406, and a luminance change pattern column 408.
  • each movement is expressed by expressions such as “rotation”, “lateral movement”, and “raise the right arm”.
  • the amount, the amount of change in angle, etc. may be defined in detail.
  • the identification number column 402 an identification number assigned to each movement is described.
  • the marker column 406 describes identification information of the marker when the information processing apparatus 10 displays the marker on the screen and requests a corresponding movement of the real object 180 via the camera.
  • the identification information is shown in the form of “A”, “B”, “C” in the figure, the format may be different depending on the type of marker.
  • the information processing apparatus 10 changes the luminance of the display device such as the bottom surface of the projector 112 to request a corresponding movement through the optical sensor of the real object 180.
  • the pattern is expressed in a format such as “ON / OFF / OFF / ON”. This is a case where one motion is represented by a change in luminance in a period of 4 unit times (4t) when the luminance is set to two gradations of ON / OFF and a minute unit time t is set.
  • various formats are conceivable depending on the motion variation to be expressed and the gradation of luminance used.
  • any one of the identification number column 402, the marker column 406, and the luminance change pattern column 408 in the motion information table 400 may be selectively enabled, and other settings may be omitted. Good.
  • the information described in the movement information table 400 is held in the content data storage unit 136 and the like in the information processing apparatus 10 in common. With such a configuration, the real object 180 and the display image can be linked without contradiction regardless of the subject that causes the movement of the real object 180.
  • FIG. 13 shows a change example of the state seen from the front of the projector 112 in a mode in which the display image and the real object are interlocked.
  • the support mechanism of the projector 112 and the information processing apparatus placed on the upper surface thereof are not shown.
  • a cat robot 190 is placed as a real object in a real object room in the projector 112.
  • the cat robot 190 raises the right hand and the left foot at a certain time. Thereafter, it is assumed that the robot 190 gradually moves and finally puts the right hand forward and raises the right foot instead of the left foot as shown in the lower part of FIG.
  • Such an operation is generated, for example, by an initial operation of the user such as placing the information processing apparatus 10 on the support mechanism of the projector 112 or pressing a predetermined operation button of a separately prepared remote controller.
  • the information processing apparatus 10 recognizes the movement by the means described above.
  • the display image generation unit 138 displays a ball 192 at a position corresponding to the tip of the right hand of the robot 190, a light emitting effect 194 (represented by a star mark in the figure), and the like.
  • information such as the position of the robot 190 is supplemented from the image taken by the front camera 30 as necessary.
  • landscape images such as mountains and clouds are displayed as a background after masking the area corresponding to the robot 190. Thereafter, the ball 192 is moved in accordance with the movement of the hand of the robot 190, and finally, as shown in the lower part of FIG.
  • the mask area of the landscape image is also changed according to the movement of the robot 190. In this way, the real object and the display image are linked to each other, and it is possible to express in the real world how the cat robot 190 throws a shining ball.
  • FIG. 14 shows images displayed in the upper and lower states of FIG. As described above, the inside of the outline of the robot 190 is masked black so that the image displayed as the background is not reflected on the robot 190. Further, an image of the ball 192 is displayed at a position corresponding to the right hand of the robot 190. Then, by gradually changing these images according to the movement of the robot 190, the display form as shown in FIG. 13 can be realized.
  • the initial operation of the user for moving the robot 190 is performed independently of the information processing apparatus 10 as described above, so that the information processing apparatus 10 notifies the information processing apparatus 10 from the robot 190 side.
  • the information processing apparatus 10 may be used, such as tapping the back of the computer.
  • the robot 190 moves in response to a request from the information processing apparatus 10.
  • Such linkage between an image and a real object can be used in various situations other than the use as an object as illustrated.
  • the robot can be used in a battle game in which the robot of his / her own character, which is a real object, fights an enemy generated by display, or the display of weapons and techniques to be held changes depending on the robot's pose.
  • FIG. 15 shows a configuration example of a projector having a structure in which no real object chamber is provided.
  • the projector 200 has a structure in which a reflection mirror 204 that is a general mirror and a half mirror 206 are installed in parallel to reflect the display image of the information processing apparatus 10 twice. The user moves the projector 200 in his / her hand so as to see the real object 210 through the half mirror 206 and looks in from the direction of the arrow.
  • the real object 210 that looks like that and the display image of the information processing apparatus 10 reflected by the reflecting mirror 204 can be seen simultaneously. Therefore, a support mechanism 202 for supporting the information processing apparatus 10 is provided below the reflecting mirror 204 so that the reflecting surface of the reflecting mirror 204 and the screen form an acute angle.
  • the bottom and top surfaces of the projector 200 are openings, and the reflecting mirror 204 and the half mirror 206 are supported by plates on both sides.
  • the structure of the bottom surface, the top surface, and the side surface is not limited to this, and for example, the bottom surface and the top surface may be formed of a transparent resin plate or the like.
  • the real object 210 is a transparent box such as an acrylic resin. Then, by displaying the fish on the screen of the information processing apparatus 10, it is possible to make it appear that the fish is in the box that is the real object 210. For example, if the movement when the fish swims is given to the display image, it is possible to create a situation where the fish swimming in the aquarium is observed.
  • FIG. 16 is a diagram for explaining the mode shown in FIG. 15 in more detail, and shows a state where the projector 200 and the real object 210 are viewed from the right side.
  • the information processing apparatus 10 displays an image while being supported by the support mechanism with the screen facing up. This image is first reflected by the reflecting mirror 204 toward the half mirror 206 (arrows a and b). Then, the light is reflected again by the half mirror 206 and reaches the user's viewpoint 220 (arrows b and c). At this time, since the real object 210 can be seen through the half mirror 206 at the same time, as shown in FIG. 15, it appears to the user that the fish as the display image is swimming in the box of the real object 210.
  • the distance between the projector 200 and the real object 210 is specified from the size of the image. Then, the size of the display image may be changed so as to be inversely proportional to the distance.
  • the angle of the projector 200 with respect to the real object 210 may be specified depending on how the marker appears in the captured image, and the angle of the displayed object may be changed accordingly.
  • the actual fish 210 is viewed from various directions by changing the angle of the fish to be displayed when the box as the real object 210 is viewed from the front and when viewed from the front. A similar situation can be created.
  • the display image may be switched according to the actual object by changing the shape of the marker depending on the actual object.
  • a rule is set such that a fish is displayed when a transparent box is used as a real object, and a butterfly is displayed when a flower object is used as a real object. If the information of the marker attached to each real object and the rule are stored in the content data storage unit 136, an appropriate image can be displayed and fused with the real object simply by pointing the projector 200 toward the real object. be able to.
  • the image displayed by the information processing apparatus and the real object are fused in the real world using the half mirror.
  • the image is projected from the information processing apparatus to the half mirror so that an appropriate display image is reflected at a position that matches the real object that can be seen through the half mirror.
  • This makes it possible to combine events such as floating, generation / disappearance of objects, minute movements and color changes that are difficult to express with real objects, making them more attractive.
  • it is possible to obtain a synergistic effect that the presence of the real object can also give a sense of presence to the display image.
  • the type, pose, position, movement, etc. of the real object are specified using a camera, a communication mechanism, or a connected touch pad provided in the information processing apparatus, and the display image is changed so as to match it.
  • the information processing apparatus interlocks the real object while changing the display image in accordance with a user operation using the back touch pad or the like of the information processing apparatus or a scenario built in advance. With such a configuration, various changes can be given not only to the display image but also to the real object. As a result, the above-described synergistic effect can be further exerted, and the user can be given pleasure not only to show but also to move. In addition, the degree of freedom for selecting the state of the real object is greatly increased.
  • any object outside the projector can be fused with the image.
  • the distance and angle between the projector and the real object are specified, and the size and orientation of the target object to be displayed are changed accordingly.
  • a certain image can be displayed. As a result, it is possible to realize a realistic image expression that matches the situation where the projector is moved.
  • the half mirror is a flat plate, but may be a concave half mirror having a concave shape.
  • the distance between the concave half mirror and the screen of the information processing apparatus in accordance with the focal length, it is possible to make the real image formed by reflection appear to be in front of the mirror surface as in the case of a general concave mirror.
  • an object in front of the real object in the real object room can be represented by a display image.
  • This distortion varies depending on the position and angle of the observer.
  • the following processing may be performed. (1) Display an image obtained by texture-mapping an object to be displayed on a virtual curved surface having a shape that cancels out distortion caused by the concave shape of the half mirror. (2) The position of the observer is detected by a separately introduced camera, and the display position and shape of the image are changed accordingly.
  • a grid pattern image is projected from the information processing device onto the concave half mirror, and the reflected image is captured by a camera such as a front camera, so that the detailed shape of the concave surface and the position of the information processing device The relationship is acquired and used for image correction.
  • ⁇ / RTI> By appropriately combining the above processing, it is possible to display the object present on the near side without a sense of incompatibility. Further, by optimizing the display position and shape of the image according to the position of the observer in the process (2), it is possible to give the display image a more stereoscopic effect.
  • a flat half mirror and a concave half mirror may be combined. For example, if only the central part of the half mirror is concave, the image reflected in the area appears to pop out, and the image reflected in the other area appears to be superimposed on the real object or the back surface. As a result, the display image in front of the real object, the real object, the display image on the real object, and the display image after the real object can be shown simultaneously, and the range of expression can be greatly expanded.
  • a display image may be stereoscopically viewed by introducing another lens between the information processing apparatus and the actual object chamber.
  • FIG. 17 shows the structure of the projector in that case as viewed from the right side.
  • a projector 250 has a configuration in which a lens 252 is added between the support mechanism 116 of the information processing apparatus 10 and the half mirror 118 in the projector 112 shown in FIG.
  • the lens 252 is installed so as to be parallel to the screen of the information processing apparatus 10.
  • the lens 252 as a convex lens, the display image can be projected and projected to the viewpoint 126 side like the concave half mirror.
  • the lens 252 may be a microlens array such as a lenticular lens that creates binocular parallax from one display image and stereoscopically distributes the light emission direction of the pixels to the left and right. In this case, since the lens itself is reflected on the half mirror 118, it is desirable to make the real object 114 look natural from other areas by using a technique such as partial use.
  • the description has been focused on the function as a projector for observing a real object in which images are fused using a half mirror, but this function may be combined with other functions.
  • a cradle such as a charger which has a shape as shown in FIG.
  • Further elements may be merged, such as changing the display image according to the progress status of the other work.
  • Image fusion system 10 information processing device, 20 display device, 21 front touch pad, 32 back touch pad, 60 CPU, 64 main memory, 67 motion sensor, 68 geomagnetic sensor, 70 operation unit, 71 wireless communication module, 112 projection , 114 real object, 116 support mechanism, 118 half mirror, 130 control unit, 132 user operation reception unit, 134 state recognition unit, 136 content data storage unit, 138 display image generation unit, 140 real object synchronization processing unit, 180 real product Body, 182 image synchronization processing unit, 184 operation unit, 186 operation pattern storage unit, 200 projector, 204 reflector, 206 half mirror, 250 projector, 252 lens .
  • the present invention can be used for information processing devices such as computers, game machines, information terminals, display devices, and toys.

Abstract

 画像融合システム2において、投影器112は、実物体114を置く空間を構成する実物体室3、情報処理装置10の画面が実物体室3に向いた状態を維持するように情報処理装置10を支持する支持機構116、情報処理装置10が表示する画像を前方に反射させると同時に、実物体室3の内部を視認できるハーフミラー118を含む。情報処理装置10は、カメラにより実物体室3を撮影した画像に基づき実物体114の状態を特定し、吹き出し120aやマーク120bなどが実物体114に対し適切な位置に見えるように表示画像を生成する。

Description

画像融合システム、情報処理装置、情報端末、および情報処理方法
 本発明は、情報処理による画像表示を利用した画像融合システム、当該情報処理を行う情報処理装置、情報端末、およびその情報処理方法に関する。
 携帯型のゲーム機やPDA(Personal Digital Assistant)等の情報処理装置が普及している。近年では、多くの情報処理装置が通信機能を搭載し、またスマートフォンのように、携帯電話やPDA等の機能を一つにまとめた多機能型の情報処理装置も登場している。このような情報処理装置は大容量のメモリおよび高速プロセッサを搭載しており、ユーザは、アプリケーションプログラムを情報処理装置にインストールすることで、様々なアプリケーションを楽しめるようになっている。
 例えば情報処理装置に備えたカメラによって実写した画像に3次元グラフィックスにより描画したオブジェクトを重畳させて表示画像とすることにより、現実世界と仮想世界を融合させた拡張現実(AR:Augmented Reality)の技術も提案されている(例えば特許文献1参照)。
特開2013-92964号公報
 ARの技術の利用は、ユーザの動き認識に基づく仮想世界の構築とは異なるアプローチによって現実世界と仮想世界を融合させているといえる。これらの技術は、単に見た目の楽しさを提供するばかりでなく、直感的かつ容易に装置を操作したり出力結果を理解したりするのに有益と考えられる。しかしながら一般的なARは、表示装置の画面という限られた領域における2次元画像であるため、臨場感や迫力といった観点では物足りなさを感じることもあった。
 本発明はこのような課題に鑑みてなされたものであり、その目的は、表示画像を利用してより臨場感のある世界を構築できる技術を提供することにある。
 上記課題を解決するために、本発明のある態様は画像融合システムに関する。この画像融合システムは、表示装置に画像を表示させる情報処理装置と、表示装置に表示された画像を反射させるとともに背後に存在する実物体の像を透過させる半透過鏡と、半透過鏡の反射面と表示装置の画面とを所定の角度に保つ支持機構と、を備え、情報処理装置は、半透過鏡において反射する画像と、透過する実物体の像とが融合して見えるように、実物体の状態に応じた画像を表示装置に表示させる表示画像生成部を備えることを特徴とする特徴とする。
 本発明の別の態様は情報処理装置に関する。この情報処理装置は、接続した表示装置に画像を表示させる情報処理装置であって、表示装置が支持機構によって支持された状態において、当該表示装置の画面と所定の角度をなすように位置する半透過鏡の背後に存在する実物体の状態を検出する状態認識部と、半透過鏡に表示画像が反射した際、当該半透過鏡を透過する実物体の像と融合して見えるように、実物体の状態に応じた前記表示画像を生成する表示画像生成部と、を備えることを特徴とする。
 本発明のさらに別の態様は情報処理方法に関する。この情報処理方法は、情報処理装置が、接続された表示装置に画像を表示させる情報処理方法であって、表示装置が支持機構によって支持された状態において、当該表示装置の画面と所定の角度をなすように位置する半透過鏡の背後に存在する実物体の状態を検出するステップと、半透過鏡に表示画像が反射した際、当該半透過鏡を透過する前記実物体の像と融合して見えるように、実物体の状態に応じた前記表示画像を生成するステップと、を含むことを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、表示画像を用いてより臨場感のある世界を構築することができる。
本実施の形態のシステム構成例を示す図である。 図1で示したシステム構成をより詳細に説明するための図である。 (a)は情報処理装置の前面を示す図であり、(b)は情報処理装置の背面を示す図である。 (a)は情報処理装置の上面を示す図であり、(b)は情報処理装置の下面を示す図であり、(c)は情報処理装置の左側面を示す図である。 情報処理装置の回路構成を示す図である。 本実施の形態における情報処理装置の機能ブロックを示す図である。 本実施の形態において凸部分を設けた場合の支持機構の構造例を示す図である。 本実施の形態においてコンテンツデータ記憶部に格納される、実世界の状況に合わせて表示画像を決定するためのデータの構造例を示す図である。 本実施の形態における表示形態の一例を示す図である。 本実施の形態における表示形態の別の例を示す図である。 本実施の形態における実物体に動作機能を設けたうえで表示画像と連動させる態様における実物体の機能ブロックを示す図である。 本実施の形態において動作パターン記憶部に格納するデータの構造例を示す図である。 本実施の形態の表示画像と実物体を連動させる態様において、投影器の前方から見た状態の変化例を示す図である。 図13の上段および下段の状態において表示される画像を示す図である。 本実施の形態において実物体室を内部に設けない構造の投影器の構成例を示す図である。 図15で示した態様をより詳細に説明するための図である。 本実施の形態の変形例において、情報処理装置と実物体室との間に別のレンズを導入する場合の投影器の構造を示す図である。
 本実施の形態では入射光の一部を反射し一部を透過させるハーフミラー(半透過鏡)を利用して、人形、ロボット、フィギュア、立体造形物など実世界に存在する物と、ディスプレイに表示させた画像とを実世界において融合する。表示画像と融合させる実世界の対象物の形状、種類、大きさは特に限定されないが、以後の説明では「実物体」と総称する。図1は本実施の形態のシステム構成例を示している。画像融合システム2は、情報処理装置10と投影器112を含む。投影器112は、実物体(同図では猫のフィギュア)114を置く空間を構成する実物体室3と、画面が実物体室3に対し所定の角度を維持するように情報処理装置10を支持する支持機構116を含む。
 図1の場合、投影器112は机などの水平面に置かれた略箱形の形状を有するため、支持機構116は、情報処理装置10の画面を下向きに置くことのできる天板で構成している。ただし実物体室3や支持機構116の形状はこれに限らない。またそれらの形状や実現する機能に応じて情報処理装置10に傾斜が求められる場合、支持機構116には情報処理装置10を固定する器具を設けるなどしてもよい。また同図において情報処理装置10は、表示装置と一体的に構成される携帯端末である。一方、情報処理装置10本体を表示装置と無線または有線で接続した別の個体としてもよい。この場合、支持機構116は表示装置を支持することになる。
 図1の例において投影器112の前面は、情報処理装置10が表示する画像を前方に反射させると同時に、実物体室3の内部を視認できるハーフミラー118で構成する。すなわち支持機構116である天板と鋭角をなすようにハーフミラー118を設置することにより、情報処理装置10の画面に表示された画像が投影器112の前方から見えるようにする。そして、ハーフミラー118の背後にある実物体室3内部に置かれた実物体114とハーフミラー118に映る画像とが重畳されて見えるようにすることにより、実物体114と表示画像とを実世界で融合させる。
 図1の例では、実物体114であるフィギュアの頭部近傍に「こんにちは!」と記載された吹き出し120a、フィギュアの胸にマーク120bが表示されている。これらは、情報処理装置10が表示している画像である。図示するように支持機構116を天板とする場合、当該天板を透明度の高い樹脂やガラスなどで構成することにより、情報処理装置10からの光をハーフミラー118に少ない損失で透過させることが望ましい。ただし支持機構116を、情報処理装置10の両端で支持する構造とした場合などは、必ずしも画面とハーフミラー118の間に板等を設けなくてもよい。
 ハーフミラー118で反射した像は、前方から見ると、実物体室3内の物の表面に重畳して見えるため、背景や別のキャラクタなどをフィギュアの背後にあるように表示する場合は、投影器112の背面122は、透過性の低い素材や不透明な素材で構成する。投影器112の側面は、樹脂板などで構成し密閉空間を形成してもよいし、開口部としてユーザが実物体114を自由に動かせるようにしてもよい。
 投影器112の底面124は、透明、不透明に関わらず一般的な板としてもよいし、情報処理装置10と接続したタッチパッドとしてもよい。後者の場合、当該タッチパッドに対する接触部分を検知することにより、実物体室3における実物体114の位置を取得できる。あるいは底面124を、情報処理装置10と接続した別の表示装置としてもよい。この場合、実物体114の底面に光学センサを設ければ、情報処理装置10から実物体114への信号を輝度変化などを利用して伝達することができる。または底面124を、透明なタッチパッドとその下に設けた表示装置からなるタッチパネルとし、上記の機能を同時に実現できるようにしてもよい。
 図2は、図1で示した態様をより詳細に説明するための図である。まず同図左側は、投影器112を右側面から見た状態を示している。上述したように、投影器112のハーフミラー118と背面122の間の実物体室3に、実物体114が置かれる。また支持機構116である天板上に情報処理装置10が画面を下向きにして載置される。すると情報処理装置10で表示された画像は太線矢印で示すように、ハーフミラー118で反射して前方にあるユーザの視点126に到達する。
 このときハーフミラー118を介して実物体114も同時に見えるため、図1に示すように、ユーザには実物体114に吹き出しやマークが付されているように見える。表示画像がハーフミラー118に反射することにより見える画像127は、図2の右下に示すように、吹き出し120aおよびマーク120bで構成される。なおこれらの画像と実物体114との位置関係から、吹き出し120aは投影器112の背面122に、マーク120bは実物体114に、それぞれ重畳して見えることになる。このような画像127を視認させるため、情報処理装置10は画面129を生成する。
 すなわち情報処理装置10の画面とハーフミラー118前面のなす角度をθ、ハーフミラー118を正面から見たときの視野座標系の原点を、図示するようにハーフミラー118の左上端とすると、座標(x,y)の位置に見える点は、情報処理装置10の画面129上の位置座標(X,Y)=(x,y/tanθ)の位置に表示すればよい。なお情報処理装置10の画面129上の位置座標は、図示するように、投影器112に載置した状態の情報処理装置10において後側に位置する辺の左端を原点としている。例えば角度θが45°であれば、反射させて見せるべき画像を上下反転した画像を表示すればよいことになる。
 次に情報処理装置10の外観構成例および回路構成例を説明する。ただしここで示す情報処理装置は一例であり、他の種類の電子機器、端末装置であってもよい。図3(a)は、情報処理装置10の前面を示す。情報処理装置10は、横長の筐体により形成され、ユーザが把持する左右の領域は、円弧状の外郭を有している。情報処理装置10の前面には、矩形のタッチパネル50が設けられる。タッチパネル50は、表示装置20と、表示装置20の表面を覆う透明な前面タッチパッド21から構成される。表示装置20は有機EL(Electro-Liminescence)パネルであり、画像を表示する。なお表示装置20は液晶パネルなどの表示手段であってもよい。前面タッチパッド21は、同時にタッチされた複数ポイントの検出機能をもつマルチタッチパッドであって、タッチパネル50はマルチタッチスクリーンとして構成される。
 タッチパネル50の右側には、菱形の頂点にそれぞれ位置する△ボタン22a、○ボタン22b、×ボタン22c、□ボタン22d(以下、総称する場合には「操作ボタン22」とよぶ)が設けられ、タッチパネル50の左側には、上キー23a、左キー23b、下キー23c、右キー23d(以下、総称する場合には「方向キー23」とよぶ)が設けられる。ユーザは方向キー23を操作して、上下左右および斜方の8方向を入力できる。
 方向キー23の下側には左スティック24aが設けられ、また操作ボタン22の下側には右スティック24bが設けられる。ユーザは左スティック24aまたは右スティック24b(以下、総称する場合には「アナログスティック24」とよぶ)を傾動して、方向および傾動量を入力する。筐体の左右頂部には、Lボタン26a、Rボタン26bが設けられる。操作ボタン22、方向キー23、アナログスティック24、Lボタン26a、Rボタン26bは、ユーザが操作する操作手段を構成する。
 操作ボタン22の近傍に、前面カメラ30が設けられる。左スティック24aの左側および右スティック24bの右側には、それぞれ音声を出力する左スピーカ25aおよび右スピーカ25b(以下、総称する場合には「スピーカ25」とよぶ)が設けられる。また左スティック24aの下側にHOMEボタン27が設けられ、右スティック24bの下側にSTARTボタン28およびSELECTボタン29が設けられる。
 図3(b)は、情報処理装置10の背面を示す。情報処理装置10の背面には、背面カメラ31および背面タッチパッド32が設けられる。背面タッチパッド32は、前面タッチパッド21と同様に、マルチタッチパッドとして構成される。情報処理装置10は、前面および背面において、2つのカメラおよびタッチパッドを搭載している。
 図4(a)は、情報処理装置10の上面を示す。既述したように、情報処理装置10の上面の左右端側に、Lボタン26a、Rボタン26bがそれぞれ設けられる。Lボタン26aの右側には電源ボタン33が設けられ、ユーザは、電源ボタン33を押下することで、電源をオンまたはオフする。なお情報処理装置10は、操作手段が操作されない時間(無操作時間)が所定時間続くと、サスペンド状態に遷移する電力制御機能を有している。情報処理装置10がサスペンド状態に入ると、ユーザは電源ボタン33を押下することで、情報処理装置10をサスペンド状態からアウェイク状態に復帰させることができる。
 ゲームカードスロット34は、ゲームカードを差し込むための差込口であり、この図では、ゲームカードスロット34がスロットカバーにより覆われている状態が示される。なおゲームカードスロット34の近傍に、ゲームカードがアクセスされているときに点滅するLEDランプが設けられてもよい。アクセサリ端子35は、周辺機器(アクセサリ)を接続するための端子であり、この図ではアクセサリ端子35が端子カバーにより覆われている状態が示される。アクセサリ端子35とRボタン26bの間には、ボリュームを調整するための-ボタン36aと+ボタン36bが設けられている。
 図4(b)は、情報処理装置10の下面を示す。メモリカードスロット37は、メモリカードを差し込むための差込口であり、この図では、メモリカードスロット37が、スロットカバーにより覆われている状態が示される。情報処理装置10の下面において、音声入出力端子38、マイク39およびマルチユース端子40が設けられる。マルチユース端子40はUSB(Universal Serial Bus)に対応し、USBケーブルを介して他の機器と接続できる。
 図4(c)は、情報処理装置10の左側面を示す。情報処理装置10の左側面には、SIMカードの差込口であるSIMカードスロット41が設けられる。
 図5は、情報処理装置10の回路構成を示す。各構成はバス92によって互いに接続されている。無線通信モジュール71はIEEE802.11b/g等の通信規格に準拠した無線LANモジュールによって構成され、無線アクセスポイントなどを介してインターネットなどの外部ネットワークに接続する。なお無線通信モジュール71は、ブルートゥース(登録商標)プロトコルの通信機能を有してもよい。携帯電話モジュール72は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT-2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応し、携帯電話網4に接続する。SIMカードスロット41には、携帯電話の電話番号を特定するための固有のID番号が記録されたSIMカード74が挿入される。SIMカード74がSIMカードスロット41に挿入されることで、携帯電話モジュール72は、携帯電話網4との間で通信可能となる。
 CPU(Central Processing Unit)60は、メインメモリ64にロードされたプログラムなどを実行する。GPU(Graphics Processing Unit)62は、画像処理に必要な計算を実行する。メインメモリ64は、RAM(Random Access Memory)などにより構成され、CPU60が使用するプログラムやデータなどを記憶する。ストレージ66は、NAND型フラッシュメモリ(NAND-type flash memory)などにより構成され、内蔵型の補助記憶装置として利用される。
 モーションセンサ67は、情報処理装置10の動きを検出し、地磁気センサ68は、3軸方向の地磁気を検出する。GPS制御部69は、GPS衛星からの信号を受信し、現在位置を算出する。前面カメラ30および背面カメラ31は、画像を撮像し、画像データを入力する。前面カメラ30および背面カメラ31は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)によって構成される。表示装置20は、有機EL表示装置であり、陰極および陽極に電圧を印加することで発光する発光素子を有する。なお表示装置20はバックライトを備えた液晶パネル表示装置であってもよい。
 インタフェース90において、操作部70は、情報処理装置10における各種操作手段を含み、具体的には、操作ボタン22、方向キー23、アナログスティック24、Lボタン26a、Rボタン26b、HOMEボタン27、STARTボタン28、SELECTボタン29、電源ボタン33、-ボタン36a、+ボタン36bを含む。前面タッチパッド21および背面タッチパッド32は、マルチタッチパッドであり、前面タッチパッド21は、表示装置20の表面に重ね合わせて配置される。スピーカ25は、情報処理装置10の各機能により生成される音声を出力し、マイク39は、情報処理装置10の周辺の音声を入力する。音声入出力端子38は、外部のマイクからステレオ音声を入力し、外部のヘッドホンなどへステレオ音声を出力する。
 ゲームカードスロット34には、ゲームファイルを記録したゲームカード76が差し込まれる。ゲームカード76は、データの書込可能な記録領域を有しており、ゲームカードスロット34に装着されると、メディアドライブにより、データの書込み/読出しが行われる。メモリカードスロット37には、メモリカード78が差し込まれる。メモリカード78は、メモリカードスロット37に装着されると、外付け型の補助記憶装置として利用される。マルチユース端子40は、USB端子として利用でき、USBケーブル80を接続されて、他のUSB機器とデータの送受信を行う。アクセサリ端子35には、周辺機器が接続される。
 図6は、情報処理装置10の機能ブロックを示す。この図では特に、図5のCPU60、GPU62、メインメモリ64、ストレージ66によって実現される機能を制御部130として示している。制御部130に含まれる各機能ブロックは、ハードウェア的には、上記のとおりCPU60、GPU62、メインメモリ64などで構成することができ、ソフトウェア的には、情報処理装置10内の各種記憶装置や装着された記録媒体からメインメモリ64にロードしたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 制御部130は、情報処理装置10に対するユーザ操作を受け付けるユーザ操作受付部132、実物体を含む実世界の状態を認識する状態認識部134、表示装置20に表示する画像を生成する表示画像生成部138、表示画像の生成に用いる各種データを格納するコンテンツデータ記憶部136を含む。後述するように実物体を動作可能に構成する場合、制御部130はさらに、実物体と表示画像との動きの同期処理を行う実物体同期処理部140を含む。
 ユーザ操作受付部132は、図5に示した操作部70、前面タッチパッド21、および背面タッチパッド32の少なくともいずれかを介したユーザ操作を受け付ける。例えば情報処理装置10が投影器112に置かれる前に、表示すべき画像やコンテンツを選択するユーザ操作を、操作部70もしくは前面タッチパッド21を介して受け付ける。選択された画像やコンテンツに係る情報は表示画像生成部138に通知される。あるいは、投影器112に置かれた状態で画像を表示している段階で、背面タッチパッド32に対するタッチ操作を受け付ける。この場合もユーザ操作受付部132が、当該操作がなされたことを表示画像生成部138に通知することにより、タッチ操作に応じた変化を表示中の画像に与える。
 ここでタッチ操作として、タッチされたか否かのほか、タッチされた位置、タッチされた領域の形状(タッチが指先でなされたか手のひらでなされたかなどに依存)、タッチポイントの個数、タッチ時間、タッチポイントの移動先、タッチポイントの移動速度、などを判別し、その判別結果によって表示画像生成部138の処理を変化させてもよい。
 状態認識部134は、図5に示した前面カメラ30、前面タッチパッド21、モーションセンサ67、地磁気センサ68の少なくともいずれかから、実世界の状態、あるいは状態変化を取得する。例えば情報処理装置10が投影器112に置かれた状態で、前面カメラ30が実物体室3を撮影した画像から、実物体の種類、置かれている位置、ポーズなどを特定する。具体的には、前面カメラ30の撮影画像中の像と、あらかじめ登録された実物体の形状とを比較することにより、一致度の高い像を検出してその位置を特定するとともに、登録情報からその実物体の種類やポーズを特定する。特定した情報は表示画像生成部138に通知する。
 このような構成により、実物体の位置、種類、ポーズ等によって表示画像に変化を与えることができる。結果として、表示画像を限定したり、ユーザがあらかじめ選択したりせずとも、実物体の種類やポーズなどに応じて臨機応変に画像を変化させることができる。実物体の種類や位置を高精度に特定するため、上面など前面カメラ30のレンズに向く実物体の面にバーコードなどのマーカーを装着しておき、撮影画像から検出し登録情報と照合してもよい。あるいは支持機構116の天板上面に、情報処理装置10の前面タッチパッド21への部分的な接触を発生させる凸部分を設け、その位置によって表示する画像やコンテンツを変化させてもよい。
 図7はその場合の支持機構116の構造例を示している。支持機構116のうち領域150は、情報処理装置10を載置した際、前面タッチパッド21が対向する領域である。当該領域150における所定の位置に、支持機構116である天板の上面から部分的に突出した凸部分152を設ける。これにより、情報処理装置10が置かれた状態において、状態認識部134は前面タッチパッド21を介して当該凸部分152の位置を特定し、表示画像生成部138に通知する。
 凸部分152の位置と表示すべき画像やコンテンツをあらかじめ対応づけておくことにより、表示画像生成部138は、実際の凸部分152の位置に応じた画像やコンテンツを表示する。なお凸部分152は、ハーフミラー118への画像投影の妨げにならないよう、領域150の縁近傍に設けることが望ましいが、その形状やサイズは特に限定されない。形状やサイズによって表示すべき画像やコンテンツを区別してもよい。
 このように凸部分152を設けることにより表示画像を切り替える場合、凸部分152の位置が異なる天板を複数用意し、表示させたい画像によって天板ごと取り替えられるようにしてもよいし、凸部分152の部品を1枚の天板の複数の位置に取り付け可能に構成してもよい。例えば凸部分152をネジの頭部とし、天板に複数のネジ穴を設けてもよい。凸部分152の裏面を接着部材で構成し、天板表面に接着できるようにしてもよい。
 図6に戻り、状態認識部134はさらに、モーションセンサ67や地磁気センサ68から、情報処理装置10の動きや傾きを特定し、表示画像生成部138に通知する。例えば支持機構116により情報処理装置10を投影器112に固定する構造とした場合、情報処理装置10の動きや傾きは、投影器112自体の動きや傾きを表している。したがってユーザが投影器112を傾けて置いたり、画像表示中に傾けたり振ったりした場合、その状態や動きをモーションセンサ67や地磁気センサ6を介して検出し、それに応じて画像を変化させる。
 モーションセンサ67や地磁気センサ68のほか、情報処理装置10には温度センサ、照度センサ、時計など何らかの物理量を検出するセンサのいずれかを設け、それらの検出値に応じて表示を変化させてもよい。情報処理装置10のマイク39が取得した周囲の音声に基づき表示を変化させてもよい。また上述のように投影器112の底面をタッチパッドで構成した場合、状態認識部134は、実物体の置かれた位置を当該タッチパッドを介して取得する。これにより、前面カメラ30による撮影画像以外の手段で実物体の位置を特定できることになる。また実物体の底面の形状や接地点の位置関係を、実物体の種類やポーズによって独特なものとすれば、底面のタッチパッドへの接触形状に基づき、実物体の種類やポーズも特定できる。
 表示画像生成部138は、ユーザ操作受付部132および状態認識部134から通知された情報に従い、表示すべき画像、例えば図2の画面129のような画像のデータを生成し、表示装置20に出力する。ここで生成する画像は、静止画像でも動画像でもよいし、それらが画面内で混在していてもよい。コンテンツデータ記憶部136には、通知された情報に応じて表示すべき画像やコンテンツ、表示すべき位置、画像の変化のさせ方などに係る規則を格納しておく。例えば上述のように、実物体の種類、ポーズ、凸部分152の位置などによって表示画像を異ならせる場合、それらの識別情報と表示すべき画像とを対応づけたテーブルを格納しておく。
 また前面カメラ30の撮影画像から実物体の種類やポーズを特定する場合は、パターンマッチングに用いる基準画像やマーカーなどの情報も、実物体の種類やポーズに対応させて格納しておく。画像を表示中に背面タッチパッド32のタッチ操作がなされた場合や、モーションセンサ67による検出値が変化した場合などに応じて画像に与える変化の内容についても格納しておく。さらに、表示すべき画像のデータ自体も格納しておく。
 実物体同期処理部140は、実物体を動くように構成した場合に、画像と実物体とを同期させる処理を行う。ここで実物体は、情報処理装置10からの要求に従い動いてもよいし、情報処理装置10とは独立した要因により動いてもよい。後者の例として、ユーザが実物体に触れて移動させたりポーズを変化させたりしてもよいし、実物体を、別途用意したリモートコントローラにより動くロボットとしてもよい。あるいはネジ巻き人形のようにユーザの初期操作によって自動で動くようにしてもよい。情報処理装置10が投影器112に置かれたこと自体を初期操作として実物体が自動で動くようにしてもよい。この場合、投影器112に荷重センサを設けたり光学センサを設けたりして、投影器にかかる重さの変化や画面から発する光に基づき、情報処理装置10が置かれたことを検知する。
 情報処理装置10からの要求に従い実物体を動かす場合とは、あらかじめ組まれたプログラム通りに表示画像と実物体を動かす場合や、情報処理装置10へのユーザ操作によって表示画像と実物体を動かす場合などである。このとき実物体同期処理部140は、表示画像生成部138が生成する画像と連動するような動きを実物体に与えるための制御信号を、無線通信モジュール71を介して送信する。情報処理装置10とは独立した要因により実物体を動かす場合、実物体同期処理部140は、無線通信モジュール71を介して実物体からその動きに係る情報を受信し、表示画像生成部138に通知する。いずれにしろこれらの態様においては、情報処理装置10と実物体とは無線により通信を確立する。あるいは有線によって通信を確立してもよい。
 ただし情報処理装置10/実物体間の情報の送受は、このような通信回線を利用したものに限らない。例えば上述のように、投影器112の底面に別途表示装置を設けるとともに、実物体の底面に光学センサを設ければ、当該表示装置における輝度変化を、情報処理装置10から実物体への信号として利用することができる。あるいは実物体に、情報処理装置10の画面の所定の領域を撮影するカメラを設ければ、当該領域に情報に応じたバーコードなどのマーカーを表示することで、情報を伝達することができる。これらの態様において実物体同期処理部140は、投影器112の底面の表示装置に輝度変化を与えたり、情報処理装置10の画面の所定領域に所定のマーカーを表示するよう、表示画像生成部138に要求する。
 一方、通信回線を用いずに実物体から情報処理装置10へ動きの情報を伝達する手法としては次のようなものが考えられる。すなわち、上述のように前面カメラ30が実物体を含む空間を撮影することにより、一般的なパターンマッチングや視覚追跡の技術を用いてポーズの変化や移動を追跡する。あるいは投影器112の底面を上述のようにタッチパッドで構成することにより、実物体のポーズの変化や移動を、接触点の変化によって特定することもできる。これらの態様においては、状態認識部134が実物体同期処理部140を兼ねることになる。
 なお本実施の形態において表示装置と連動させる実物体の「動き」とは、実物体がポーズや向きを変化させたり移動したりしている最中の連続的な変化であってもよいし、そのような経過時間の前後における離散的な時点でのポーズ、向き、位置などの変化であってもよい。すなわち実物体が動いている最中に、表示画像を微少時間ごとに、それに合わせて変化させてもよいし、実物体が動き終わった時点で、そのときの状態に合わせて表示画像を一気に変化させてもよい。
 図8は、コンテンツデータ記憶部136に格納される、実世界の状況に合わせて表示画像を決定するためのデータの構造例を示している。表示画像設定テーブル300は、凸部分欄302、実物体欄304、ポーズ欄306、表示画像欄308、表示位置欄310を含む。この例では、図7で示した天板の凸部分152の位置、実物体の種類、ポーズによって、表示する画像を決定する。そのため凸部分欄302には天板における凸部分の位置座標を、実物体欄304およびポーズ欄306には、撮影画像などから取得できる実物体の種類やポーズの識別情報をそれぞれ格納し、それらの組み合わせに従い表示すべき画像の識別情報と表示位置を、表示画像欄308、表示位置欄310に格納する。
 例えば表示画像設定テーブル300の2行目、3行目は、凸部分が位置座標(X1,Y1)にあり、実物体が「猫」のフィギュアの「直立」したポーズであったとき、「こんにちは」なる吹き出しをフィギュアの頭部近傍に表示し、「マーク」をフィギュアの「胸」に表示することが設定されている。これにより図1で示したような表示形態を実現できる。4~6行目の、凸部分が位置座標(X2,Y2)にある場合は、「猫」のフィギュアに対しては「マーク」をフィギュアの「胸」に、「テレビ」のミニチュアに対しては、「テレビ番組A」なる動画をミニチュアの「画面」に表示する。さらに実物体室の背面には、その「全面」に「壁紙A」の画像を表示する。このように、実物体室内の実物体ごとに表示すべき画像を設定することもできる。
 なお表示位置欄310の記載は、同図では平易な表現としているが、実際には上述のとおり、実物体の各部位の位置を実世界で特定し、その位置にあるように見せるための画面上での位置を決定するため、同欄には、当該処理に必要な情報を格納する。その他の欄の記載形式も図示するものに限らない。また、表示画像を決定づける要素は図示する組み合わせに限らず、凸部分の位置を除いたり、温度や季節など別の要因を加えたりしてもよい。コンテンツデータ記憶部136にはさらに、上述のように画像表示中の状態変化やユーザ操作に応じた表示画像の変化についても、同様に対応づけて格納しておく。
 図9は上記構成による表示形態の一例を示しており、上段は情報処理装置10の画面に表示される画像、下段は図1で示した形状の投影器112の前方から見た状態である。なお下段において投影器112の支持機構およびその上面に置かれている情報処理装置10は図示を省略している。この例では実物体として猫のフィギュア160に加え、ミニチュアのテレビ162が投影器112内の実物体室に置かれているとする。
 そして情報処理装置10の画面には、猫のフィギュア160の胸部分に対応する位置にマーク164、ミニチュアのテレビ162の画面に対応する位置にテレビ画像166、背面に壁紙の模様168を表示する。この形態は、図8に示した表示画像設定テーブル300の4~6行目の記載に対応する。テレビ画像166を動画とすることにより、ミニチュアのテレビ162で実際にテレビ番組を見ているような状況を作り出せる。また壁紙の模様168は、猫のフィギュア160やミニチュアのテレビ162の背後にあるため、図9上段に示すように、マーク164やテレビ画像166を表示する領域を含む、猫のフィギュア160およびミニチュアのテレビ162に対応する領域には表示しない。
 これにより、本来は見えない壁紙の模様が猫の体やテレビの枠部分に映り込み、それらの位置関係が混沌とするのを防止する。猫のフィギュア160およびミニチュアのテレビの162を固定とした場合、コンテンツデータ記憶部136には、あらかじめ、それらに対応する領域をマスクした壁紙の画像データを格納しておけばよい。実物体をユーザが自由に配置できる形態とした場合は、上述のように、前面カメラ30の撮影画像などに基づきその位置を特定し、表示画像生成部138がマスク領域を決定する。
 マスク領域を正確に決定するため、および実物体に対し適切な位置およびサイズでマーク164やテレビ画像166などの画像を表示するため、コンテンツデータ記憶部136には、各実物体の詳細な形状およびサイズを登録しておくことが望ましい。これにより、パターンマッチングなどにより特定された実物体の位置に基づき、前方からの見かけ上のサイズおよび形状を精度よく導出できる。なお図9では背景全面に貼られた壁紙を例示したが、実物体の背後に別の生き物や物を表す場合も同様に、実物体の背後にある部分をマスクする。
 なお実物体を固定とした場合であっても、投影器112の支持機構116を単なる天板とするような場合は特に、前面カメラ30の撮影画像などを用いて、情報処理装置10に対する実物体の位置を正確に取得してもよい。これにより、情報処理装置10を無造作に天板に置くなどして、情報処理装置10の画面と実物体室の位置関係がその都度ずれても、実物体に対し正確な位置に画像を表示できる。また、情報処理装置10の上下のどちらが天板の手前側に置かれたかが判明するため、置かれた向きに応じて画面上の表示画像の天地を適切に切り替えることができる。
 ただし情報処理装置10がどのように置かれたかを特定する手段はこれに限らず、図7で示した、支持機構116の凸部分152を利用してもよい。すなわち情報処理装置10の前面タッチパッド21に対する凸部分152の位置を取得することにより、情報処理装置10の画面と投影器112の実物体室の位置関係を特定でき、ひいては情報処理装置10の置かれた位置や向きによらず画像を適切に表示できる。なおどのような位置にあっても情報処理装置10の筐体を構成する画面の縁部分がハーフミラー118に映り込まないよう、当該縁部分は黒色とすることが望ましい。
 図10は、同様の形状を有する投影器112による別の表示形態例を示している。この例では、ハーフミラー118背後の実物体室3を密閉空間として水170を封入する。すなわち水170が実物体である。そして情報処理装置10は、水170上に浮かぶアヒル172a、172b、172cを表示する。この状態でユーザが投影器112を傾けると、水面は投影器112の底面と平行でなくなる。水面は基本的に水平を維持し、投影器112の底面の傾きは情報処理装置10の傾きと一致するため、底面に対する水面の角度はモーションセンサ67あるいは地磁気センサ68からの出力値により判明する。
 したがって状態認識部134は、当該角度をセンサの出力値に基づき逐次取得し、表示画像生成部138に通知する。表示画像生成部138は、どのような傾きであっても水170の水面に対応する平面上にアヒル172a、172b、172cが存在するよう、画像を変化させる。例えば表示画像生成部138は、ワールド座標系の水平面に配置させたアヒル172a、172b、172cのオブジェクトに対するカメラ座標系を、情報処理装置10の傾きに応じて傾斜させたうえでオブジェクトを描画する。
 投影器112を傾けたときの水面の揺らぎを想定し、情報処理装置10を傾ける速度などをセンサ出力値から取得して、それに応じてアヒル172a、172b、172cも所定の規則で揺らぐように表示してもよい。外部の圧力変化や空気の流れを検知できるセンサを用いれば、投影器112の傾きがなくとも、実際の水面の揺れを検知して、アヒル172a、172b、172cの揺れをより厳密に表現できる。さらに、実物体室3の側壁に当たったアヒルが跳ね返る様子を表示させたりすることにより、より臨場感のある表示を実現できる。これらの処理には、既存の3次元グラフィックスの技術を適宜利用できる。
 さらにこの表示形態では、情報処理装置10の背面をユーザがタップすることにより、新たなアヒル172dが上から落ちてくるように表示する。この場合、情報処理装置10のユーザ操作受付部132が、背面タッチパッド32がタップされたことを検知し、表示画像生成部138に通知する。これにより表示画像生成部138は、新たなアヒル172dを表示対象に加え、実物体室3の上端から落下する様子を動画で表現する。
 なお図示するように投影器112が傾いている場合は、鉛直方向に落下するように見せるため、情報処理装置10における画面上では、アヒル172dが斜めに移動するように表示する。上記では実物体として、投影器112に水170を封入したが、投影器112の傾きによって変化が生じる物であれば水に限らず、砂、球体、車などでもよい。表示する画像も、封入する物によって様々なバリエーションが考えられる。また画像表示中に情報処理装置10の背面を操作することで画像に変化を与える態様は、実物体を封入する場合でなくても適用できる。例えば図9で示した表示形態において、ミニチュアのテレビ162の画面にスノーノイズの動画を表示させておき、情報処理装置10の背面がタップされたらテレビ番組の動画表示へ切り替える。この態様により、調子の悪いテレビが、叩くことで回復したような状況を演出できる。
 図10で示した形態は、実物体である水の状態変化に応じて表示画像を変化させる態様であったが、上述のように情報処理装置10と実物体との情報伝達によって、さらに細かい動きでも連動させることが可能である。図11は、実物体に動作機能を設けたうえで表示画像と連動させる態様における実物体の機能ブロックを示している。実物体180は、情報処理装置10の表示画像との動きの同期処理を行う画像同期処理部182、実物体180を実際に動かす動作部184、状況に応じた動作のパターンを格納する動作パターン記憶部186を含む。
 この態様において実物体180は、上述のとおり、情報処理装置10からの要求に従い動く場合と、情報処理装置10とは独立した要因により動く場合とが考えられる。実物体180は双方の態様を実現可能に構成してもよいし、いずれか一方の態様のみを実現できるようにしてもよい。実現させる態様によって、以下に述べる実物体180の機能の一部は適宜省略できる。
 まず実物体180を情報処理装置10からの要求に従い動かす場合、画像同期処理部182は、情報処理装置10の無線通信モジュール71と通信を確立する通信機構を含む。そして実物体同期処理部140から、実物体180がなすべき動きを規定する制御信号を受信する。あるいは画像同期処理部182に、情報処理装置10の画面の所定の領域に表示されたマーカーを撮影するカメラを含めてもよい。または、投影器112の底面を表示装置で構成した場合は、当該底面と接触する面に設けた光学センサとしてもよい。
 カメラを利用する場合、情報処理装置10は画面中、当該カメラの視野内にある所定の領域に、実物体がなすべき動きを規定するマーカーを表示する。光学センサを利用する場合、情報処理装置10は、投影器112の底面を構成する表示装置の画面のうち、光学センサが接する領域の輝度を、実物体がなすべき動きに対応づけられたパターンで変化させる。なお光学センサを実物体180の上面に設け、情報処理装置10の画面における輝度変化で動きを要求してもよい。投影器112の底面を表示装置とする場合は、画面上にタッチパッドを設け、実物体180の接地領域を特定したうえでその領域の輝度を変化させることにより、光学センサが確実に輝度変化を捉えるようにすることができる。
 実物体180を情報処理装置10とは独立した要因により動かす場合、画像同期処理部182は、情報処理装置10の無線通信モジュール71と通信を確立する通信機構を含み、動きに係る情報を送信する。例えば回転、右から左への移動、腕を挙げる、といった、複数の動きのパターンに対し識別情報を付与しておき、ユーザの初期操作やリモコン操作などにより発生した、実際の動きのパターンを表す識別情報を情報処理装置10に送信する。ただし上述のように、情報処理装置10の前面カメラ30による撮影画像中の像から動きを特定したり、投影器112の底面をタッチパッドで構成し、情報処理装置10が当該タッチパッドに対する接触位置から動きを特定したりする場合は、画像同期処理部182の機能を省略できる。
 実物体180であるフィギュアの腕を左右に開く、足を広げる、といった単純なポーズの変化は、撮影画像のパターンマッチングによって認識が可能である。足を広げる変化はタッチパッドによっても識別可能である。それらの手段では認識が困難な細かい動きについては、通信回線によって動きのパターンに係る情報を送信することが望ましい。したがって、実物体180に許容する動作の粒度、実物体の形状、許容されるコストなどに応じて、情報処理装置10に実物体180の動きを認識させる手段を適宜選択する。
 動作部184は、実物体180に設けた関節の角度を変化させたり、車輪を設ける場合は車軸を回転させたりするアクチュエータで構成する。アクチュエータによって動かせる箇所や動かす手法については、動くおもちゃや産業用ロボットなどの既存技術を利用でき、デザインや許容されるコストなどに応じて適宜選択する。動作部184としてはこのほか、振動子、発光体、ディスプレイ、音声再生機構、ブザーなどを含め、動作とともに音声や振動の発生、発光、所定の画像表示などを実施してもよい。なお実物体180の動きを、ユーザの手によるものに限定する場合は、動作部184の機能を省略できる。
 動作パターン記憶部186には、情報処理装置10から要求された動きを識別したり、独立した要因による動きを情報処理装置10に伝えるためのデータを格納する。図12は、動作パターン記憶部186に格納するデータの構造例を示している。動き情報テーブル400は、識別番号欄402、動き欄404、マーカー欄406、輝度変化パターン欄408を含む。この例では動き欄404に記載されるように、「回転」、「横方向移動」、「右腕を挙げる」、といった表現で各動きを表しているが、実際には変化させる部位、速度、移動量、角度の変化量などを詳細に規定してもよい。
 識別番号欄402には、各動きに付与した識別番号を記載する。通信回線を用いて、情報処理装置10から実物体180へ動きを要求する場合や、実物体180から実際の動きを情報処理装置10に伝達する場合、この識別番号を用いて動きを指定する。マーカー欄406には、情報処理装置10がマーカーを画面に表示することにより、実物体180のカメラを介して対応する動きを要求する際の、当該マーカーの識別情報を記載する。同図では「A」、「B」、「C」といった形式で識別情報を示しているが、フォーマットはマーカーの種類によって異なってよい。
 輝度変化パターン欄408には、情報処理装置10が投影器112の底面などの表示装置の輝度を変化させることにより、実物体180の光学センサを介して対応する動きを要求する際の、当該輝度変化のパターンを記載する。同図では「ON/OFF/OFF/ON」・・・などの形式でパターンを表現している。これは、輝度をON/OFFの2階調とし、微少の単位時間tを設定したとき、4単位時間(4t)の期間における輝度の変化で1つの動きを表した場合である。ただしこの場合も、表現する動きのバリエーションや用いる輝度の階調などによって、フォーマットは様々考えられる。
 なお動きの要求や伝達に用いる手段によって、動き情報テーブル400のうち、識別番号欄402、マーカー欄406、輝度変化パターン欄408のいずれかを選択的に有効とし、その他は設定を省略してもよい。いずれにしろ動き情報テーブル400に記載する情報は、情報処理装置10でもコンテンツデータ記憶部136などに共通に保持しておく。このような構成により、実物体180の動きを発生させる主体によらず、実物体180と表示画像とを矛盾なく連動させることができる。
 図13は、表示画像と実物体を連動させる態様において、投影器112の前方から見た状態の変化例を示している。なお同図において投影器112の支持機構およびその上面に置かれている情報処理装置は図示を省略している。この例では実物体として猫のロボット190が投影器112内の実物体室に置かれている。まず同図上段に示すように、ある時刻において猫のロボット190が右手と左足を挙げている。その後、ロボット190が徐々に動き、最終的に、同図下段のように、右手を前に出し、左足の代わりに右足を挙げた状態になったとする。
 このような動作は例えば、投影器112の支持機構に情報処理装置10を置いたり、別途用意したリモートコントローラの所定の操作ボタンを押下したり、といった、ユーザの初期操作によって発生させる。この場合、上述のような手段によって情報処理装置10が当該動きを認識する。そして表示画像生成部138は、ロボット190の右手の先に対応する位置にボール192、ボール192の回りに発光エフェクト194(同図では星マークで表現)などを表示する。このとき、必要に応じて前面カメラ30の撮影画像などからロボット190の位置などの情報を補う。
 また背景として、山や雲などの風景画像を、ロボット190に対応する領域をマスクしたうえで表示する。その後、ロボット190の手の動きに合わせてボール192を動かし、最終的には同図下段に示すように、ボール192が飛んでいくような画像を表示する。風景画像のマスク領域も、ロボット190の動きに合わせて変化させる。このように実物体と表示画像が連動することにより、猫のロボット190が光るボールを投げる様子を実世界で表現できる。
 図14は、図13の上段および下段の状態において表示される画像を示している。上述のように背景として表示する画像がロボット190に映り込まないように、ロボット190の輪郭内部は黒くマスクする。またロボット190の右手に対応する位置にボール192の画像を表示する。そしてそれらの画像をロボット190の動きに応じて徐々に変化させていくことにより、図13で示したような表示形態を実現できる。
 なおロボット190を動かすためのユーザの初期操作は、上記のように情報処理装置10と独立に行うことにより、ロボット190側から情報処理装置10にその旨を通知する場合のほか、情報処理装置10の背面をタップするなど、情報処理装置10を介してなされる場合もある。この場合は、情報処理装置10からの要求によってロボット190が動くことになる。このような画像と実物体との連動は、図示したようなオブジェとしての用途以外にも、様々な場面で利用できる。例えば実物体である自分のキャラクタのロボットが、表示により発生させた敵と戦ったり、ロボットのポーズによって、保持する武器や技の表示が変化したりする戦闘ゲームなどに用いることもできる。
 これまで述べた例では、投影器112の内部に実物体室を設けたが、表示画像を融合させる対象とする空間を、投影器112と分離することで、実世界にある様々な物を実物体として選択できるようにしてもよい。図15は実物体室を内部に設けない構造の投影器の構成例を示している。投影器200は、一般的な鏡である反射鏡204と、ハーフミラー206とを平行に設置し、情報処理装置10の表示画像を2回、反射させる構造を有する。ユーザは、ハーフミラー206越しに実物体210を見るように投影器200を手に持って移動させ、矢印の方向からのぞき込む。
 ハーフミラー206には、そのようにして見える実物体210と、反射鏡204に反射した、情報処理装置10の表示画像が同時に見えるようにする。このため、反射鏡204の下部には、当該反射鏡204の反射面と画面とが鋭角をなすように情報処理装置10を支持するための支持機構202を設ける。投影器200の底面および上面は開口部とし、反射鏡204とハーフミラー206は両側面の板で支持する。ただし底面、上面および側面の構造はこれによらず、例えば底面および上面を透明な樹脂板等で構成してもよい。
 同図の例では、実物体210はアクリル樹脂など透明性を有する箱である。そして情報処理装置10の画面に魚を表示することにより、実物体210である箱内に魚がいるように見せることができる。例えば魚が泳ぐときの動きを表示画像に与えれば、水槽の中で泳いでいる魚を観察しているような状況を作り出すことができる。
 図16は、図15で示した態様をより詳細に説明するための図であり、投影器200と実物体210を右側面から見た状態を示している。上述したように、情報処理装置10は、画面を上にして支持機構に支持された状態で画像を表示する。この画像は、まず反射鏡204によりハーフミラー206の方向へ反射する(矢印a、b)。そしてハーフミラー206で再び反射して、ユーザの視点220に到達する(矢印b、c)。このときハーフミラー206を介して実物体210も同時に見えるため、図15に示すように、ユーザには実物体210の箱の中で表示画像である魚が泳いでいるように見える。
 投影器200を動かして、実物体210の別の面を見ても、同様の表示画像が見えるため、実際に水槽を観察している臨場感を与えることができる。なおこの態様では、投影器200と実物体210との距離を自由に変化させることができるため、当該距離に応じて表示画像の大きさも変化させることが望ましい。つまり投影器200が実物体210に近づくほど魚などの表示画像を大きくすることで、より臨場感が増す。そのため実物体には、所定の図形やバーコードを表したマーカーを取り付けてもよい。
 この場合、情報処理装置10の背面カメラ31または前面カメラ30が当該マーカーを撮影することにより、その像の大きさから、投影器200と実物体210との距離を特定する。そして当該距離に反比例するように表示画像のサイズを変化させればよい。撮影画像におけるマーカーの見え方によって、実物体210に対する投影器200の角度を特定し、それに応じて表示している対象物の角度を変化させてもよい。図15の例では、実物体210である箱を正面から見たときと、斜め前から見たときとで、表示する魚の角度を変化させることで、実在する魚を様々な方向から見るのと同様の状態を作り出せる。
 さらに当該マーカーの図形を、実物体により異ならせることにより、表示画像を実物体に応じて切り替えてもよい。例えば上述のように透明な箱を実物体としたときは魚を、花のオブジェを実物体としたときは蝶を表示させるなどの規則を設定する。そして各実物体に取り付けたマーカの情報と当該規則をコンテンツデータ記憶部136に格納しておけば、投影器200を実物体に向けるのみで、適切な画像を表示し、当該実物体に融合させることができる。
 以上述べた本実施の形態によれば、情報処理装置が表示した画像と実物体とを、ハーフミラーを用いて実世界で融合させる。具体的には、ハーフミラーから透過して見える実物体に合致する位置で、適切な表示画像が反射して見えるように、情報処理装置からハーフミラーへ画像を投影する。これにより、実物体では表現が困難な、物の浮遊や発生/消滅、微細な動きや色の変化などの事象を実物体と組み合わせることができ、実物体をより魅力的に見せることができるとともに、実物体の存在によって表示画像にも臨場感を与えることができる、という相乗効果を得ることができる。
 また、実物体の種類、ポーズ、位置、動きなどを情報処理装置に備えたカメラ、通信機構、または接続したタッチパッドなどを利用して特定し、それに合致するように表示画像を変化させる。あるいは、情報処理装置の背面タッチパッドなどを利用したユーザ操作や、あらかじめ組まれたシナリオなどに応じて、情報処理装置が表示画像を変化させつつ実物体を連動させる。このような構成により、表示画像のみならず実物体にも様々な変化を与えることができる。結果として、上記の相乗効果をより発揮できるとともに、単に見せるだけでなく動かしてみる楽しみをユーザに与えることができる。また実物体の状態を選択する自由度が格段に増す。
 また反射鏡を利用して表示画像を多段階に反射させることにより、投影器の外部にあるあらゆる物を、画像と融合させることができる。このときマーカーなどを利用して、投影器と実物体との距離や角度を特定し、それに応じて表示する対象物のサイズや向きを変化させることにより、実物体の見た目の変化と整合性のある画像を表示できる。結果として、投影器を持って動かしている、という状況に合致した臨場感のある画像表現を実現できる。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 例えば本実施の形態では、ハーフミラーを平板としていたが、凹面形状を有する凹面ハーフミラーとしてもよい。凹面ハーフミラーと情報処理装置の画面との距離を、焦点距離に応じて調整することにより、一般的な凹面鏡と同様、反射によって形成された実像が鏡面より前にあるように見せることができる。その結果、実物体室内の実物体より前にある物を、表示画像で表現することができる。
 ただしこの場合、画像として表示する対象物のサイズが大きくなるほど、実像の上下左右の歪みが視認されやすくなる。またこの歪みは、観察者の位置や角度に依存して変化する。この歪みを補正するため、次のような処理を行ってもよい。
(1)表示すべき対象物を、ハーフミラーの凹面形状による歪みを相殺するような形状を有する仮想的な曲面にテクスチャマッピングしてなる画像を表示する。
(2)別途導入したカメラにより観察者の位置を検出し、それに応じて画像の表示位置や形状を変化させる。
(3)キャリブレーションとして、情報処理装置から格子模様の画像を凹面ハーフミラーに投影し、その反射画像を前面カメラなどのカメラで撮影することにより、凹面の詳細な形状や情報処理装置との位置関係を取得し、画像の補正に用いる。
 上記処理を適宜組み合わせることにより、手前側に存在する物を違和感なく表示することができる。また(2)の処理において観察者の位置に応じて画像の表示位置や形状を最適化することにより、表示画像に、より立体感を与えることができる。別の変形例として、平板のハーフミラーと凹面ハーフミラーを組み合わせてもよい。例えばハーフミラーの中央部分のみ凹面とすることにより、当該領域に反射させた画像は飛び出して見え、それ以外の領域に反射させた画像は実物体や背面に重畳して見えるようになる。結果として、実物体の前にある表示画像、実物体、実物体上の表示画像、実物体の後にある表示画像、を同時に見せることができ、表現の幅を格段に広げることができる。
 さらに、情報処理装置と実物体室との間に別のレンズを導入することにより表示画像を立体視できるようにしてもよい。図17はその場合の投影器の構造を、右側面から見た状態で示している。同図において投影器250は、図2などで示した投影器112のうち、情報処理装置10の支持機構116とハーフミラー118の間に、レンズ252を加えた構成を有する。なおレンズ252は、情報処理装置10の画面と平行になるように設置する。例えばレンズ252を凸レンズとすることにより、凹面ハーフミラーと同様に、視点126側に表示画像が飛び出して見えるようにできる。
 またレンズ252を、画素の発光方向を左右に振り分けることで1つの表示画像から両眼視差を作り出し立体視させるレンチキュラーレンズのようなマイクロレンズアレイとしてもよい。この場合、当該レンズ自体がハーフミラー118に映り込むため、部分的に用いるなどの工夫により、それ以外の領域から実物体114も自然に見えるようにすることが望ましい。
 さらに本実施の形態では、ハーフミラーを用いて画像を融合させた実物体を観察する投影器としての機能に主眼を置いて説明したが、この機能を、それ以外の機能と組み合わせてもよい。例えば図1で示したような形状を有する充電器などのクレードルとして実現しもよい。これにより、情報処理装置を載置して充電など他の作業をしながら、実物体と表示画像との融合も同時に楽しめるようになる。当該他の作業の進捗状況に応じて表示画像を変化させるなど、さらなる要素の融合を図ってもよい。
 2 画像融合システム、 10 情報処理装置、 20 表示装置、 21 前面タッチパッド、 32 背面タッチパッド、 60 CPU、 64 メインメモリ、 67 モーションセンサ、 68 地磁気センサ、 70 操作部、 71 無線通信モジュール、 112 投影器、 114 実物体、 116 支持機構、 118 ハーフミラー、 130 制御部、 132 ユーザ操作受付部、 134 状態認識部、 136 コンテンツデータ記憶部、 138 表示画像生成部、 140 実物体同期処理部、 180 実物体、 182 画像同期処理部、 184 動作部、 186 動作パターン記憶部、 200 投影器、 204 反射鏡、 206 ハーフミラー、 250 投影器、 252 レンズ。
 以上のように本発明はコンピュータ、ゲーム機、情報端末、表示装置などの情報処理装置や玩具などに利用可能である。

Claims (17)

  1.  表示装置に画像を表示させる情報処理装置と、
     前記表示装置に表示された画像を反射させるとともに背後に存在する実物体の像を透過させる半透過鏡と、
     前記半透過鏡の反射面と前記表示装置の画面とを所定の角度に保つ支持機構と、
     を備え、
     前記情報処理装置は、前記半透過鏡において反射する画像と、透過する実物体の像とが融合して見えるように、前記実物体の状態に応じた画像を前記表示装置に表示させる表示画像生成部を備えることを特徴とする画像融合システム。
  2.  前記情報処理装置は、前記実物体の動きと対応するように変化する動画像を前記表示装置に表示させることを特徴とする請求項1に記載の画像融合システム。
  3.  前記情報処理装置は、前記半透過鏡の背後の空間をカメラが撮影した画像を取得し、当該撮影画像を解析することにより、前記実物体の状態を特定する状態認識部をさらに備え、
     前記表示画像生成部は、前記状態認識部が特定した実物体の状態に応じて、表示画像を生成することを特徴とする請求項1または2に記載の画像融合システム。
  4.  前記情報処理装置は、前記半透過鏡の背後の空間に関する所定の物理量を検出するセンサの出力値から、表示画像を変化させるべき状況の発生を検知して、その旨を前記表示画像生成部に通知する状態認識部をさらに備え、
     前記表示画像生成部は、前記状態認識部からの通知に応じて、表示画像を変化させることを特徴とする請求項1または2に記載の画像融合システム。
  5.  前記情報処理装置は、表示画像に合わせて前記実物体を動作させるための要求情報を出力する実物体同期処理部をさらに備え、
     前記実物体は、
     当該要求情報を取得する画像同期処理部と、
     前記要求情報に従う動きで当該実物体を動かす動作部と、
     を備えることを特徴とする請求項1から4のいずれかに記載の画像融合システム。
  6.  前記情報処理装置の前記実物体同期処理部は、前記実物体に要求する動作に対応するマーカーを前記表示装置に表示させることにより前記要求情報を出力し、
     前記実物体の前記画像同期処理部は、前記マーカーをカメラで撮影することにより、前記要求情報を取得することを特徴とする請求項5に記載の画像融合システム。
  7.  前記情報処理装置の前記実物体同期処理部は、前記実物体が接地する面を構成する表示装置の接地領域の輝度を、前記実物体に要求する動作に対応するパターンで変化させることにより前記要求情報を出力し、
     前記実物体の前記画像同期処理部は、前記輝度の変化のパターンを光学センサで特定することにより、前記要求情報を取得することを特徴とする請求項5に記載の画像融合システム。
  8.  前記支持機構は、前記表示装置を支持した際、当該表示装置の画面に接触する凸部分を備え、
     前記表示画像生成部は、前記表示装置の画面表面に設けたタッチパッドから、前記支持機構における前記凸部分の位置を取得し、当該位置に応じて前記表示装置に表示させる画像を変化させることを特徴とする請求項1から7のいずれかに記載の画像融合システム。
  9.  前記表示画像生成部は、前記実物体の背後に存在すべき表示画像の、前記半透過鏡における反射画像が、当該半透過鏡において透過する実物体の像と重なる場合、当該表示画像のうち前記実物体の像と重なる領域をマスクしたうえで前記表示装置に表示させることを特徴とする請求項1から8のいずれかに記載の画像融合システム。
  10.  前記表示画像生成部は、前記実物体が接地する面を構成するタッチパッドからの接触点にかかる情報に基づき、前記実物体の位置を特定し、それに応じて表示装置に表示させる画像を変化させることを特徴とする請求項1から9のいずれかに記載の画像融合システム。
  11.  前記情報処理装置は、前記半透過鏡の背後の空間をカメラが撮影した画像を取得し、当該撮影画像を解析することにより、前記実物体と前記半透過鏡との相対位置を特定する状態認識部をさらに備え、
     前記表示画像生成部は、前記状態認識部が特定した前記相対位置の変化に応じて、表示画像を変化させることを特徴とする請求項1に記載の画像融合システム。
  12.  前記半透過鏡の少なくとも一部の領域は視点に対し凹面の形状を有することを特徴とする請求項1から10のいずれかに記載の画像融合システム。
  13.  接続した表示装置に画像を表示させる情報処理装置であって、
     前記表示装置が支持機構によって支持された状態において、当該表示装置の画面と所定の角度をなすように位置する半透過鏡の背後に存在する実物体の状態を検出する状態認識部と、
     前記半透過鏡に表示画像が反射した際、当該半透過鏡を透過する前記実物体の像と融合して見えるように、前記実物体の状態に応じた前記表示画像を生成する表示画像生成部と、
     を備えることを特徴とする情報処理装置。
  14.  請求項13に記載の情報処理装置と、当該情報処理装置が生成した画像を表示する表示装置と、を備えたことを特徴とする情報端末。
  15.  情報処理装置が、接続された表示装置に画像を表示させる情報処理方法であって、
     前記表示装置が支持機構によって支持された状態において、当該表示装置の画面と所定の角度をなすように位置する半透過鏡の背後に存在する実物体の状態を検出するステップと、
     前記半透過鏡に表示画像が反射した際、当該半透過鏡を透過する前記実物体の像と融合して見えるように、前記実物体の状態に応じた前記表示画像を生成するステップと、
     を含むことを特徴とする情報処理方法。
  16.  コンピュータに、接続された表示装置に画像を表示させるコンピュータプログラムであって、
     前記表示装置が支持機構によって支持された状態において、当該表示装置の画面と所定の角度をなすように位置する半透過鏡の背後に存在する実物体の状態を検出する機能と、
     前記半透過鏡に表示画像が反射した際、当該半透過鏡を透過する前記実物体の像と融合して見えるように、前記実物体の状態に応じた前記表示画像を生成する機能と、
     をコンピュータに実現させることを特徴とするコンピュータプログラム。
  17.  コンピュータに、接続された表示装置に画像を表示させるコンピュータプログラムを記録した記録媒体であって、
     前記表示装置が支持機構によって支持された状態において、当該表示装置の画面と所定の角度をなすように位置する半透過鏡の背後に存在する実物体の状態を検出する機能と、
     前記半透過鏡に表示画像が反射した際、当該半透過鏡を透過する前記実物体の像と融合して見えるように、前記実物体の状態に応じた前記表示画像を生成する機能と、
     をコンピュータに実現させるコンピュータプログラムを記録した、コンピュータにて読み取り可能な記録媒体。
PCT/JP2015/055412 2014-04-25 2015-02-25 画像融合システム、情報処理装置、情報端末、および情報処理方法 WO2015162991A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014091795A JP6396070B2 (ja) 2014-04-25 2014-04-25 画像融合システム、情報処理装置、情報端末、および情報処理方法
JP2014-091795 2014-04-25

Publications (1)

Publication Number Publication Date
WO2015162991A1 true WO2015162991A1 (ja) 2015-10-29

Family

ID=54332163

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/055412 WO2015162991A1 (ja) 2014-04-25 2015-02-25 画像融合システム、情報処理装置、情報端末、および情報処理方法

Country Status (2)

Country Link
JP (1) JP6396070B2 (ja)
WO (1) WO2015162991A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107490859A (zh) * 2016-08-31 2017-12-19 福建蓝帽子互动娱乐科技股份有限公司 一种实现虚实结合的成像装置及系统和方法
US10422993B2 (en) * 2013-08-01 2019-09-24 Bandai Co., Ltd. Image display device and program

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017183825A (ja) * 2016-03-28 2017-10-05 京セラ株式会社 ヘッドマウントディスプレイ
CN106453837A (zh) * 2016-09-12 2017-02-22 芜湖能盟信息技术有限公司 一种全息投影手机壳
JP2018116471A (ja) * 2017-01-18 2018-07-26 富士通株式会社 表示制御方法、装置及びプログラム
WO2018169018A1 (ja) 2017-03-17 2018-09-20 富士フイルム株式会社 画像表示システム
JP7078221B2 (ja) * 2018-03-30 2022-05-31 株式会社バンダイナムコアミューズメント 投影システム
JP7448142B2 (ja) 2020-01-23 2024-03-12 株式会社ユピテル 表示装置等
KR102411533B1 (ko) * 2020-06-25 2022-06-22 (주)네오인터넷 로봇 인터렉션 홀로그램 디스플레이 시스템 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101477A (ja) * 1995-10-04 1997-04-15 Canon Inc 情報表示装置
JP2002182150A (ja) * 2000-12-15 2002-06-26 Konami Co Ltd 虚像・実物合成表示装置およびスロットゲーム装置
JP2003296759A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP2009067368A (ja) * 2007-09-18 2009-04-02 Denso Corp 表示装置
JP2009136398A (ja) * 2007-12-04 2009-06-25 Daito Giken:Kk 表示機能拡張装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3927921B2 (ja) * 2003-05-19 2007-06-13 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP2009070076A (ja) * 2007-09-12 2009-04-02 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成装置
JP6249817B2 (ja) * 2014-02-25 2017-12-20 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像表示方法、画像表示プログラム及び記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101477A (ja) * 1995-10-04 1997-04-15 Canon Inc 情報表示装置
JP2002182150A (ja) * 2000-12-15 2002-06-26 Konami Co Ltd 虚像・実物合成表示装置およびスロットゲーム装置
JP2003296759A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP2009067368A (ja) * 2007-09-18 2009-04-02 Denso Corp 表示装置
JP2009136398A (ja) * 2007-12-04 2009-06-25 Daito Giken:Kk 表示機能拡張装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10422993B2 (en) * 2013-08-01 2019-09-24 Bandai Co., Ltd. Image display device and program
US11340454B2 (en) 2013-08-01 2022-05-24 Bandai Co., Ltd. Image display device
CN107490859A (zh) * 2016-08-31 2017-12-19 福建蓝帽子互动娱乐科技股份有限公司 一种实现虚实结合的成像装置及系统和方法

Also Published As

Publication number Publication date
JP2015210379A (ja) 2015-11-24
JP6396070B2 (ja) 2018-09-26

Similar Documents

Publication Publication Date Title
JP6396070B2 (ja) 画像融合システム、情報処理装置、情報端末、および情報処理方法
JP5541974B2 (ja) 画像表示プログラム、装置、システムおよび方法
JP5602618B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5627973B2 (ja) ゲーム処理をするためのプログラム、装置、システムおよび方法
US20120135803A1 (en) Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system
US9975042B2 (en) Information processing terminal and game device
JP5814532B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP6021296B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP5520656B2 (ja) プログラム及び画像生成装置
JP5586545B2 (ja) ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム
JP5718603B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
US10004990B2 (en) Information processing terminal, non-transitory storage medium encoded with computer readable information processing program, information processing terminal system, and information processing method
JP5675260B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法
JP2012139318A (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP5514637B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP5939733B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法
US9049424B2 (en) Recording medium storing display control program for controlling display capable of providing stereoscopic display, display system, display control method, and display
JP2011251006A (ja) ゲームプログラム、携帯型ゲーム装置、ゲームシステム、及びゲーム方法
JP2013176529A (ja) 変更されたゲーム状態に基づいて仮想カメラの位置を変えるための装置および方法
JP2015156131A (ja) 情報処理装置および情報処理方法
US20180059788A1 (en) Method for providing virtual reality, program for executing the method on computer, and information processing apparatus
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP2017016706A (ja) 情報処理端末およびゲーム装置
JP6332658B1 (ja) 表示制御装置、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15783054

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15783054

Country of ref document: EP

Kind code of ref document: A1