WO2019181233A1 - 画像表示システム、情報処理装置、情報処理方法、プログラム、及び移動体 - Google Patents

画像表示システム、情報処理装置、情報処理方法、プログラム、及び移動体 Download PDF

Info

Publication number
WO2019181233A1
WO2019181233A1 PCT/JP2019/003672 JP2019003672W WO2019181233A1 WO 2019181233 A1 WO2019181233 A1 WO 2019181233A1 JP 2019003672 W JP2019003672 W JP 2019003672W WO 2019181233 A1 WO2019181233 A1 WO 2019181233A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image display
unit
movement
suppression
Prior art date
Application number
PCT/JP2019/003672
Other languages
English (en)
French (fr)
Inventor
長田 浩二
崇 齊藤
佳記 名定
智哉 武井
純 西川
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP19771552.7A priority Critical patent/EP3770898A4/en
Priority to CN201980018612.4A priority patent/CN111837175B/zh
Priority to US16/979,877 priority patent/US11232769B2/en
Priority to KR1020207025195A priority patent/KR102550382B1/ko
Publication of WO2019181233A1 publication Critical patent/WO2019181233A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present technology relates to an image display system, an information processing apparatus, an information processing method, a program, and a moving body that can be mounted on a vehicle or the like.
  • Patent Document 1 discloses a vehicle monitor display system capable of suppressing occupant monitor sickness and the like.
  • the displacement frequency of the image monitor is calculated based on the vibration input to the vehicle from the road surface. Further, the displacement frequency of the occupant's eyes is calculated based on an image of the occupant. Then, the position of the display range of the image is controlled so that the difference between the displacement frequency of the image monitor and the displacement frequency of the occupant's eyes is not included in the frequency range of monitor sickness (paragraph [ [0037] FIG. 6 etc.).
  • an object of the present technology is to provide an image display system, an information processing apparatus, an information processing method, a program, and a moving body that can provide a comfortable viewing environment.
  • an image display system includes an image display unit, an acquisition unit, and a display control unit.
  • the image display unit can display an image and moves in relation to a user's movement.
  • the acquisition unit acquires movement information regarding the movement of the image display unit.
  • the display control unit causes the image display unit to perform suppression image display for suppressing the influence of the movement of the image display unit on the external space based on the acquired movement information.
  • this image display system it is possible to execute an image display for suppression for suppressing the influence of the movement of the image display unit on the external space on the image display unit that moves in relation to the movement of the user. is there. This makes it possible to provide a comfortable viewing environment.
  • the suppression image display may include an image display for canceling the influence of the movement of the image display unit.
  • the suppression image display may include an image display for the user so that the image moves relative to the movement of the user.
  • the suppression image display may include an image display for suppressing the image from moving in response to the movement of the image display unit.
  • the suppression image display may include an image display for suppressing a discrepancy between a sense felt by the user due to the movement of the user and a sense felt by the user viewing the image.
  • the image display for suppression may include an image display for allowing the user to view the image as if viewing the scenery.
  • the image display for suppression may include controlling the display state of the image.
  • the suppression image display may include controlling at least one of the display size of the image, the display position of the image, and the shape of the image.
  • the image display unit may include an image projection unit that projects the image and a projection target unit that projects the image.
  • the motion information may include at least one of motion information regarding the motion of the image projection unit and motion information regarding the motion of the projection target.
  • the suppression image display may include an image display for suppressing the influence of relative movement between the image projection unit and the projection target unit.
  • the image projection unit may include an image moving mechanism capable of optically moving a display position of an image to be projected.
  • the suppression image display may include control of the image moving mechanism.
  • the suppression image display may include moving the image within a projection area of the image projection unit by processing image information of the projected image.
  • the suppression image display may include moving the image within a projection area of the image projection unit by processing image information of the projected image.
  • the display control unit detects the influence of the movement of the image display unit on the projected image based on the acquired movement information, and based on the detected influence,
  • the control content and the processing content of the image information may be set respectively.
  • the display control unit may set the control content of the image moving mechanism and the processing content of the image information so that the control of the image moving mechanism is given priority over the processing of the image information.
  • It may be mounted on a movable body that can be moved by carrying the user.
  • It may be mounted on a mounting body mounted on the user.
  • the image display unit may vibrate.
  • An information processing apparatus includes an acquisition unit and a display control unit.
  • the acquisition unit is capable of displaying an image, and acquires motion information related to a motion of the image display unit that performs a motion related to the motion of the user.
  • the display control unit causes the image display unit to perform suppression image display for suppressing the influence of the movement of the image display unit on the external space based on the acquired movement information.
  • An information processing method is an information processing method executed by a computer system, and is capable of displaying an image and displaying motion information related to a motion of an image display unit that performs a motion related to a user motion Including getting. Based on the acquired motion information, the image display unit is caused to perform suppression image display for suppressing the influence of the motion of the image display unit on the external space.
  • a program causes a computer system to execute the following steps. Obtaining motion information relating to the movement of the image display unit capable of displaying an image and performing a movement related to the movement of the user; A step of causing the image display unit to execute a suppression image display for suppressing the influence of the movement of the image display unit on the external space based on the acquired motion information.
  • a moving object includes a main body unit, an image display unit, an acquisition unit, and a display control unit.
  • the main body includes a boarding unit on which a user can board.
  • the image display unit is provided in the main body unit and can display an image.
  • the acquisition unit acquires movement information related to the movement of the image display unit provided in the main body unit.
  • the display control unit causes the image display unit to perform suppression image display for suppressing the influence of the movement of the image display unit on the external space based on the acquired movement information.
  • FIG. 1 is an external view illustrating a configuration example of a vehicle according to a first embodiment of the present technology. It is a schematic diagram which shows an example of the image display system mounted in a vehicle. It is a block diagram which shows the structural example of the vehicle control system which controls a vehicle. It is a schematic diagram for demonstrating the outline
  • FIG. 1 is an external view illustrating a configuration example of a vehicle according to the first embodiment of the present technology.
  • the vehicle 5 has an automatic driving function capable of automatic traveling to a destination.
  • the vehicle 5 is an embodiment of a moving body according to the present technology, and corresponds to a moving body that can be moved by a user.
  • FIG. 2 is a schematic diagram showing an example of an image display system mounted in the vehicle 5.
  • the image display system 10 includes a screen 11 and a projector 12.
  • the screen 11 is installed between the front seat including the driver seat and the passenger seat and the rear seat 6.
  • the screen 11 may be wound around a ceiling or a side surface inside the vehicle 5 in a roll shape, and may be pulled out and installed by a user.
  • the method of installing the screen 11 and the method of accommodating the screen 11 are not limited, and any method may be adopted.
  • the size (aspect ratio), shape, material, etc. of the screen 11 are not limited and may be arbitrarily designed. Further, the present technology is not limited to a flat screen and can be applied to a screen having a curved surface shape.
  • the projector 12 is disposed at a substantially central position of the rear seat 6 toward the front side.
  • the projector 12 projects the image 1 toward the screen 11.
  • the image 1 includes both a still image and a moving image (video).
  • a plurality of frame images constituting a moving image (video) are also included in the image 1.
  • the display or the like of the image 1 may be referred to as a video display or the like.
  • a configuration example of the projector 12 will be described later.
  • an image display unit capable of displaying an image is realized by the projector 12 and the screen 11.
  • the projector 12 functions as an image projection unit that projects an image.
  • the screen 11 functions as a projection target part on which an image is projected.
  • the outside and the inside of the vehicle body of the vehicle 5 correspond to the main body, and the seat such as the rear seat 6 corresponds to a riding section on which the user can ride. Therefore, the image display system 10 is provided in the main body.
  • FIG. 3 is a block diagram illustrating a configuration example of the vehicle control system 100 that controls the vehicle 5.
  • the vehicle control system 100 is a system that is provided in the vehicle 5 and performs various controls of the vehicle 5.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system system 108, a body system control unit 109, a body A system system 110, a storage unit 111, and an automatic operation control unit 112 are provided.
  • the input unit 101, data acquisition unit 102, communication unit 103, output control unit 105, drive system control unit 107, body system control unit 109, storage unit 111, and automatic operation control unit 112 are connected via the communication network 121. Are connected to each other.
  • the communication network 121 is, for example, an in-vehicle communication network or a bus that conforms to an arbitrary standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without going through the communication network 121.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • the input unit 101 includes a device used by the passenger for inputting various data and instructions.
  • the input unit 101 includes an operation device such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device that can be input by a method other than manual operation by voice, gesture, or the like.
  • the input unit 101 may be a remote control device using infrared rays or other radio waves, or an external connection device such as a mobile device or a wearable device corresponding to the operation of the vehicle control system 100.
  • the input unit 101 generates an input signal based on data or instructions input by the passenger and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors that acquire data used for processing of the vehicle control system 100, and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the vehicle 5 and the like.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertial measurement device (IMU), an operation amount of an accelerator pedal, an operation amount of a brake pedal, a steering angle of a steering wheel, an engine speed, A sensor or the like for detecting the motor rotation speed or the rotation speed of the wheel is provided.
  • IMU inertial measurement device
  • the data acquisition unit 102 includes various sensors for detecting information outside the vehicle 5.
  • the data acquisition unit 102 includes an imaging device (ex-vehicle camera) such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting weather or weather and a surrounding information detection sensor for detecting objects around the vehicle 5.
  • the environmental sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the ambient information detection sensor includes, for example, an ultrasonic sensor, radar, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), sonar, and the like.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the vehicle 5.
  • the data acquisition unit 102 includes a GNSS receiver that receives a satellite signal (hereinafter referred to as a GNSS signal) from a GNSS (Global Navigation Satellite System) satellite that is a navigation satellite.
  • a GNSS Global Navigation Satellite System
  • the data acquisition unit 102 includes various sensors for detecting information in the vehicle.
  • the data acquisition unit 102 includes an imaging device (in-vehicle camera) that images the driver, a biological sensor that detects biological information of the driver, a microphone that collects sound in the vehicle interior, and the like.
  • the biometric sensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of a passenger sitting on the seat or a driver holding the steering wheel.
  • the communication unit 103 communicates with the in-vehicle device 104 and various devices outside the vehicle, a server, a base station, and the like, transmits data supplied from each unit of the vehicle control system 100, and transmits received data to the vehicle control system. Or supply to each part of 100.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can support a plurality of types of communication protocols.
  • the communication unit 103 performs wireless communication with the in-vehicle device 104 by wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like.
  • the communication unit 103 is connected to a USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface), or MHL (Mobile High-definition) via a connection terminal (and a cable if necessary). Link) or the like to perform wired communication with the in-vehicle device 104.
  • USB Universal Serial Bus
  • HDMI High-Definition Multimedia Interface
  • MHL Mobile High-definition
  • the communication unit 103 communicates with a device (for example, an application server or a control server) that exists on an external network (for example, the Internet, a cloud network, or an operator-specific network) via a base station or an access point. Communicate. Further, for example, the communication unit 103 uses a P2P (Peer To Peer) technology to communicate with a terminal (for example, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal) that exists in the vicinity of the vehicle 5. Communicate. Further, for example, the communication unit 103 performs vehicle-to-vehicle communication, vehicle-to-vehicle communication, vehicle-to-home communication, and vehicle-to-pedestrian communication.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network, or an operator-specific network
  • the communication unit 103 uses a P2P (Peer To Peer) technology to communicate with a terminal (for example,
  • V2X communication such as communication is performed.
  • the communication unit 103 includes a beacon receiving unit, receives radio waves or electromagnetic waves transmitted from a wireless station or the like installed on the road, and acquires information such as a current position, traffic jam, traffic regulation, or required time. To do.
  • the in-vehicle device 104 includes, for example, a mobile device or a wearable device possessed by a passenger, an information device carried in or attached to the vehicle 5, and a navigation device for searching for a route to an arbitrary destination.
  • the output control unit 105 controls the output of various information to the passenger of the vehicle 5 or the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data), and supplies the output signal to the output unit 106, thereby outputting the output unit
  • the output of visual information and auditory information from 106 is controlled.
  • the output control unit 105 synthesizes image data captured by different imaging devices of the data acquisition unit 102 to generate an overhead image or a panoramic image, and outputs an output signal including the generated image. This is supplied to the output unit 106.
  • the output control unit 105 generates sound data including a warning sound or a warning message for a danger such as a collision, contact, or entry into a dangerous zone, and outputs an output signal including the generated sound data to the output unit 106. Supply.
  • the output unit 106 includes a device capable of outputting visual information or auditory information to a passenger of the vehicle 5 or outside the vehicle.
  • the output unit 106 includes a display device, an instrument panel, an acoustic system such as an audio speaker, headphones, a wearable device such as a glasses-type display worn by a passenger, a projector, a lamp, and the like.
  • the display device included in the output unit 106 may display visual information in the driver's field of view, such as a head-up display, a transmissive display, and a device having an AR (Augmented Reality) display function. It may be a display device.
  • the drive system control unit 107 controls the drive system 108 by generating various control signals and supplying them to the drive system 108. Further, the drive system control unit 107 supplies a control signal to each unit other than the drive system 108 as necessary, and notifies the control state of the drive system 108 and the like.
  • the drive system 108 includes various devices related to the drive system of the vehicle 5.
  • the drive system 108 includes a driving force generator for generating a driving force such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, a steering mechanism for adjusting a steering angle, A braking device that generates a braking force, an ABS (Antilock Brake System), an ESC (Electronic Stability Control), an electric power steering device, and the like are provided.
  • the body system control unit 109 controls the body system 110 by generating various control signals and supplying them to the body system 110. Further, the body system control unit 109 supplies a control signal to each unit other than the body system 110 as necessary, and notifies the control state of the body system 110 and the like.
  • the body system 110 includes various body devices mounted on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, a head lamp, a back lamp, a brake lamp, a blinker, a fog lamp, etc.) Etc.
  • the storage unit 111 includes, for example, a magnetic storage device such as a read only memory (ROM), a random access memory (RAM), and a hard disk drive (HDD), a semiconductor storage device, an optical storage device, and a magneto-optical storage device. .
  • the storage unit 111 stores various programs and data used by each unit of the vehicle control system 100.
  • the storage unit 111 is a map data such as a three-dimensional high-precision map such as a dynamic map, a global map that is less accurate than the high-precision map and covers a wide area, and a local map that includes information around the vehicle 5.
  • a map data such as a three-dimensional high-precision map such as a dynamic map, a global map that is less accurate than the high-precision map and covers a wide area, and a local map that includes information around the vehicle 5.
  • the automatic driving control unit 112 performs control related to automatic driving such as autonomous driving or driving support. Specifically, for example, the automatic operation control unit 112 performs collision avoidance or impact mitigation of the vehicle 5, follow-up traveling based on the inter-vehicle distance, vehicle speed maintenance traveling, vehicle 5 collision warning, vehicle 5 lane departure warning, or the like. Incorporating ADAS (Advanced Driver Assistance System) functions for coordinated control. Further, for example, the automatic driving control unit 112 performs cooperative control for the purpose of automatic driving or the like that autonomously travels without depending on the operation of the driver.
  • the automatic operation control unit 112 includes a detection unit 131, a self-position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various information necessary for controlling the automatic driving.
  • the detection unit 131 includes an outside information detection unit 141, an in-vehicle information detection unit 142, and a vehicle state detection unit 143.
  • the outside information detection unit 141 performs detection processing of information outside the vehicle 5 based on data or signals from each part of the vehicle control system 100.
  • the vehicle exterior information detection unit 141 performs detection processing, recognition processing, tracking processing, and distance detection processing for objects around the vehicle 5.
  • objects to be detected include vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings, and the like.
  • the vehicle outside information detection unit 141 performs a detection process of the environment around the vehicle 5.
  • the surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, road surface condition, and the like.
  • the vehicle outside information detection unit 141 uses the self-position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135 as data indicating the detection processing result. To the emergency avoidance unit 171 and the like.
  • the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the vehicle control system 100.
  • the vehicle interior information detection unit 142 performs driver authentication processing and recognition processing, driver state detection processing, passenger detection processing, vehicle interior detection processing, and the like.
  • the state of the driver to be detected includes, for example, physical condition, arousal level, concentration level, fatigue level, gaze direction, and the like.
  • the environment in the vehicle to be detected includes, for example, temperature, humidity, brightness, smell, and the like.
  • the vehicle interior information detection unit 142 supplies data indicating the detection processing result to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the vehicle state detection unit 143 performs a state detection process of the vehicle 5 based on data or signals from each unit of the vehicle control system 100.
  • the state of the vehicle 5 to be detected includes, for example, speed, acceleration, steering angle, presence / absence and content of abnormality, driving operation state, power seat position and tilt, door lock state, and other in-vehicle devices. The state etc. are included.
  • the vehicle state detection unit 143 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the self-position estimation unit 132 estimates the position and posture of the vehicle 5 based on data or signals from each part of the vehicle control system 100 such as the outside information detection unit 141 and the situation recognition unit 153 of the situation analysis unit 133. Process. In addition, the self-position estimation unit 132 generates a local map (hereinafter referred to as a self-position estimation map) used for self-position estimation as necessary.
  • the self-position estimation map is, for example, a highly accurate map using a technique such as SLAM (SimultaneousultLocalization and Mapping).
  • the self-position estimation unit 132 supplies data indicating the result of the estimation process to the map analysis unit 151, the traffic rule recognition unit 152, the situation recognition unit 153, and the like of the situation analysis unit 133.
  • the self-position estimating unit 132 stores the self-position estimating map in the storage unit 111.
  • the situation analysis unit 133 performs analysis processing of the vehicle 5 and the surrounding situation.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses various types of maps stored in the storage unit 111 while using data or signals from the respective units of the vehicle control system 100 such as the self-position estimation unit 132 and the vehicle exterior information detection unit 141 as necessary. Analyze and build a map that contains the information needed for automated driving.
  • the map analysis unit 151 converts the constructed map into a traffic rule recognition unit 152, a situation recognition unit 153, a situation prediction unit 154, a route plan unit 161, an action plan unit 162, an action plan unit 163, and the like of the plan unit 134. To supply.
  • the traffic rule recognizing unit 152 determines the traffic rules around the vehicle 5 based on data or signals from each part of the vehicle control system 100 such as the self-position estimating unit 132, the vehicle outside information detecting unit 141, and the map analyzing unit 151. Perform recognition processing. By this recognition processing, for example, the position and state of signals around the vehicle 5, the content of traffic restrictions around the vehicle 5, and the lanes that can travel are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 receives data or signals from each part of the vehicle control system 100 such as the self-position estimation unit 132, the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, the vehicle state detection unit 143, and the map analysis unit 151. Based on this, the situation recognition process for the vehicle 5 is performed. For example, the situation recognition unit 153 performs recognition processing of the situation of the vehicle 5, the situation around the vehicle 5, the situation of the driver of the vehicle 5, and the like. In addition, the situation recognition unit 153 generates a local map (hereinafter referred to as a situation recognition map) used for recognition of the situation around the vehicle 5 as necessary.
  • the situation recognition map is, for example, an occupation grid map (Occupancy Grid Map).
  • the situation of the vehicle 5 to be recognized includes, for example, the position, posture, movement (for example, speed, acceleration, moving direction, etc.) of the vehicle 5 and the presence / absence and content of the abnormality.
  • the situation around the vehicle 5 to be recognized includes, for example, the type and position of a surrounding stationary object, the type and position of a surrounding moving object (for example, speed, acceleration, moving direction, etc.), the surrounding road Configuration, road surface conditions, ambient weather, temperature, humidity, brightness, etc. are included.
  • the state of the driver to be recognized includes, for example, physical condition, arousal level, concentration level, fatigue level, line of sight movement, and driving operation.
  • the situation recognition unit 153 supplies data (including a situation recognition map as necessary) indicating the result of the recognition process to the self-position estimation unit 132, the situation prediction unit 154, and the like. Further, the situation recognition unit 153 stores the situation recognition map in the storage unit 111.
  • the situation prediction unit 154 performs situation prediction processing on the vehicle 5 based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153. For example, the situation prediction unit 154 performs prediction processing such as the situation of the vehicle 5, the situation around the vehicle 5, and the situation of the driver.
  • the situation of the vehicle 5 to be predicted includes, for example, the behavior of the vehicle 5, the occurrence of an abnormality, the travelable distance, and the like.
  • the situation around the vehicle 5 to be predicted includes, for example, behaviors of moving objects around the vehicle 5, changes in the signal state, changes in the environment such as weather, and the like.
  • the situation of the driver to be predicted includes, for example, the behavior and physical condition of the driver.
  • the situation prediction unit 154 includes the data indicating the result of the prediction process together with the data from the traffic rule recognition unit 152 and the situation recognition unit 153, the route planning unit 161, the action planning unit 162, and the action planning unit 163 of the planning unit 134. Etc.
  • the route planning unit 161 plans a route to the destination based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the designated destination based on the global map. In addition, for example, the route planning unit 161 changes the route as appropriate based on conditions such as traffic jams, accidents, traffic restrictions, construction, and the physical condition of the driver. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning unit 162 can safely route the route planned by the route planning unit 161 within the planned time. Plan the behavior of the vehicle 5 to travel.
  • the action planning unit 162 performs planning such as start, stop, traveling direction (for example, forward, backward, left turn, right turn, direction change, etc.), travel lane, travel speed, and overtaking.
  • the behavior planning unit 162 supplies data indicating the planned behavior of the vehicle 5 to the motion planning unit 163 and the like.
  • the action planning unit 163 is an operation of the vehicle 5 for realizing the action planned by the action planning unit 162 based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. To plan. For example, the motion planning unit 163 performs plans such as acceleration, deceleration, and traveling track.
  • the operation planning unit 163 supplies data indicating the planned operation of the vehicle 5 to the acceleration / deceleration control unit 172 and the direction control unit 173 of the operation control unit 135.
  • the operation control unit 135 controls the operation of the vehicle 5.
  • the operation control unit 135 includes an emergency situation avoiding unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency situation avoidance unit 171 Based on the detection results of the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, and the vehicle state detection unit 143, the emergency situation avoidance unit 171 detects collision, contact, entry into the danger zone, driver abnormality, vehicle 5 Detects emergency situations such as abnormalities. When the occurrence of an emergency situation is detected, the emergency situation avoiding unit 171 plans the operation of the vehicle 5 to avoid an emergency situation such as a sudden stop or a sudden turn.
  • the emergency avoidance unit 171 supplies data indicating the planned operation of the vehicle 5 to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • the acceleration / deceleration control unit 172 performs acceleration / deceleration control for realizing the operation of the vehicle 5 planned by the operation planning unit 163 or the emergency situation avoiding unit 171.
  • the acceleration / deceleration control unit 172 calculates a control target value of a driving force generation device or a braking device for realizing planned acceleration, deceleration, or sudden stop, and drives a control command indicating the calculated control target value. This is supplied to the system control unit 107.
  • the direction control unit 173 performs direction control for realizing the operation of the vehicle 5 planned by the operation planning unit 163 or the emergency situation avoiding unit 171. For example, the direction control unit 173 calculates the control target value of the steering mechanism for realizing the traveling track or the sudden turn planned by the motion planning unit 163 or the emergency situation avoiding unit 171, and shows the calculated control target value The command is supplied to the drive system control unit 107.
  • FIG. 4 to 6 are schematic diagrams for explaining an outline of image display by the image display system 10.
  • FIG. 4 to 6 are schematic diagrams for explaining an outline of image display by the image display system 10.
  • the projector 12 and the screen 11 are mounted in the vehicle 5. Therefore, according to the movement of the vehicle 5, the user riding on the vehicle 5, the projector 12, and the screen 11 move together. For example, when the vehicle 5 vibrates, the user vibrates accordingly, and the projector 12 and the screen 11 also vibrate.
  • the movement of the user and the movement of the projector 12 and the screen 11 are movements related to each other. That is, the projector 12 and the screen 11 constituting the image display unit move in relation to the user's movement.
  • the movement of the object A and the movement of the object B are included in the movements related to each other. It is. Further, it is assumed that the object C different from the object B is moved by the force generated by the movement of the object A. In this case, the movement of the object B and the movement of the object C are included in the movements related to each other.
  • the object B moves relative to the object A relative to the movement of the object A. Such a state is not included in the movements related to each other. When there is some relationship between the movement of the object A itself and the movement of the object B itself, these movements are included in the movements related to each other.
  • the display position of the image 1 is fixed at a predetermined position in the vehicle 5. That is, it is assumed that the image 1 is localized in the vehicle interior space. In this case, the vibration of the vehicle 5 becomes the vibration of the image 1 and the viewing of the image 1 is uncomfortable.
  • the display position of the image 1 is displaced so as to follow the movement of the user's eye 2.
  • the image 1 appears relatively stationary, and the image 1 can be localized in the user space. Even in this case, since there is a difference between a sense corresponding to the stimulus applied to the inner ear and a sense obtained through vision, it is difficult to view the image 1 comfortably.
  • the inventor of the present invention has newly devised an image display according to the present technology, paying attention to the disagreement of sensation that causes motion sickness. Specifically, as shown in FIG. 6, for the user (user's eye 2), an image in which the image 1 is displayed separated from the vibration of the projector 12 and the screen 11 caused by the vibration of the vehicle 5. Invented display.
  • suppression image display for suppressing the influence of the movement (vibration V3) of the projector 12 and the screen 11 constituting the image display unit on the external space.
  • the suppression image display can also be referred to as an image display that suppresses the influence of the movement (vibration V3) of the projector 12 and the screen 11 when viewed from the outside space.
  • the image display system 10 capable of executing the suppression image display can also be referred to as an image display system 10 with a vibration suppression function (anti-vibration function).
  • the suppression image display includes arbitrary image display for canceling the influence of the movement of the projector 12 and the screen 11 (vibration V3). As a result, it is possible for the user to realize a viewing environment in which the image 1 is displayed while being separated from the vibration of the projector 12 and the screen 11.
  • the suppression image display includes arbitrary image display for the user so that the image 1 moves relative to the user's movement (vibration V2).
  • the suppression image display includes an arbitrary image display for suppressing the movement of the image 1 in response to the movement of the projector 12 and the screen 11 (vibration V3). Accordingly, it is possible to suppress a mismatch between a sense corresponding to the stimulus applied to the inner ear and a sense obtained through vision, and a comfortable viewing environment can be provided.
  • the suppression image display includes arbitrary image display for suppressing a mismatch between a sense felt by the user due to the user's movement and a sense felt by the user viewing the image 1.
  • the sensation that the user feels due to the user's movement includes perception that is felt by muscles or the like.
  • An image display for suppressing such inconsistency between the perception and a sense obtained through vision may be executed as a suppression image display.
  • the suppression image display includes an arbitrary image display for allowing the user to view the image 1 as if viewing the scenery 3.
  • the suppression image display includes an image display for the user to see that the image 1 is localized in the external space. As a result, a comfortable viewing environment can be realized.
  • the user to appear to be localized in the external space includes a state in which the user moves together while maintaining the positional relationship with the user in the earth coordinate system.
  • the image 1 is fixed in a space outside the vehicle without vibration. Then, the image 1 moves in accordance with the movement of the vehicle 5 (movement of the user).
  • An image display that looks like this to the user is also included in the suppression image display.
  • the respective image displays included in the above-described suppression image display may be compatible with each other.
  • the image display for canceling the influence of the movement (vibration V3) of the projector 12 and the screen 11 is an image display in which the image 1 moves relative to the movement (vibration V2) of the user, or the image 1 is the projector 12
  • it may be realized as an image display that suppresses movement corresponding to the movement of the screen 11 (vibration V3).
  • the image display for suppression is typically realized by controlling the display state of the image 1 displayed on the screen 11. For example, by appropriately controlling the display size of the image 1, the display position of the image 1, the shape of the image 1, and the like, the suppression image display is realized.
  • an image display including controlling the display state of the image 1 is executed as the suppression image display. Further, for example, as the suppression image display, an image display including at least one of the display size of the image 1, the display position of the image 1, and the shape of the image 1 is executed. Of course, it is not limited to this. In order to control the display state, other parameters different from the display size of image 1, the display position of image 1, and the shape of image 1 may be controlled.
  • FIG. 7 is a block diagram illustrating a functional configuration example of the image display system 10.
  • the image display system 10 further includes a display control unit 20.
  • the display control unit 20 corresponds to the information processing apparatus according to the present embodiment, and includes hardware necessary for a computer such as a CPU, a RAM, and a ROM.
  • a computer such as a CPU, a RAM, and a ROM.
  • the CPU loads a program according to the present technology pre-recorded in the ROM to the RAM and executes the program, each block illustrated in FIG. 7 is configured, and the information processing method according to the present technology is executed.
  • the display control unit 20 can be realized by an arbitrary computer such as a PC (Personal Computer).
  • a device such as PLD (Programmable Logic Device) such as FPGA (Field Programmable Gate Array), or other ASIC (Application Specific Integrated Circuit) may be used.
  • dedicated hardware such as an IC (integrated circuit) may be used to realize each block.
  • the program is installed in the display control unit 20 via various recording media, for example. Alternatively, program installation may be executed via the Internet or the like.
  • the display control unit 20 is included in the output control unit 105 shown in FIG.
  • the projector 12 is included in the output unit 106.
  • the display control unit 20 includes a main video generation unit 21, a digital image shift unit 22, a digital image shift amount calculation unit 23, an optical image shift amount calculation unit 24, and an optical / digital separation unit 25. And have.
  • the display control unit 20 includes a displacement deformation amount calculation unit 26, a vibration amount calculation unit 27, and a BPF (band pass filter) 28. Each block will be described later together with the image display operation.
  • FIG. 8 is a diagram for explaining the image shift function of the projector 12. 7 and 8, the projector 12 includes a light source 13, an image display element 14, an optical unit 15, an image shift element control unit 16, a displacement amount detection unit 17, and a projector motion sensor 31. Have.
  • an arbitrary light source such as a laser light source, an LED, or a lamp light source may be used.
  • the image display element 14 generates image light constituting the image 1 based on the light emitted from the light source 13 and emits the image light to the optical unit 15.
  • an arbitrary image display element such as a liquid crystal panel, an organic EL (Electro-Luminescence), a digital micromirror device (DMD), or the like may be used.
  • the optical unit 15 includes an image shift element 18 and a projection lens system 19.
  • the projection lens system 19 projects the image light generated by the image display element 14 onto the screen 11.
  • the image 1 is displayed on the screen 11. 8A and 8B, the image 1 is displayed on the entire projection area (area where the image 1 can be projected) 7. That is, the angle of view is set so that the size of the projection area 7 is equal to the size of the image 1.
  • the specific configuration of the projection lens system 19 is not limited, and may be configured by various lenses, mirrors, and the like.
  • the image shift element 18 can optically move the display position of the projected image 1.
  • the image shift element 18 moves the display position of the image 1 by moving the position of the projection region 7 as a whole.
  • the image shift element 18 has a lens function and is disposed on the optical axis of the image light emitted from the image display element 14. It is also possible for the image shift element 18 to function as part of the projection lens system 19.
  • the optical axis direction of the image light emitted from the image display element 14 is the Z direction, the two directions orthogonal to the Z direction and the two orthogonal directions are the X direction and the Y direction.
  • the image shift element 18 is shifted along the XY plane direction (plane direction perpendicular to the optical axis). Then, the display position of the image 1 projected on the screen 11 (the position of the projection area 7) is shifted.
  • the shift direction of the image shift element 18 and the shift direction of the display position of the image 1 are shown to be equal to each other.
  • the present invention is not limited to this. Not a translation.
  • the shift direction of the image shift element 18 and the shift direction of the display position of the image 1 are opposite to each other.
  • the display position of the image 1 moves in a predetermined direction and a predetermined shift amount according to the shift direction and the shift amount of the image shift element 18.
  • the display state of the image 1 can be controlled by such an image shift function.
  • the image 1 vibrates along a plane direction perpendicular to the projection direction (optical axis direction) of the projector 12 due to vibration of the projector 12 or the like.
  • the image shift element 18 By shifting the image shift element 18 along the XY plane direction (a plane direction perpendicular to the optical axis), the vibration of the image 1 can be canceled, and the suppression image display can be realized.
  • the image shift element 18 is shifted along the Z direction (optical axis direction). Then, the display size of image 1 (the size of projection area 7) is changed. The display size of the image 1 is enlarged / reduced at a rate corresponding to the shift amount of the image shift element 18.
  • the display state of the image 1 can be controlled by such an image shift function.
  • the display size of the image 1 varies finely due to the vibration of the projector 12 or the like.
  • the display state of the image 1 can be controlled by tilting or rotating the image shift element 18.
  • the X axis shown in FIG. 8 is the pitch axis
  • the Y axis is the yaw axis
  • the Z axis is the roll axis
  • the pitch angle, the yaw angle, and the roll angle are appropriately controlled.
  • the operation of the image shift element 18 is controlled by the image shift element control unit 16 shown in FIG.
  • an actuator or the like is configured as the image shift element control unit 16, and electric power or the like is supplied so that the image shift element 18 moves with a desired shift amount.
  • the present invention is not limited to such a configuration, and any configuration may be adopted as the image shift element 18 and the image shift element control unit 16.
  • the image shift element 18 and the image shift element control unit 16 correspond to an image moving mechanism.
  • the display state can be controlled. That is, in this embodiment, the suppression image display includes control of the image shift element 18.
  • the image shift element control unit 16 and the displacement amount detection unit 17 may be configured in the display control unit 20.
  • the display position of the image 1 in the projection region 7 by processing the image information of the image 1 to be projected.
  • the shift of the image 1 can be executed digitally.
  • the image signal input to the image display element 14 includes image information of the projected image 1. Therefore, the image signal processing corresponds to image information processing.
  • the projector motion sensor 31 is a sensor for detecting the motion of the projector 12, and includes, for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor (9-axis sensor), and the like. In addition, any configuration may be adopted.
  • the vibration amount of the projector 12 based on the detection result output from the projector motion sensor 31.
  • the vibration amount with respect to the ground based on the earth coordinate system.
  • it is not limited to this.
  • the projector motion sensor 31 is mounted on the projector 12.
  • the projector motion sensor 31 may be installed in the vicinity of the projector 12 without being limited thereto. If the vibration of the projector 12 can be detected, the setting position of the projector motion sensor 31 may be arbitrarily set.
  • the projector motion sensor 31 is included in the data acquisition unit 102 shown in FIG.
  • the detection result output by the projector motion sensor 31 and information such as the vibration amount calculated based on the detection result are included in the motion information regarding the movement of the image display unit in the present embodiment.
  • Information such as the detection result and the vibration amount is included in the motion information regarding the motion of the image projection unit.
  • motion information regarding the motion of the vehicle 5 may be used.
  • the vibration amount of the vehicle 5 may be used as the vibration amount of the projector 12.
  • the calculation may be performed based on the vibration amount of the vehicle 5 and the vibration amount of the projector 12 may be calculated.
  • FIG. 9 is a chart showing an execution example of the suppression image display.
  • the projector motion sensor 31 detects the motion of the projector 12 (step 101).
  • the vibration component of the vehicle 5 is extracted from the detection result of the projector motion sensor 31 by the BPF 28 (step 102).
  • the suppression image display is executed by paying attention to the vibration component with respect to the ground. Of course, it is not limited to this.
  • the setting of the filter characteristics for extracting the vibration component from the detection result of the projector motion sensor 31 is not limited.
  • a frequency band corresponding to a vibration component is detected by calibration or the like, and the filter characteristics are set so that the frequency band is a pass band.
  • the vibration amount calculation unit 27 calculates the vibration amount of the projector 12 (step 103). In this embodiment, the vibration amount with respect to the ground based on the earth coordinate system is calculated. In the present embodiment, the projector motion sensor 31, the BPF 28, and the vibration amount calculation unit 27 implement an acquisition unit that acquires motion information regarding the motion of the image display unit.
  • the displacement / deformation amount calculation unit 26 calculates the displacement / deformation amount of the main video display area (step 104).
  • the main video is a video displayed in the main, and in the present embodiment, the main video is the image 1 shown in FIG.
  • subtitles or text information may be displayed as sub-pictures for the main video.
  • the suppression image display according to the present technology may be performed only on the main video, or the suppression image display according to the present technology may be performed on the main video and the sub video.
  • the main video display area is an area where the image 1 is displayed, and the position, size and shape of the main video display area correspond to the display position, display size and shape of the image 1.
  • step 104 the displacement of the display position of image 1 and the display size and shape fluctuation information of image 1 according to the vibration amount of projector 12 are calculated.
  • the method of canceling the displacement / deformation of the main video display area is separated into two methods, an optical method and a digital method, by the optical / digital separation unit 25 (step 105).
  • the optical method shown in FIGS. 8A and 8B is separated from the digital method shown in FIG. 8B.
  • FIG. 10 is a schematic diagram showing a separation example of the cancel method.
  • the optical / digital separation unit 25 converts the amount of deformation / deformation into a correction coordinate system (step 201).
  • a correction coordinate system shown in FIG. 8 is used as the correction coordinate system.
  • the shift amount of the display position of the image 1 and the deformation amount (rotation amount with respect to each axis) are calculated using the coordinate values.
  • the shift amount of the display position of the image 1 converted into the coordinate value and the deformation amount are linear motion components along the XYZ axes, and angular mobility components based on the respective axes. (Steps 202 and 203).
  • an optical image shift method for moving the image shift element 18 illustrated in FIG. 8A is used, and the displacement of the image 1 is canceled. (Steps 204 and 205).
  • the optical image shift method is described as optical image stabilization.
  • a digital image shift method (control of display size) for processing the image signal illustrated in FIG. Change) is canceled (step 206).
  • the digital image shift method is described as digital image stabilization.
  • the optical image shift method illustrated in FIG. Is canceled (steps 207 and 208).
  • the digital image shift method illustrated in FIG. 8C is used, and the deformation of the image 1 is canceled (step 209).
  • a separation method can cancel the displacement / deformation of the image 1 with high accuracy.
  • the separation of the method for canceling the displacement / deformation of the main video display area is not limited to the separation method described above, and may be arbitrarily set. For example, priority is given to the optical method, but setting such as adding a digital method when a predetermined stroke exceeds an allowable value is also possible.
  • the separation method can be set based on the response speed and resolution of the image display element 14.
  • the displacement / deformation amount calculation unit 26 calculates the displacement / deformation amount of the main video display area by detecting the influence of the movement of the image display unit on the projected image based on the acquired movement information. It corresponds to. In order to detect the influence of the movement of the image display unit, a method other than the calculation of the displacement / deformation amount of the main video display area may be used.
  • the separation of the canceling method by the optical / digital separation unit 25 corresponds to setting the control content of the image moving mechanism and the processing content of the image information based on the detected influence.
  • the specific control content of the image shift element 18 shown in FIGS. 8A and 8B corresponds to the control content of the image moving mechanism.
  • the processing content for the image signal shown in FIG. 8C corresponds to the processing content of the image information.
  • the cancellation method is separated so that the optical method has priority over the digital method.
  • This corresponds to setting the control content of the image moving mechanism and the processing content of the image information so that the control of the image moving mechanism is given priority over the processing of the image information.
  • the optical image shift amount calculation unit 24 calculates an optical image shift amount for canceling the displacement / deformation of the image 1 (step 106). That is, the shift amount of the image shift element 18 is calculated. The optical image shift amount calculation unit 24 calculates the shift amount for each shift direction determined when the cancel method is separated.
  • a control signal including the calculated shift amount is output to the image shift element control unit 16 of the projector 12 (step 107).
  • the image shift element control unit 16 controls the image shift element 18 based on the received control signal.
  • the digital image shift amount calculation unit 23 calculates a digital image shift amount for canceling the displacement / deformation of the image 1 (step 108). That is, the shift amount of the image shift element 18 is calculated. Note that the shift amount in the digital image shift method is a parameter including an image deformation amount and the like.
  • the digital image shift unit 22 processes the image signal transmitted from the main video generation unit 21 based on the calculated shift amount. As a result, an image signal in which the display position and shape of the image 1 are appropriately changed is output (step 109).
  • the image signal processed by the digital image shift unit 22 is input to the image display element 14, and image light is generated.
  • the generated image light is projected onto the screen 11 by the optical unit 15 including the image shift element 18. Since an optical correction and a digital correction are performed on the projected image, an image display in which the image 1 is displayed separated from the vibration of the projector 12 caused by the vibration of the vehicle 5 is displayed. Is realized. That is, a display image for suppression is realized.
  • the display control unit 20 causes the image display unit to execute suppression image display for suppressing the influence of the movement of the image display unit on the external space based on the acquired movement information. It corresponds to the control unit.
  • the BPF 28 and the vibration amount calculation unit 27 function as an acquisition unit.
  • the digital image shift unit 22, the digital image shift amount calculation unit 23, the optical image shift amount calculation unit 24, the optical / digital separation unit 25, the displacement deformation amount calculation unit 26, and the vibration amount calculation unit 27 serve as display control units. Function.
  • FIG. 11 is a block diagram for explaining the control of the image shift element 18 by the image shift element control unit 16 shown in FIG.
  • a conversion table for converting the optical image shift amount into a control value for controlling the image shift element is used.
  • the control value is, for example, a current value applied to an actuator that moves the image shift element 18.
  • it is not limited to this.
  • the image shift element control unit 16 refers to the conversion table and converts the optical image shift amount received from the optical image shift amount calculation unit 24 into a control value (step 301).
  • the converted control value is output, and the image shift element 18 is controlled (step 302).
  • the displacement amount detection unit 17 detects the displacement amount (shift amount) of the image shift element 18. That is, the actual displacement amount with respect to the input control value is detected (step 303).
  • the conversion table is updated based on the displacement amount detected by the displacement amount detection unit 17. Thus, by feeding back the actual displacement amount of the image shift element 18, it is possible to improve the accuracy of the optical image shift method.
  • the control image display for suppressing the influence of the movement of the projector 12 on the external space is executed on the projector 12 that moves in relation to the movement of the user. It is possible to make it. This makes it possible to provide a comfortable viewing environment.
  • the suppression image display for suppressing the influence of the vibration of the projector 12 mainly caused by the vibration of the vehicle 5 is executed.
  • suppression image display for suppressing the influence of the vibration of the projector 12 and the vibration of the screen 11 is executed.
  • FIG. 12 is a schematic diagram for explaining an outline of the suppression image display according to the present embodiment. For example, it is assumed that the displacement / deformation of the image 1 based on the vibration amount of the projector 12 is canceled. As a result, as shown in FIG. 12A, the image 1 may be displaced with respect to the screen 11 due to the relative positional relationship with the vibrating screen 11. As an extreme example, for example, the projection area 7 and the image 1 may protrude from the screen 11.
  • the display positions of the projection area 7 and the image 1 are optically shifted, or the display location of the image 1 is digitally shifted in the projection area 7, so that the image 1 with respect to the screen 11 is displayed.
  • the display position and the like can be controlled. That is, in the present embodiment, a suppression display image including a display image for suppressing the influence of relative movement between the projector 12 as an image projection unit and the screen 11 as a projection unit is executed.
  • FIG. 13 is a block diagram illustrating a functional configuration example of the image display system 40 according to the present embodiment.
  • FIG. 14 is a chart showing an execution example of the suppression image display.
  • the display control unit 50 includes a BPF 51, a vibration amount calculation unit 52, a relative vibration amount calculation unit 53, a relative displacement deformation amount calculation unit 54, and a displacement deformation amount summation unit 55.
  • the screen motion sensor 41 is a sensor for detecting the motion of the projector 12, and is composed of, for example, a nine-axis sensor including an acceleration sensor. In addition, any configuration may be adopted.
  • the vibration amount of the screen 11 can be calculated based on the detection result output by the screen motion sensor 41. For example, it is possible to calculate the vibration amount with respect to the ground based on the earth coordinate system. Of course, it is not limited to this.
  • the screen motion sensor 41 is mounted on the screen 11.
  • the screen motion sensor 41 may be installed in the vicinity of the screen 11 without being limited thereto. If the vibration of the screen 11 or the like can be detected, the setting position of the screen motion sensor 41 may be arbitrarily set.
  • the screen motion sensor 41 is included in the data acquisition unit 102 shown in FIG.
  • the detection result output by the screen motion sensor 41 and information such as the vibration amount calculated based on the detection result are included in the motion information regarding the movement of the image display unit in the present embodiment.
  • Information such as the detection result and the vibration amount is included in the motion information related to the motion of the projection target.
  • motion information regarding the motion of the vehicle 5 may be used.
  • the vibration amount of the vehicle 5 may be used as the vibration amount of the screen 11.
  • the calculation may be performed based on the vibration amount of the vehicle 5 and the vibration amount of the screen 11 may be calculated.
  • Steps 401 to 404 shown in FIG. 14 are the same as steps 101 to 104 shown in FIG.
  • the vibration amount of the screen 11 is calculated. Specifically, the vibration component of the screen 11 is extracted from the detection result of the screen motion sensor 41 by the BPF 51. Then, the vibration amount calculation unit 52 calculates the vibration amount of the screen 11.
  • the screen motion sensor 41, the BPF 51, and the vibration amount calculation unit 52 function as an acquisition unit.
  • the relative displacement deformation amount calculation unit 54 calculates the relative vibration amount between the screen 11 and the projector 12 (step 408). For example, the vibration amount of the projector 12 with respect to the screen 11 is calculated.
  • the displacement / deformation amount of the main video display area due to relative vibration is calculated by the relative displacement deformation amount calculation unit 54 (step 409). For example, using the screen 11 as a reference, the displacement of the display position of the image 1 displayed on the screen 11 and the information on the display size and shape variation of the image 1 are calculated.
  • the displacement / deformation amount adding unit 55 adds the displacement / deformation amount of the main image display area due to both vibrations (step 410). For example, the displacement of the display position of image 1 according to the amount of vibration of projector 12 and the displacement of image 1 with reference to screen 11 are added together. Further, the variation in the display size and shape of the image 1 according to the vibration amount of the projector 12 and the variation in the display size and shape of the image 1 with the screen 11 as a reference are added.
  • the image 1 is displaced by a predetermined amount in a predetermined direction due to the vibration of the projector 12. Further, as shown in FIG. 12A, it is assumed that the positional relationship between the image 1 and the screen 11 is shifted. In this case, the displacement amount corresponding to the vibration of the projector 12 and the displacement amount of the image 1 with respect to the screen 11 are added together. The same applies to changes in display size and shape.
  • the cancellation processing described in steps 105 to 109 is executed for the combined displacement / deformation amount (steps 411 to 415).
  • the suppression image display is executed so that the displacement / deformation of the image 1 according to the vibration of the projector 12 is canceled with priority.
  • the displacement / deformation of the image 1 is canceled within a range in which the extreme such that the image 1 protrudes from the screen 11 does not occur.
  • the suppression image display may be executed so that the displacement / deformation of the image 1 with reference to the screen 11 is canceled with priority.
  • the suppression image display may be executed so that the displacement / deformation of the image 1 corresponding to the vibration of the projector 12 and the displacement / deformation of the image 1 with respect to the screen 11 are canceled to the same extent.
  • the displacement / deformation of the image 1 is canceled based on the characteristics of the projector 12, the characteristics of the screen 11, the visual effect of the image 1 in the vehicle, the magnitude of the influence of the displacement of the image 1 on the screen 11, etc. Any method for doing so may be employed.
  • a comfortable viewing environment can be provided by executing the suppression image display in consideration of the relative vibration amount between the projector 12 and the screen 11.
  • the suppression image display may be executed based only on the relative vibration amount between the projector 12 and the screen 11.
  • FIG. 15 to 18 are schematic diagrams showing examples of variations of the image display system.
  • the projector 61 is installed at a substantially central position of the rear seat, and the image is directed toward the screen 62 installed between the front seat and the rear seat. Is projected.
  • two projectors 63a and 63b are arranged on the left and right ends of the rear seat, and an image is projected toward the screen 64 installed between the front seat and the rear seat.
  • the projector 65 is disposed on the floor of the foot of the rear seat, and the image is projected toward the screen 66 installed on the ceiling.
  • a short focus projector 67 is arranged on the floor of the foot of the rear seat, and an image is projected from the lower side toward the screen 68 installed between the front seat and the rear seat.
  • short focus projectors 69a and 69b are arranged near the inside of the left and right B pillars, and images are projected from the left and right toward the screen 70 installed between the front seat and the rear seat. Is done.
  • short focus projectors 71a and 72b are arranged above the doors of the left and right rear seats, and images are projected from the left and right toward the screen 72 installed on the ceiling.
  • the present technology can be applied to image display systems having various configurations as exemplified in FIGS. 15A to 15D. Note that the configurations illustrated in FIGS. 15A to 15D can be appropriately combined.
  • FIG. 16 and FIG. 17 are schematic diagrams showing variations of the head-up display (HUD).
  • the front windshield glass 74 functions as a projection target part, and an image is displayed on the entire front windshield glass 74.
  • an image is projected by the short focus projector 75 installed below the front windshield glass 74.
  • the short focus projector 75 may be installed in the dashboard or in the dashboard.
  • images are projected by the short focus projectors 76a and 76b installed on the left and right sides of the front windshield glass 74.
  • the short focus projectors 76a and 76b may be installed in the left and right A pillars or may be set outside the left and right A pillars.
  • FIG. 16C an image of the short focus projector 77 installed above the front windshield glass 74 is projected.
  • the present technology is applicable to HUDs having various configurations as illustrated in FIGS. 16A to 16C. Note that the configurations illustrated in FIGS. 16A to 16D can be appropriately combined.
  • FIG. 17 illustrates a combiner type HUD.
  • a combiner 78 that functions as a projection target unit is installed at a position facing the driver's line of sight, and an image is projected by the projector 79.
  • the user can view a virtual image displayed on the front side of the front windshield glass 80.
  • the front windshield glass 81 is used as a combiner.
  • the projector 82 projects an image on a predetermined area of the front windshield glass 81.
  • the user can view a virtual image displayed on the front side of the front windshield glass 81.
  • the present technology can be applied to HUDs having various configurations as illustrated in FIGS. 17A and 17B. Note that the configurations illustrated in FIGS. 17A to 17D can be appropriately combined.
  • two projectors 83a and 83b are installed along the direction of travel at the left and right ends of the ceiling.
  • a transmission image is displayed on the entire side surface and the entire ceiling in the vehicle.
  • the present technology can also be applied to such an image ideographic system.
  • the image display system according to the present technology can be mounted on an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, an airplane, a ship, a robot, a construction machine, an agricultural machine (tractor), and the like.
  • 19 to 22 are schematic views for explaining an image display system according to another embodiment.
  • the case where the image 1 is displayed in the interior space of the vehicle 5 is taken as an example.
  • the present technology is not limited to this, and the present technology can be applied even when the image 1 is projected onto the external space of the vehicle 5.
  • a projector 85 that functions as an image display unit (image projection unit) is disposed on the front side of the vehicle 5 toward the front side. Then, the image 1 is projected using the road surface 86 on the front side of the vehicle 5 as a projection surface.
  • the suppressed image display for suppressing the influence of the movement (vibration V3) of the projector 85 configuring the image display unit on the external space is executed by the image display system according to the present technology. Thereby, it becomes possible for the user (user's eyes) to view the image 1 with the same feeling as watching the scenery outside the vehicle. As a result, discomfort such as motion sickness can be reduced, and a comfortable viewing environment can be provided.
  • the image 1 onto the front wall surface of the vehicle 5.
  • projectors 89 a and 89 b are disposed near the left and right door mirrors of the vehicle 5. Then, the image 1 is projected on the left wall surface 90 a and the right wall surface 90 b that are located directly beside the vehicle 5.
  • a motorcycle 91 is used as the moving body.
  • Projectors 92 a and 92 b are arranged on the left and right sides of the motorcycle 91 downward.
  • the image 1 is projected by the projectors 92 a and 92 b toward the road surfaces 93 a and 93 b almost directly below the left and right of the motorcycle 91.
  • the method of projecting the image 1 toward the external space, the configuration for projecting the image 1, the position where the image 1 is projected, and the like may be arbitrarily set.
  • this technology it is possible to provide a comfortable viewing environment.
  • an image display separated from the vibration of the projector is realized for a person other than the user who moves on the moving body. That is, it is possible to provide a comfortable viewing environment for a person in the external space. Of course, it is possible to provide various contents as a person in the external space as a user of the image display system according to the present technology.
  • FIG. 23 is a perspective view showing a configuration example of a head mounted display (HMD) to which the image display system according to the present technology can be applied.
  • the HMD 200 shown in FIG. 23 is a glasses-type device provided with a transmissive display, and is used by being mounted on a user's head. When the user moves, the HMD 200 moves in conjunction therewith. For example, when the user's head vibrates during walking or running, the HMD 200 also vibrates. The user's movement and the HMD 200 are movements related to each other.
  • the HMD 200 includes left and right lenses 201L and 201R, a left-eye display 202L and a right-eye display 202R, and sensor units 203L and 203R.
  • the left and right lenses 201L and 201R are disposed in front of the user's left eye and right eye, respectively.
  • the left-eye and right-eye displays 202L and 202R are provided on the left and right lenses 201L and 201R, respectively, so as to cover the user's visual field.
  • the left-eye and right-eye displays 202L and 202R are transmissive displays, and display images for the left eye and the right eye, respectively.
  • a user wearing the HMD 200 can visually recognize an image displayed on each display at the same time as viewing an actual scene. Thereby, the user can experience augmented reality (AR) and the like.
  • AR augmented reality
  • left-eye and right-eye displays 202L and 202R for example, a transmissive organic EL display, an LCD (Liquid Crystal Display), or the like is used.
  • the left-eye and right-eye displays 202L and 202R function as image display units.
  • the sensor units 203L and 203R include, for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor (9-axis sensor), and the like. It is possible to calculate.
  • the images displayed on the left-eye and right-eye displays 202L and 202R appear to be separated from the vibrations (the vibrations of the HMD 200) of the left-eye and right-eye displays 202L and 202R.
  • the image display for suppression is executed.
  • the display state of the images displayed on the left-eye and right-eye displays 202L and 202R is controlled by appropriately processing the image information.
  • the left-eye and right-eye displays 202L and 202R are configured to be movable, the left-eye and right-eye displays 202L and 202R themselves may be moved.
  • the image display system according to the present technology may be mounted on the mounting body mounted on the user in this way.
  • the wearing body is not limited to the HMD, and other wearable devices, helmets, and the like can be given.
  • the HUD when the HUD is mounted on a full-heus type helmet, it is possible to realize a comfortable viewing environment by applying the present technology.
  • control of the image shift element and the processing of the image information are given as examples of the display state control.
  • the present invention is not limited to this, and the display state of the image may be controlled by shifting / rotating the projector itself. Further, the display state of the image may be controlled by shifting / rotating the image display element.
  • the projector is used as the image display system.
  • an organic EL display or LCD (Liquid Crystal Display, liquid crystal display element) display may be used.
  • the display state of the image may be controlled by shifting / rotating these displays.
  • an image display that makes the earth coordinate system conscious. That is, it is an image display for reducing the awareness of the interior space. For example, project the main image on the window, project a virtual image outside the window, show a large image covering the field of view, darken the interior of the vehicle (make only the main image appear floating), exercise outside the vehicle in the vehicle interior It is possible to make the Earth coordinate system conscious by realizing that peripheral images that reflect the above are played. A more comfortable viewing environment can be provided by combining the image display for suppression described above with the image display that makes the earth coordinate system conscious.
  • the information processing method and program according to the present technology can be executed not only in a computer system configured by a single computer but also in a computer system in which a plurality of computers operate in conjunction with each other.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems.
  • Information processing method and program execution according to the present technology by a computer system is executed when, for example, acquisition of motion information, execution control of image display for suppression, and the like are executed by a single computer, and each process is executed by a different computer Including both.
  • the execution of each process by a predetermined computer includes causing another computer to execute a part or all of the process and acquiring the result.
  • the information processing method and program according to the present technology can be applied to a configuration of cloud computing in which one function is shared by a plurality of devices via a network and is processed jointly.
  • an arbitrary machine learning algorithm using, for example, DNN (Deep Neural Network) may be used to execute the suppression image display.
  • DNN Deep Neural Network
  • AI artificial intelligence
  • deep learning deep learning
  • center is concepts including “substantially central”, “substantially equal”, “substantially vertical”, and “substantially orthogonal”.
  • a state included in a predetermined range for example, a range of ⁇ 10% based on “completely central”, “completely equal”, “completely vertical”, “completely orthogonal”, and the like is also included.
  • this technique can also take the following structures.
  • An image display unit capable of displaying an image and performing a movement related to the movement of the user;
  • An acquisition unit for acquiring movement information related to the movement of the image display unit;
  • An image display comprising: a display control unit that causes the image display unit to execute a suppression image display for suppressing the influence of the movement of the image display unit on an external space based on the acquired motion information. system.
  • the image display system according to (1), The image display for suppression includes an image display for canceling the influence of the movement of the image display unit.
  • the image display for suppression includes an image display for causing the user to move the image relatively in response to the user's movement.
  • the suppression image display includes an image display for suppressing the image from moving in response to the movement of the image display unit.
  • the image display system according to any one of (1) to (4), The suppression image display includes an image display for suppressing a mismatch between a sense felt by the user due to the movement of the user and a sense felt by the user viewing the image.
  • the image display system according to any one of (1) to (5), The suppression image display includes an image display for allowing the user to view the image as if viewing a scene.
  • the image display system according to any one of (1) to (6), The image display system includes the suppression image display including controlling a display state of the image.
  • the image display for suppression includes an image display system including controlling at least one of a display size of the image, a display position of the image, and a shape of the image.
  • the image display unit includes an image projection unit that projects the image, and a projection unit that projects the image,
  • the image display system, wherein the motion information includes at least one of motion information regarding the motion of the image projection unit and motion information regarding the motion of the projection target.
  • the image display for suppression includes an image display for suppressing an influence of a relative movement between the image projection unit and the projection target unit.
  • the image projection unit has an image moving mechanism capable of optically moving a display position of an image to be projected
  • the image display for suppression includes an image display system including control of the image moving mechanism.
  • the image display system including the suppression image display includes moving the image within a projection region of the image projection unit by processing image information of a projected image.
  • the image display for suppression includes moving the image within a projection area of the image projection unit by processing image information of a projected image,
  • the display control unit detects the influence of the movement of the image display unit on the projected image based on the acquired movement information, and controls the content of the image moving mechanism based on the detected influence.
  • An image display system for setting the processing contents of the image information.
  • the image display system according to (13), The display control unit sets the control content of the image moving mechanism and the processing content of the image information, respectively, so that the control of the image moving mechanism is given priority over the processing of the image information.
  • An acquisition unit that is capable of displaying an image and acquires motion information related to a motion of the image display unit that performs a motion related to the motion of the user;
  • An information processing comprising: a display control unit that causes the image display unit to execute a suppression image display for suppressing the influence of the movement of the image display unit on an external space based on the acquired motion information apparatus.
  • a main body including a boarding section on which a user can board;
  • An image display unit provided in the main body unit and capable of displaying an image;
  • An acquisition unit that acquires movement information related to the movement of the image display unit provided in the main body unit;
  • a moving body comprising: a display control unit that causes the image display unit to execute a suppression image display for suppressing the influence of the movement of the image display unit on an external space based on the acquired motion information .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本技術の一形態に係る画像表示システムは、画像表示部と、取得部と、表示制御部とを具備する。前記画像表示部は、画像を表示可能であり、ユーザの動きと関連する動きをする。前記取得部は、前記画像表示部の動きに関する動き情報を取得する。前記表示制御部は、前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる。

Description

画像表示システム、情報処理装置、情報処理方法、プログラム、及び移動体
 本技術は、車両等に搭載可能な画像表示システム、情報処理装置、情報処理方法、プログラム、及び移動体に関する。
 特許文献1には、乗員のモニタ酔い等を抑制できる車両用モニタ表示システムについて開示されている。この表示システムでは、路面から車両に入力される振動に基づいて、画像モニタの変位周波数が算出される。また乗員を撮影した画像に基づいて、乗員の目線の変位周波数が算出される。そして画像モニタの変位周波数と、乗員の目線の変位周波数との差分が、モニタ酔いの周波数範囲に含まれないように、画像の表示範囲の位置が制御される(特許文献1の明細書段落[0034][0037]図6等)。
特開2017-171243号公報
 このようにユーザに快適な視聴環境を提供することを可能とする技術が求められている。
 以上のような事情に鑑み、本技術の目的は、快適な視聴環境を提供することを可能とする画像表示システム、情報処理装置、情報処理方法、プログラム、及び移動体を提供することにある。
 上記目的を達成するため、本技術の一形態に係る画像表示システムは、画像表示部と、取得部と、表示制御部とを具備する。
 前記画像表示部は、画像を表示可能であり、ユーザの動きと関連する動きをする。
 前記取得部は、前記画像表示部の動きに関する動き情報を取得する。
 前記表示制御部は、前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる。
 この画像表示システムでは、ユーザの動きと関連する動きをする画像表示部に対して、画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を実行させることが可能である。これにより快適な視聴環境を提供することが可能となる。
 前記抑制用画像表示は、前記画像表示部の動きの影響をキャンセルするための画像表示を含んでもよい。
 前記抑制用画像表示は、前記ユーザにとって、前記画像が前記ユーザの動きに対応して相対的に動くようにするための画像表示を含んでもよい。
 前記抑制用画像表示は、前記画像が前記画像表示部の動きに対応して動くことを抑制するための画像表示を含んでもよい。
 前記抑制用画像表示は、前記ユーザの動きにより前記ユーザが感じる感覚と、前記ユーザが前記画像を視聴することで感じる感覚との不一致を抑制するための画像表示を含んでもよい。
 前記抑制用画像表示は、前記ユーザにとって、景色を見ているように前記画像を視聴することを可能とするための画像表示を含んでもよい。
 前記抑制用画像表示は、前記画像の表示状態を制御することを含んでもよい。
 前記抑制用画像表示は、前記画像の表示サイズ、前記画像の表示位置、及び前記画像の形状の少なくとも1つを制御することを含んでもよい。
 前記画像表示部は、前記画像を投影する画像投影部と、前記画像が投影される被投影部とを有してもよい。この場合、前記動き情報は、前記画像投影部の動きに関する動き情報、及び前記被投影部の動きに関する動き情報の少なくとも一方を含んでもよい。
 前記抑制用画像表示は、前記画像投影部及び前記被投影部の間の相対的な動きの影響を抑制するための画像表示を含んでもよい。
 前記画像投影部は、投影する画像の表示位置を光学的に移動させることが可能な画像移動機構を有してもよい。この場合、前記抑制用画像表示は、前記画像移動機構の制御を含んでもよい。
 前記抑制用画像表示は、投影される画像の画像情報を処理することで、前記画像投影部の投影領域内において前記画像を移動させることを含んでもよい。
 前記抑制用画像表示は、投影される画像の画像情報を処理することで、前記画像投影部の投影領域内において前記画像を移動させることを含んでもよい。この場合、前記表示制御部は、前記取得された動き情報に基づいて前記投影される画像への前記画像表示部の動きの影響を検出し、前記検出された影響に基づいて前記画像移動機構の制御内容と、前記画像情報の処理内容とをそれぞれ設定してもよい。
 前記表示制御部は、前記画像移動機構の制御が前記画像情報の処理によりも優先されるように、前記画像移動機構の制御内容と、前記画像情報の処理内容とをそれぞれ設定してもよい。
 前記ユーザを乗せて移動させることが可能な移動体に搭載されてもよい。
 前記ユーザに装着される装着体に搭載されてもよい。
 前記画像表示部は、振動してもよい。
 本技術の一形態に係る情報処理装置は、取得部と、表示制御部とを具備する。
 前記取得部は、画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得する。
 前記表示制御部は、前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる。
 本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得することを含む。
 前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる。
 本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
 画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得するステップ。
 前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させるステップ。
 本技術の一形態に係る移動体は、本体部と、画像表示部と、取得部と、表示制御部とを具備する。
 前記本体部は、ユーザが搭乗可能な搭乗部を含む。
 前記画像表示部は、前記本体部に設けられ画像を表示可能である。
 前記取得部は、前記本体部に設けられた前記画像表示部の動きに関する動き情報を取得する。
 前記表示制御部は、前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる。
 以上のように、本技術によれば、快適な視聴環境を提供することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の第1の実施形態に係る車両の構成例を示す外観図である。 車両内に搭載される画像表示システムの一例を示す模式図である。 車両の制御を行う車両制御システムの構成例を示すブロック図である。 画像表示システムによる画像表示の概要を説明するための模式図である。 画像表示システムによる画像表示の概要を説明するための模式図である。 画像表示システムによる画像表示の概要を説明するための模式図である。 画像表示システムの機能的な構成例を示すブロック図である。 プロジェクタの画像シフト機能を説明するための図である。 抑制用画像表示の実行例を示すチャート図である。 キャンセル方法の分離例を示す模式図である。 画像シフト素子の制御に関して説明するためのブロック図である。 本技術の第2の実施形態に係る抑制用画像表示の概要を説明するための模式図である。 画像表示システムの機能的な構成例を示すブロック図である。 抑制用画像表示の実行例を示すチャート図である。 画像表示システムのバリエーション例を示す模式図である。 HUDのバリエーション例を示す模式図である。 HUDのバリエーション例を示す模式図である。 画像表示システムのバリエーション例を示す模式図である。 他の実施形態に係る画像表示システムを説明するための模式図である。 他の実施形態に係る画像表示システムを説明するための模式図である。 他の実施形態に係る画像表示システムを説明するための模式図である。 他の実施形態に係る画像表示システムを説明するための模式図である。 本技術に係る画像表示システムを適用可能なHMDの構成例を示す斜視図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 <第1の実施形態>
 図1は、本技術の第1の実施形態に係る車両の構成例を示す外観図である。車両5は、目的地までの自動走行が可能な自動運転機能を備えている。車両5は、本技術に係る移動体の一実施形態であり、ユーザを乗せて移動させることが可能な移動体に相当する。
 図2は、車両5内に搭載される画像表示システムの一例を示す模式図である。画像表示システム10は、スクリーン11と、プロジェクタ12とを有する。
 スクリーン11は、運転席及び助手席を含む前方側の席と、後部座席6との間に設置される。例えば車両5の内部の天井部や側面部にロール状に巻かれてスクリーン11が収容されており、ユーザにより引張り出されて設置されてもよい。その他、スクリーン11を設置する方法や収容する方法等は限定されず、任意の方法が採用されてよい。
 スクリーン11のサイズ(アスペクト比)や形状、材質等は限定されず、任意に設計されてよい。また平面スクリーン限定されず、曲面形状を有するスクリーンに対しても本技術は適用可能である。
 プロジェクタ12は、後部座席6の略中央の位置に、前方側に向けて配置される。プロジェクタ12は、スクリーン11に向けて画像1を投影する。画像1は、静止画像及び動画像(映像)の両方を含む。もちろん動画像(映像)を構成する複数のフレーム画像も、画像1に含まれる。以下、画像1の表示等を、映像の表示等と記載する場合がある。
 プロジェクタ12の構成例等については、後に説明する。
 本実施形態では、プロジェクタ12及びスクリーン11により、画像を表示可能な画像表示部が実現される。本実施形態において、プロジェクタ12は、画像を投影する画像投影部として機能する。またスクリーン11は、画像が投影される被投影部として機能する。
 また本実施形態では、車両5の車体(ボディ)の外部及び内部が本体部に相当し、後部座席6等の座席はユーザが搭乗可能な搭乗部に相当する。従って、画像表示システム10は、本体部に設けられることになる。
 図3は、車両5の制御を行う車両制御システム100の構成例を示すブロック図である。車両制御システム100は、車両5に設けられ、車両5の各種の制御を行うシステムである。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、車両5の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、車両5の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置(車外カメラ)を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、車両5の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、車両5の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、航法衛星であるGNSS(Global Navigation Satellite System)衛星からの衛星信号(以下、GNSS信号と称する)を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置(車内カメラ)、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、車両5の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両5と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。
また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、車両5に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、車両5の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、車両5の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ等の音響システム、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、車両5の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、車両5の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、車両5の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両5の衝突警告、又は、車両5のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、車両5の外部の情報の検出処理を行う。例えば、車外情報検出部141は、車両5の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、車両5の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、車両5の状態の検出処理を行う。検出対象となる車両5の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、車両5の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、車両5及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、車両5の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、車両5の周囲の信号の位置及び状態、車両5の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、車両5に関する状況の認識処理を行う。例えば、状況認識部153は、車両5の状況、車両5の周囲の状況、及び、車両5の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、車両5の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる車両5の状況には、例えば、車両5の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる車両5の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、車両5に関する状況の予測処理を行う。例えば、状況予測部154は、車両5の状況、車両5の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる車両5の状況には、例えば、車両5の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる車両5の周囲の状況には、例えば、車両5の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための車両5の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した車両5の行動を示すデータを動作計画部163等に供給する
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための車両5の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した車両5の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、車両5の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両5の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための車両5の動作を計画する。緊急事態回避部171は、計画した車両5の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された車両5の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された車両5の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 図4~図6は、画像表示システム10による画像表示の概要を説明するための模式図である。
 図2を参照して説明したように、プロジェクタ12及びスクリーン11は車両5内に搭載される。従って車両5の動きに応じて、車両5に乗っているユーザと、プロジェクタ12及びスクリーン11とは、共に動くことになる。例えば車両5が振動した場合には、それに応じてユーザは振動し、プロジェクタ12及びスクリーン11も振動する。
 この際、ユーザの動きと、プロジェクタ12及びスクリーン11の動きとは、互いに関連する動きとなる。すなわち画像表示部を構成するプロジェクタ12及びスクリーン11が、ユーザの動きと関連する動きをする。
 例えば物体Aが動くことにより物体を動かす力が発生し、その力が作用して他の物体Bが動いた場合は、物体Aの動きと、物体Bの動きとは、互いに関連する動きに含まれる。また物体Aが動くことで発生した力により、物体Bとは異なる物体Cも動いたとする。この場合、物体Bの動きと、物体Cの動きとは、互いに関連する動きに含まれる。
 すなわち、物体Aの動き、及び物体Aにより動かされた物体Bの動きのみならず、物体Aにより同じタイミングで動かされた物体B及びCの各々の動きも、互いに関連する動きに含まれる。なお、互いに連動する動きと記載することも可能である。
 なお物体Aの動きに対応して、物体Aから見て物体Bが相対的に動く。このような状態は、互いに関連する動きに含まれない。物体A自体の動きと、物体B自体の動きとの間に何らかの関連性がある場合に、これらの動きは互いに関連する動きに含まれる。
 図4に模式的に示すように、車両5が振動すると(矢印V1)、車両5に乗っているユーザ(ユーザの眼2)も揺れる(矢印V2)。またプロジェクタ12及びスクリーン11も振動するので、スクリーン11に表示される画像1も揺れる(矢印V3)。
 例えば車両5内の所定の位置に、画像1の表示位置が固定されているとする。すなわち車内空間に画像1が定位されているとする。この場合、車両5の振動が画像1の振動となり、画像1の視聴に不快感を伴う。
 例えば車両5が加減速や旋回、上下動する際、ユーザはそれらの運動による慣性力を受けているが、画像1は運動せずに車内に固定されているため、感覚の不一致が生じる。すなわち、内耳に加えられる刺激に応じた感覚と、視覚を通して得られる感覚との間にずれが生じ、この感覚の不一致は乗り物酔いの要因となる。
 例えば図5に示すように、ユーザの眼2の動きに追従するように、画像1の表示位置を変位させるとする。これによりユーザにとって、画像1は相対的に静止して見えることになり、ユーザ空間に画像1を定位させることが可能となる。この場合でも、内耳に加えられる刺激に応じた感覚と、視覚を通して得られる感覚との間にはずれが生じるので、画像1を快適に視聴することは難しい。
 本発明者は、乗り物酔いの要因となる感覚の不一致に着目して、本技術に係る画像表示を新たに考案した。具体的には、図6に示すように、ユーザ(ユーザの眼2)にとって、車両5の振動を起因としたプロジェクタ12及びスクリーン11の振動から切り離されて、画像1が表示されるような画像表示を考案した。
 すなわちユーザにとって、振動のない画像1を視聴することが可能となる(地面に対して振動のない状態であり、ユーザは振動しているので相対的には振動している)。これによりユーザにとって車外の景色3を見ているのと同じ感覚の視聴環境を提供することが可能となり、乗り物酔い等の不快感を軽減することが可能となる。
 具体的な処理としては、画像表示部を構成するプロジェクタ12及びスクリーン11の動き(振動V3)の影響を外部空間に対して抑制するための画像表示(以下、抑制用画像表示と記載する)が実行される。抑制用画像表示を、外部空間から見た場合の、プロジェクタ12及びスクリーン11の動き(振動V3)の影響を抑制する画像表示ということも可能である。また抑制用画像表示を実行可能な画像表示システム10を、制振機能(防振機能)付きの画像表示システム10ということも可能である。
 抑制用画像表示は、プロジェクタ12及びスクリーン11の動き(振動V3)の影響をキャンセルするための任意の画像表示を含む。これによりユーザにとって、プロジェクタ12及びスクリーン11の振動から切り離されて、画像1が表示されるような視聴環境を実現することが可能となる。
 また抑制用画像表示は、ユーザにとって、画像1がユーザの動き(振動V2)に対応して相対的に動くようにするための任意の画像表示を含む。言い換えれば、抑制用画像表示は、画像1がプロジェクタ12及びスクリーン11の動き(振動V3)に対応して動くことを抑制するための任意の画像表示を含む。これにより内耳に加えられる刺激に応じた感覚と、視覚を通して得られる感覚との間の不一致を抑制することが可能となり、快適な視聴環境を提供することが可能となる。
 また抑制用画像表示は、ユーザの動きによりユーザが感じる感覚と、ユーザが画像1を視聴することで感じる感覚との不一致を抑制するための任意の画像表示を含む。例えば、ユーザの動きによりユーザが感じる感覚は、筋肉等で感じる知覚を含む。このような知覚と、視覚を通して得られる感覚との間の不一致を抑制するための画像表示が、抑制用画像表示として実行されてもよい。
 また抑制用画像表示は、ユーザにとって、景色3を見ているように画像1を視聴することを可能とするための任意の画像表示を含む。また抑制用画像表示は、ユーザにとって、画像1が外部空間に定位されているように見えるための画像表示を含む。これにより快適な視聴環境を実現することが可能となる。
 なおユーザにとって外部空間に定位されているように見えるとは、地球座標系において、ユーザとの位置関係を維持したまま、ともに移動するような状態を含む。例えば車外の空間に画像1が振動することなく固定される。そして車両5の移動(ユーザの移動)に合わせて、その画像1が移動する。ユーザにとってこのように見える画像表示も、抑制用画像表示に含まれる。
 当然のことながら、上記した抑制用画像表示に含まれる各々の画像表示が、互いに両立することもあり得る。例えばプロジェクタ12及びスクリーン11の動き(振動V3)の影響をキャンセルするための画像表示は、画像1がユーザの動き(振動V2)に対応して相対的に動く画像表示や、画像1がプロジェクタ12及びスクリーン11の動き(振動V3)に対応して動くことを抑制する画像表示等としても成り立つこともあり得る。
 抑制用画像表示は、典型的には、スクリーン11に表示される画像1の表示状態を制御することで実現される。例えば画像1の表示サイズ、画像1の表示位置、及び画像1の形状等が適宜制御されることで、抑制用画像表示が実現される。
 従って抑制用画像表示として、典型的には、画像1の表示状態を制御することを含む画像表示が実行されることになる。また例えば抑制用画像表示として、画像1の表示サイズ、画像1の表示位置、及び画像1の形状の少なくとも1つを含む画像表示が実行される。もちろんこれに限定される訳ではない。表示状態を制御するために、画像1の表示サイズ、画像1の表示位置、及び画像1の形状とは異なる他のパラメータが制御されてもよい。
 図7は、画像表示システム10の機能的な構成例を示すブロック図である。画像表示システム10は、さらに、表示制御部20を有する。
 表示制御部20は、本実施形態に係る情報処理装置に相当し、例えばCPU、RAM、及びROM等のコンピュータに必要なハードウェアを有する。CPUがROMに予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、図7に示す各ブロックが構成され、本技術に係る情報処理方法が実行される。
 例えばPC(Personal Computer)等の任意のコンピュータにより、表示制御部20を実現することが可能である。またFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。また各ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 プログラムは、例えば種々の記録媒体を介して表示制御部20にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
 本実施形態では表示制御部20は、図3に示す出力制御部105に含まれる。またプロジェクタ12は、出力部106に含まれる。
 図7に示すように表示制御部20は、主映像生成部21と、デジタル画像シフト部22と、デジタル画像シフト量算出部23と、光学画像シフト量算出部24と、光学・デジタル分離部25とを有する。また表示制御部20は、変位変形量算出部26と、振動量算出部27と、BPF(バンドパスフィルタ)28とを有する。各ブロックについては、画像表示の動作と合わせて後に説明する。
 図8は、プロジェクタ12の画像シフト機能を説明するための図である。図7及び図8を参照して、プロジェクタ12は、光源13と、画像表示素子14と、光学部15と、画像シフト素子制御部16と、変位量検出部17と、プロジェクタ運動センサ31とを有する。
 光源13としては、例えばレーザ光源、LED、ランプ光源等の任意の光源が用いられてよい。画像表示素子14は、光源13から出射される光に基づいて、画像1を構成する画像光を生成し、光学部15に出射する。画像表示素子14としては、例えば液晶パネル、有機EL(Electro-Luminescence)、デジタルマイクロミラーデバイス(DMD)等、任意の画像表示素子が用いられてよい。
 光学部15は、画像シフト素子18と、投影レンズ系19とを含む。投影レンズ系19は、画像表示素子14により生成された画像光を、スクリーン11に投影する。これによりスクリーン11に画像1が表示される。なお図8A及びBでは、投影領域(画像1を投影可能な領域)7全体に画像1が表示されている。すなわち投影領域7のサイズと、画像1のサイズが等しくなるように画角が設定されている。
 投影レンズ系19の具体的な構成は限定されず、種々のレンズやミラー等により構成されてよい。
 画像シフト素子18は、投影される画像1の表示位置を光学的に移動させることが可能である。画像シフト素子18は、投影領域7の位置を全体的に移動させることで、画像1の表示位置を移動させる。
 本実施形態では、画像シフト素子18はレンズ機能を有し、画像表示素子14から出射される画像光の光軸上に配置される。画像シフト素子18を、投影レンズ系19の一部として機能させることも可能である。
 図8に示すように、画像表示素子14から出射される画像光の光軸方向をZ方向とし、Z方向に直交する方向であり、かつ、互いに直交する2方向を、X方向及びY方向とする。図8Aに示すように、画像シフト素子18をXY平面方向(光軸に垂直な平面方向)に沿ってシフトさせる。そうすると、スクリーン11に投影される画像1の表示位置(投影領域7の位置)がシフトされる。
 図8Aでは、直感的に理解がしやすいように、画像シフト素子18のシフト方向と、画像1の表示位置のシフト方向とが等しい方向となるように図示されているが、これに限定される訳ではない。画像シフト素子18のシフト方向と、画像1の表示位置のシフト方向とが互いに逆方向となる場合もあり得る。いずれにせよ、画像シフト素子18のシフト方向及びシフト量に応じて、画像1の表示位置が所定の方向、及び所定のシフト量で移動する。
 例えばこのような画像シフト機能により、画像1の表示状態を制御することが可能となる。例えばプロジェクタ12の振動等により、プロジェクタ12の投影方向(光軸方向)に対して垂直に交わる平面方向に沿って画像1が振動するとする。画像シフト素子18をXY平面方向(光軸に垂直な平面方向)に沿ってシフトさせることで、画像1の振動をキャンセルすることが可能となり、抑制用画像表示を実現することが可能となる。
 また図8Bに示すように、画像シフト素子18を、Z方向に沿って(光軸方向)に沿ってシフトさせる。そうすると画像1の表示サイズ(投影領域7のサイズ)が変更される。画像1の表示サイズは、画像シフト素子18のシフト量に応じた割合で、拡大/縮小される。
 例えばこのような画像シフト機能により、画像1の表示状態を制御することが可能となる。例えばプロジェクタ12の振動等により、画像1の表示サイズが細かく変動するとする。画像シフト素子18をZ方向に沿って(光軸方向)に沿ってシフトさせることで、画像1の表示サイズの変動をキャンセルすることが可能となり、抑制用画像表示を実現することが可能となる。
 また、画像シフト素子18を傾けたり、回転させることで、画像1の表示状態を制御することが可能である。例えば図8に示すX軸をピッチ軸、Y軸をヨー軸、Z軸をロール軸とした場合における、ピッチ角度、ヨー角度、及びロール角度を適宜制御する。これにより、画像1の形状(投影領域7の形状)の制御等を実行することが可能である。
 画像シフト素子18の動作は、図7に示す画像シフト素子制御部16により制御される。例えば画像シフト素子制御部16としてアクチュエータ等が構成され、画像シフト素子18が所望のシフト量で移動するように、電力等が供給される。もちろんこのような構成に限定されず、画像シフト素子18及び画像シフト素子制御部16として、任意の構成が採用されてよい。
 本実施形態において、画像シフト素子18及び画像シフト素子制御部16は、画像移動機構に相当する。画像シフト素子18を制御することで、表示状態を制御することが可能となる。すなわち本実施形態では、抑制用画像表示は、画像シフト素子18の制御を含む。
 図7に示す変位量検出部17は、画像シフト素子18の変位量(シフト量)を検出する。なお、画像シフト素子制御部16及び変位量検出部17が、表示制御部20内に構成されてもよい。
 図8Cに示すように、投影される画像1の画像情報を処理することで、投影領域7内における画像1の表示位置をシフトさせることが可能である。例えば画像表示素子14に入力される画像信号を適宜処理することで、画像1のシフトをデジタル的に実行することが可能である。なお画像表示素子14に入力される画像信号は、投影される画像1の画像情報を含む。従って画像信号の処理は、画像情報の処理に相当する。
 なお画像1のシフトのみならず、画像1の表示サイズの制御や、画像1の形状の制御等等も可能である。すなわち画像情報を処理することで、画像状態に関して種々の制御を実行することが可能であり、抑制用画像表示を実現することが可能である。
 プロジェクタ運動センサ31は、プロジェクタ12の運動を検出するためのセンサであり、例えば加速度センサ、ジャイロセンサ及び地磁気センサ(9軸センサ)等により構成される。その他、任意の構成が採用されてよい。
 本実施形態では、プロジェクタ運動センサ31により出力される検出結果に基づいて、プロジェクタ12の振動量等を算出することが可能となる。例えば地球座標系に基づいた地面に対する振動量等を算出することが可能である。もちろんこれに限定される訳ではない。
 本実施形形態では、プロジェクタ運動センサ31は、プロジェクタ12に搭載される。これに限定されず、プロジェクタ12の近傍に、プロジェクタ運動センサ31が設置されてもよい。プロジェクタ12の振動等を検出可能であるならば、プロジェクタ運動センサ31の設定位置は、任意に設定されてよい。なおプロジェクタ運動センサ31は、図3に示すデータ取得部102に含まれる。
 プロジェクタ運動センサ31により出力される検出結果、及び検出結果に基づいて算出される振動量等の情報は、本実施形態において、画像表示部の動きに関する動き情報に含まれる。また検出結果及び振動量等の情報は、画像投影部の動きに関する動き情報に含まれる。
 プロジェクタ12の運動を検出するために、車両5の動きに関する動き情報が用いられてもよい。例えば車両5の振動量等が、プロジェクタ12の振動量等として援用されてもよい。あるいは車両5の振動量等に基づいて演算が実行され、プロジェクタ12の振動量等が算出されてもよい。
 図9は、抑制用画像表示の実行例を示すチャート図である。プロジェクタ運動センサ31により、プロジェクタ12の運動が検出される(ステップ101)。BPF28によりプロジェクタ運動センサ31の検出結果から、車両5の振動成分が抽出される(ステップ102)。このように本実施形態では、地面に対する振動成分に着目して、抑制用画像表示が実行される。もちろんこれに限定される訳ではない。
 プロジェクタ運動センサ31の検出結果から振動成分を抽出するためのフィルタ特性の設定は限定されない。例えばキャリブレーション等により振動成分に相当する周波数帯を検出しておき、その周波数帯を通過帯域とするようにフィルタ特性が設定される。
 振動量算出部27により、プロジェクタ12の振動量が算出される(ステップ103)。本実施形態では、地球座標系に基づいた地面に対する振動量が算出される。本実施形態では、プロジェクタ運動センサ31、BPF28、及び振動量算出部27により、画像表示部の動きに関する動き情報を取得する取得部が実現される。
 変位変形量算出部26により、主映像表示エリアの変位・変形量が算出される(ステップ104)。なお主映像とは、メインに表示される映像のことであり、本実施形態では、図2等に示す画像1のことである。例えば主映像に対して字幕等やテキスト情報等を副映像として表示する場合もあり得る。この場合、主映像のみに対して本技術に係る抑制用画像表示が実行されてもよいし、主映像及び副映像に対して本技術に係る抑制用画像表示が実行されてもよい。
 また主映像表示エリアは、画像1が表示される領域のことであり、主映像表示エリアの位置、サイズ、及び形状は、画像1の表示位置、表示サイズ、形状に相当する。ステップ104では、プロジェクタ12の振動量に応じた、画像1の表示位置の変位と、画像1の表示サイズ及び形状の変動の情報が算出される。
 光学・デジタル分離部25により、主映像表示エリアの変位・変形をキャンセルする方法が、光学的な方法及びデジタル的な方法の2つの方法に分離される(ステップ105)。本実施形態では、図8A及びBに示す光学的な方法と、図8Bに示すデジタル的な方法とに分離される。
 図10は、キャンセル方法の分離例を示す模式図である。光学・デジタル分離部25は、変・変形量を補正座標系に変換する(ステップ201)。本実施形態では、補正座標系として、図8に示すXYZ座標系が用いられる。XYZ座標系を基準として、画像1の表示位置のシフト量や、変形量(各軸を基準とした回転量)が、座標値を用いて算出される。
 座標値に変換された画像1の表示位置のシフト量や、変形量(各軸を基準とした回転量)が、XYZ軸に沿った直線運動成分と、各軸を基準とした角運度成分に分離される(ステップ202、203)。
 直線運動成分のうちX及びY軸方向に沿ったシフトに対しては、図8Aに例示した画像シフト素子18を移動させる光学的な画像シフト方式が用いられて、画像1の変位がキャンセルされる(ステップ204、205)。なお図10では、光学的な画像シフト方式が、光学防振として記載されている。
 直線運動成分のうちZ軸方向に沿ったシフトに対しては、図8Cに例示した画像信号を処理するデジタル的な画像シフト方式(表示サイズの制御)が用いられて、画像1の変形(サイズの変動)がキャンセルされる(ステップ206)。なお図10では、デジタル的な画像シフト方式が、デジタル防振として記載されている。
 角運動成分のうちヨー軸(Y軸)及びピッチ軸(X軸)の各々を基準とした回転に対しては、図8Aに例示した光学的な画像シフト方式が用いられて、画像1の変形がキャンセルされる(ステップ207、208)。
 ロール軸(Z軸)を基準とした回転に対しては、図8Cに例示したデジタル的な画像シフト方式が用いられて、画像1の変形がキャンセルされる(ステップ209)。例えばこのような分離方法によって、高精度に画像1の変位・変形をキャンセルすることが可能となる。
 主映像表示エリアの変位・変形をキャンセルする方法の分離については、上記に説明する分離方法に限定されず、任意に設定されてよい。例えば光学的な方法を優先するが、所定のストロークが許容値を超えたらデジタル的な方法を加える等の設定も可能である。例えば、画像表示素子14の応答速度や解像度等に基づいて、分離方法を設定することも可能である。
 もちろん図8Aに例示した画像シフト素子18を移動させる光学的な画像シフト方式にて、全ての変位・変形がキャンセルされてもよい。また図8Cに例示した画像信号を処理するデジタル的な画像シフト方式にて、全ての変位・変形がキャンセルされてもよい。
 本実施形態において、変位変形量算出部26による主映像表示エリアの変位・変形量の算出は、取得された動き情報に基づいて投影される画像への画像表示部の動きの影響を検出することに相当する。画像表示部の動きの影響を検出するために、主映像表示エリアの変位・変形量の算出以外の方法が用いられてもよい。
 また光学・デジタル分離部25によるキャンセルする方法の分離は、検出された影響に基づいて画像移動機構の制御内容と、画像情報の処理内容とをそれぞれ設定することに相当する。図8A及びBに示す画像シフト素子18の具体的な制御の内容が、画像移動機構の制御内容に相当する。また図8Cに示す画像信号に対する処理内容が、画像情報の処理内容に相当する。
 例えば光学的な方法がデジタル的な方法よりも優先されるように、キャンセル方法の分離が実行される。このことは、画像移動機構の制御が画像情報の処理によりも優先されるように、画像移動機構の制御内容と、画像情報の処理内容とをそれぞれ設定することに相当する。光学的な方法を優先することで、画像表示素子14の応答速度や解像度等による、画像1の変位・変形のキャンセルへの影響を抑制することが可能となる。
 光学画像シフト量算出部24により、画像1の変位・変形をキャンセルするための光学画像シフト量が算出される(ステップ106)。すなわち画像シフト素子18のシフト量が算出される。光学画像シフト量算出部24は、キャンセル方法が分離される際に定められるシフト方向ごとに、シフト量を算出する。
 算出されたシフト量を含む制御信号が、プロジェクタ12の画像シフト素子制御部16に出力される(ステップ107)。画像シフト素子制御部16は、受信した制御信号に基づいて、画像シフト素子18を制御する。
 デジタル画像シフト量算出部23により、画像1の変位・変形をキャンセルするためのデジタル画像シフト量が算出される(ステップ108)。すなわち画像シフト素子18のシフト量が算出される。なおデジタル的な画像シフト方式におけるシフト量は、画像の変形量等も含むパラメータである。
 デジタル画像シフト部22により、算出されたシフト量に基づいて、主映像生成部21から送信される画像信号が処理される。これにより画像1の表示位置や形状が適宜変更された画像信号が出力される(ステップ109)。
 図7に示すように、デジタル画像シフト部22により処理された画像信号が画像表示素子14に入力され、画像光が生成される。生成された画像光は、画像シフト素子18を含む光学部15により、スクリーン11に投影される。投影される画像には光学的な補正、及びデジタル的な補正が実行されているので、車両5の振動を起因としたプロジェクタ12の振動から切り離されて、画像1が表示されるような画像表示が実現される。すなわち抑制用表示画像が実現される。
 本実施形態において、表示制御部20は、取得された動き情報に基づいて、画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、画像表示部に実行させる表示制御部に相当する。なお表示制御部20を本技術に係る情報処理装置としてみる場合には、BPF28及び振動量算出部27が取得部として機能する。またデジタル画像シフト部22、デジタル画像シフト量算出部23、光学画像シフト量算出部24と、光学・デジタル分離部25、及び変位変形量算出部26、及び振動量算出部27が表示制御部として機能する。
 図11は、図7に示す画像シフト素子制御部16による画像シフト素子18の制御に関して説明するためのブロック図である。本実施形態では、光学画像シフト量を画像シフト素子を制御するための制御値に変換する変換テーブルが用いられる。制御値は、例えば画像シフト素子18を移動させるアクチュエータに加えられる電流値等である。もちろんこれに限定される訳ではない。
 画像シフト素子制御部16は、変換テーブルを参照して、光学画像シフト量算出部24から受信した光学画像シフト量を制御値に変換する(ステップ301)。変換された制御値を出力して、画像シフト素子18が制御される(ステップ302)。
 変位量検出部17により、画像シフト素子18の変位量(シフト量)が検出される。すなわち入力された制御値に対する実際の変位量が検出される(ステップ303)。変位量検出部17により検出された変位量に基づいて、変換テーブルが更新される。このように画像シフト素子18の実際の変位量をフィードバックすることで、光学的な画像シフト方式の精度を向上させることが可能となる。
 以上、本実施形態に係る画像表示システム10では、ユーザの動きと関連する動きをするプロジェクタ12に対して、プロジェクタ12の動きの影響を外部空間に対して抑制するための抑制用画像表示を実行させることが可能である。これにより快適な視聴環境を提供することが可能となる。
 上でも述べたが、映像機器は車両に固定されることが多く、車両が振動すると、映像も同様に振動してしまい、読みづらいだけでなく、眼精疲労や酔いの要因となる。本実施形態に係る画像表示システム10では、映像を車両の振動から切り離すこと可能であるので、振動による映像視聴の不快感を大幅に低減することができる。
 また、AR(Augmented Reality:拡張現実感)やMR(Mixed Reality:複合現実)のように車外風景に対して映像を重畳しようとする場合にも、映像を車両の振動から切り離すこと可能であるので、風景とのずれを十分に防止することが可能となり、高品質な画像表示を実現することが可能となる。
 映像を視聴する際の不快感を軽減し、快適な映像視聴を提供することで、車両内での映像視聴の体験価値を向上させることが可能である。また車両での視聴環境が大きく改善されるため、より高品位な映像音声機器への要求や、より高品位なコンテンツへの要求に応えることが可能となり、非常に高品質な画像表示システムを実現することが可能となる。
 <第2の実施形態>
 本技術の第2の実施形態に係る画像表示システムについて説明する。これ以降の説明では、上記の実施形態で説明した画像表示システム10における構成及び作用と同様な部分については、その説明を省略又は簡略化する。
 上記の実施形態では、主に車両5の振動を起因としたプロジェクタ12の振動の影響を抑制するための抑制用画像表示が実行された。本実施形態では、プロジェクタ12の振動及びスクリーン11の振動の影響を抑止するための抑制用画像表示が実行される。
 図12は、本実施形態に係る抑制用画像表示の概要を説明するための模式図である。例えばプロジェクタ12の振動量に基づいた画像1の変位・変形をキャンセルしたとする。この結果、図12Aに示すように、振動しているスクリーン11との相対的な位置関係により、スクリーン11に対して画像1が変位してしまう場合もあり得る。極端な例としては、例えばスクリーン11から投影領域7及び画像1がはみ出てしまう場合もあり得る。
 本実施形態では、投影領域7及び画像1の表示位置等を光学的にシフトする、あるいは投影領域7内にて画像1の表示地等をデジタル的にシフトすることで、スクリーン11に対する画像1の表示位置等を制御することが可能である。すなわち本実施形態では、画像投影部であるプロジェクタ12及び被投影部であるスクリーン11の間の相対的な動きの影響を抑制するための表示画像を含む、抑制用表示画像が実行される。
 図13は、本実施形態に係る画像表示システム40の機能的な構成例を示すブロック図である。図14は、抑制用画像表示の実行例を示すチャート図である。
 図13に示すブロックうち図7に示す画像表示システム10と異なるブロックとしては、スクリーン11に搭載されるスクリーン運動センサ41が挙げられる。また表示制御部50に含まれる、BPF51、振動量算出部52、相対振動量算出部53、相対変位変形量算出部54、変位変形量合算部55が挙げられる。
 スクリーン運動センサ41は、プロジェクタ12の運動を検出するためのセンサであり、例えば加速度センサを含む9軸センサ等により構成される。その他、任意の構成が採用されてよい。
 本実施形態では、スクリーン運動センサ41により出力される検出結果に基づいて、スクリーン11の振動量等を算出することが可能となる。例えば地球座標系に基づいた地面に対する振動量等を算出することが可能である。もちろんこれに限定される訳ではない。
 本実施形形態では、スクリーン運動センサ41は、スクリーン11に搭載される。これに限定されず、スクリーン11の近傍に、スクリーン運動センサ41が設置されてもよい。スクリーン11の振動等を検出可能であるならば、スクリーン運動センサ41の設定位置は、任意に設定されてよい。なおスクリーン運動センサ41は、図3に示すデータ取得部102に含まれる。
 スクリーン運動センサ41により出力される検出結果、及び検出結果に基づいて算出される振動量等の情報は、本実施形態において、画像表示部の動きに関する動き情報に含まれる。また検出結果及び振動量等の情報は、被投影部の動きに関する動き情報に含まれる。
 スクリーン11の運動を検出するために、車両5の動きに関する動き情報が用いられてもよい。例えば車両5の振動量等が、スクリーン11の振動量等として援用されてもよい。あるいは車両5の振動量等に基づいて演算が実行され、スクリーン11の振動量等が算出されてもよい。
 図14に示すステップ401~404は、図9に示すステップ101~104と同様である。ステップ405~407では、スクリーン11の振動量が算出される。具体的には、BPF51によりスクリーン運動センサ41の検出結果から、スクリーン11の振動成分が抽出される。そして振動量算出部52により、スクリーン11の振動量が算出される。スクリーン運動センサ41、BPF51、及び振動量算出部52は、取得部として機能する。
 相対変位変形量算出部54により、スクリーン11とプロジェクタ12との相対振動量が算出される(ステップ408)。例えば、スクリーン11に対するプロジェクタ12の振動量が算出される。
 相対変位変形量算出部54により、相対振動による主映像表示エリアの変位・変形量が算出される(ステップ409)。例えばスクリーン11を基準として、そこに表示される画像1の表示位置の変位と、画像1の表示サイズ及び形状の変動の情報が算出される。
 変位変形量合算部55により、両振動による主映像表示エリアの変位・変形量が合算される(ステップ410)。例えば、プロジェクタ12の振動量に応じた画像1の表示位置の変位と、スクリーン11を基準とした画像1の変位とが合算される。またプロジェクタ12の振動量に応じた画像1の表示サイズ及び形状の変動と、スクリーン11を基準とした画像1の表示サイズ及び形状の変動とが合算される。
 例えばプロジェクタ12の振動により所定の方向に所定の量だけ、画像1が変位したとする。さらに図12Aに示すように、画像1とスクリーン11との位置関係がずれたとする。この場合、プロジェクタ12の振動に応じた変位量と、スクリーン11に対する画像1のずれ量とが合算される。表示サイズ及び形状の変動についても同様である。
 この合算された変位・変形量に対して、ステップ105~109にて説明したキャンセル処理が実行される(ステップ411~415)。例えばプロジェクタ12の振動に応じた画像1の変位・変形が優先的にキャンセルされるように、抑制用画像表示が実行される。例えばスクリーン11から画像1がはみ出てしまうような極端なことが発生しない範囲で、画像1の変位・変形がキャンセルされる。
 あるいはスクリーン11を基準とした画像1の変位・変形が優先的にキャンセルされるように、抑制用画像表示が実行されてもよい。または、プロジェクタ12の振動に応じた画像1の変位・変形と、スクリーン11に対する画像1の変位・変形とが、同程度にキャンセルされるように、抑制用画像表示が実行されてもよい。
 プロジェクタ12の特性やスクリーン11の特性、車内において画像1がどのような視覚効果をもたらすか、スクリーン11に対する画像1の変位等の影響の大きさ等に基づいて、画像1の変位・変形をキャンセルするための任意の方法が採用されてよい。
 本実施形態のように、プロジェクタ12とスクリーン11との相対的な振動量を考慮した抑制用画像表示を実行することで、快適な視聴環境を提供することが可能となる。なお、プロジェクタ12とスクリーン11との相対的な振動量のみに基づいて、抑制用画像表示が実行されてもよい。
 図15~図18は、画像表示システムのバリエーション例を示す模式図である。図15Aに示す例では、図2に示す例と同様に、後部座席の略中央の位置にプロジェクタ61が設置され、前方側の席と後部座席との間に設置されたスクリーン62に向けて画像が投影される。
 図15Bに示す例では、後部座席の左右の端に2つのプロジェクタ63a及び63bが配置され、前方側の席と後部座席との間に設置されたスクリーン64に向けて画像が投影される。図15Cに示す例では、後部座席の足元の床にプロジェクタ65が配置され、天井に設置されたスクリーン66に向けて画像が投影される。
 図15Dに示す例では、後部座席の足元の床に短焦点プロジェクタ67が配置され、前方側の席と後部座席との間に設置されたスクリーン68に向けて下方側から画像が投影される。図15Eに示す例では、左右のBピラーの内側付近に、短焦点プロジェクタ69a及び69bが配置され、前方側の席と後部座席との間に設置されたスクリーン70に向けて左右から画像が投影される。
 図15Dに示す例では、左右の後部座席のドアの上方に、短焦点プロジェクタ71a及び72bが配置され、天井に設置されたスクリーン72に向けて左右から画像が投影される。図15A~Dに例示するような、種々の構成の画像表示システムに対して、本技術は適用可能である。なお図15A~Dに例示する構成を適宜組み合わせることも可能である。
 図16及び図17は、ヘッドアップディスプレイ(HUD)のバリエーション例を示す模式図である。図16に示すHUDでは、フロントウィンドシールドガラス74が被投影部として機能し、フロントウィンドシールドガラス74全体に画像が表示される。
 図16Aに示す例では、フロントウィンドシールドガラス74の下方に設置された短焦点プロジェクタ75により、画像が投影される。短焦点プロジェクタ75はダッシュボード内に設置されてもよいし、ダッシュボード内に設置されてもよい。
 図16Bに示す例では、フロントウィンドシールドガラス74の左右に設置された短焦点プロジェクタ76a及び76bにより、画像が投影される。短焦点プロジェクタ76a及び76bは左右のAピラー内に設置されてもよいし、左右のAピラーの外側に設定されてもよい。
 図16Cに示す例では、フロントウィンドシールドガラス74の上方に設置された短焦点プロジェクタ77画像が投影される。図16A~Cに例示するような、種々の構成のHUDに対して、本技術は適用可能である。なお図16A~Dに例示する構成を適宜組み合わせることも可能である。
 図17では、コンバイナー型のHUDが例示されている。図17Aに示す例では、運転者の視線に対向する位置に被投影部として機能するコンバイナー78が設置され、プロジェクタ79により画像が投影される。これによりユーザ(運転者)は、フロントウィンドシールドガラス80よりも前方側に表示される虚像を視聴することが可能となる。
 図17Bに示す例では、フロントウィンドシールドガラス81がコンバイナーとして用いられる。プロジェクタ82により、フロントウィンドシールドガラス81の所定の領域に画像が投影される。ユーザ(運転者)は、フロントウィンドシールドガラス81よりも前方側に表示される虚像を視聴することが可能となる。
 図17A及びBに例示するような、種々の構成のHUDに対して、本技術は適用可能である。なお図17A~Dに例示する構成を適宜組み合わせることも可能である。
 図18に示す画像表示システムは、天井の左右の端部に進行方向に沿って2つのプロジェクタ83a及び83bが設置される。そして車両内の側面全体及び天井全体に透過画像が表示される。このような画像表意システムに対しても、本技術は適用可能である。
 自動運転が実行されている場合には、運転から解放された状態で、スクリーン(被投影部)に投影された画像を視聴するといったことも多くなると考えられる。本技術を用いることで、快適な視聴環境を提供することが可能であり、非常に高品質な画像表示システムを実現することが可能となる。
 本技術は、様々な移動体に搭載される画像表示システムに適用することが可能である。例えば自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、飛行機、船舶、ロボット、建設機械、農業機械(トラクター)等に、本技術に係る画像表示システムを搭載することが可能である。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 図19~図22は、他の実施形態に係る画像表示システムを説明するための模式図である。上記の実施形態では、車両5の車内空間に画像1が表示される場合を例に挙げた。これに限定されず、車両5の外部空間に対して画像1が投影される場合でも、本技術は適用可能である。
 例えば図19A及びBに示すように、車両5のフロント部に画像表示部(画像投影部)として機能するプロジェクタ85が前方側に向けて配置される。そして、車両5の前方側の路面86を投影面として、画像1が投影される。
 本技術に係る画像表示システムにより、画像表示部を構成するプロジェクタ85の動き(振動V3)の影響を外部空間に対して抑制するための抑制画像表示が実行される。これにより、ユーザ(ユーザの眼)にとって、車外の景色を見ているのと同じ感覚で画像1を視聴することが可能となる。この結果、乗り物酔い等の不快感を軽減することが可能となり、快適な視聴環境を提供することが可能となる。
 図20A~Cに示すように、車両5の前方の壁面に対して、画像1を投影することも可能である。例えば、車両5の前方に位置し、車両5を左右から挟むように配置される左壁面87a及び右壁面87bに画像1を投影することが可能である。また車両5の左右の斜め前方に位置し、車両5に対して対向する左前方壁面88a及び右前方壁面88bに、画像1を投影することも可能である。
 もちろん斜め前ではなく、真正面に位置する正面壁面に画像1を投影することも可能である。また前方の上方側に位置する壁面に対して画像1を投影することも可能である。本技術に係る画像表示システムにより抑制画像表示を実行することで、快適な視聴環境を提供することが可能となる。
 図21に示す例では、車両5の左右のドアミラーの近くに、プロジェクタ89a及び89bが配置される。そして、車両5に対して真横に位置する左壁面90a及び右壁面90bに画像1が投影される。本技術に係る画像表示システムにより抑制画像表示を実行することで、快適な視聴環境を提供することが可能となる。
 図22に示す例では、移動体として、自動二輪車(モーターサイクル)91が用いられている。そしてモーターサイクル91の左右に下方に向けてプロジェクタ92a及び92bが配置される。図22A及びBに示すように、プロジェクタ92a及び92bにより、モーターサイクル91の左右のほぼ真下の路面93a及び93bに向けて、画像1が投影される。本技術に係る画像表示システムにより抑制画像表示を実行することで、快適な視聴環境を提供することが可能となる。
 もちろん、外部空間に向けて画像1を投影する方法、画像1を投影するための構成、画像1が投影される位置等は任意に設定されてよい。本技術を用いることで、快適な視聴環境を提供することが可能となる。
 また外部空間に向けて画像1を投影する場合には、移動体に乗って移動するユーザ以外の人物にとっても、プロジェクタ(画像表示部)の振動から切り離された画像表示が実現される。すなわち外部空間にいる人物に対しても、快適な視聴環境を提供することが可能となる。もちろん外部空間にいる人物を本技術に係る画像表示システムのユーザとして、様々なコンテンツを提供することが可能である。
 図23は、本技術に係る画像表示システムを適用可能なヘッドマウントディスプレイ(HMD)の構成例を示す斜視図である。図23に示すHMD200は、透過型のディスプレイを備えたメガネ型の装置であり、ユーザの頭部に装着されて使用される。ユーザが動くと、それに連動してHMD200が動く。例えば歩行や走行時にユーザの頭部が振動すると、HMD200も振動する。ユーザの動きと、HMD200とは、互いに関連する動きとなる。
 HMD200は、左右のレンズ201L及び201R、左眼用ディスプレイ202L及び右眼用ディスプレイ202R、及びセンサ部203L及び203Rを有する。左右のレンズ201L及び201Rは、ユーザの左眼及び右眼の前方にそれぞれ配置される。左眼用及び右眼用ディスプレイ202L及び202Rは、ユーザの視野を覆うように、左右のレンズ201L及び201Rにそれぞれ設けられる。
 左眼用及び右眼用ディスプレイ202L及び202Rは、透過型のディスプレイであり、左眼及び右眼用の画像等がそれぞれ表示される。HMD200を装着するユーザは、現実の景色を視認すると同時に、各ディスプレイに表示される画像を視認することが可能となる。これにより、ユーザは拡張現実感(AR)等を体験することが可能となる。
 左眼用及び右眼用ディスプレイ202L及び202Rとしては、例えば透過型の有機ELディスプレイやLCD(Liquid Crystal Display、液晶表示素子)ディスプレイ等が用いられる。左眼用及び右眼用ディスプレイ202L及び202Rは、画像表示部として機能する。
 センサ部203L及び203Rは、例えば加速度センサ、ジャイロセンサ及び地磁気センサ(9軸センサ)等を含み、ユーザの動きに応じて発生する左眼用及び右眼用ディスプレイ202L及び202Rの各々の振動量を算出することが可能である。
 左眼用及び右眼用ディスプレイ202L及び202Rに表示される画像が、左眼用及び右眼用ディスプレイ202L及び202Rの各々の振動(HMD200の振動)から切り離されて見えるように、本技術に係る抑制用画像表示が実行される。例えば画像情報が適宜処理されることで、左眼用及び右眼用ディスプレイ202L及び202Rに表示される画像の表示状態が制御される。左眼用及び右眼用ディスプレイ202L及び202Rが移動可能に構成されている場合は、左眼用及び右眼用ディスプレイ202L及び202R自体が移動されてもよい。
 このようにユーザに装着される装着体に、本技術に係る画像表示システムが搭載されてもよい。装着体としては、HMDに限定されず、他のウェアラブルデバイスや、ヘルメット等が挙げられる。例えばフルヘウス型のヘルメットにHUDを搭載する際に、本技術を適用することで、快適な視聴環境を実現することが可能となる。
 上記では、表示状態の制御として、画像シフト素子の制御と、画像情報の処理を例に挙げた。これに限定されず、プロジェクタ自体をシフト/回転させることで、画像の表示状態が制御されてもよい。また画像表示素子をシフト/回転させることで、画像の表示状態が制御されてもよい。
 上記では、画像表示システムとして、プロジェクタが用いられる場合を説明した。しかしながら有機ELディスプレイやLCD(Liquid Crystal Display、液晶表示素子)ディスプレイが用いられてもよい。そしてこれらディスプレイをシフト/回転させることで、画像の表示状態が制御されてもよい。
 乗り物酔い等の不快感を軽減することが可能とする方法として、地球座標系を意識させる画像表示が挙げられる。すなわち車内空間の意識を低減させるための画像表示である。例えば窓に主映像を映す、窓の外に虚像を投影する、視界を覆う大きな映像を見せる、車室内を真っ暗にする(主映像のみが浮いて見えるようにする)、車室内に車外の運動を反映した周辺映像を流す、といったことを実現することで、地球座標系を意識させることが可能である。上記で説明した抑制用画像表示に、この地球座標系を意識させる画像表示を組み合わせることで、さらに快適な視聴環境を提供することが可能となる。
 本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば動き情報の取得、抑制用画像表示の実行制御等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る情報処理方法、及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 各図面を参照して説明した画像表示システムや抑制用画像表示のフロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
 例えば、抑制用画像表示を実行するために、例えばDNN(Deep NeuralNetwork:深層ニューラルネットワーク)等を用いた任意の機械学習アルゴリズムが用いられてもよい。例えばディープラーニング(深層学習)を行うAI(人工知能)等を用いることで、振動等のキャンセルの精度を向上させることが可能となる。
 本開示において、「中央」「等しい」「垂直」「直交」等は、「実質的に中央」「実質的に等しい」「実質的に垂直」「実質的に直交」を含む概念とする。例えば「「完全に中央」「「完全に等しい」「「完全に垂直」「「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部と、
 前記画像表示部の動きに関する動き情報を取得する取得部と、
 前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる表示制御部と
 を具備する画像表示システム。
(2)(1)に記載の画像表示システムであって、
 前記抑制用画像表示は、前記画像表示部の動きの影響をキャンセルするための画像表示を含む
 画像表示システム。
(3)(1)又は(2)に記載の画像表示システムであって、
 前記抑制用画像表示は、前記ユーザにとって、前記画像が前記ユーザの動きに対応して相対的に動くようにするための画像表示を含む
 画像表示システム。
(4)(1)から(3)のうちいずれか1つに記載の画像表示システムであって、
 前記抑制用画像表示は、前記画像が前記画像表示部の動きに対応して動くことを抑制するための画像表示を含む
 画像表示システム。
(5)(1)から(4)のうちいずれか1つに記載の画像表示システムであって、
 前記抑制用画像表示は、前記ユーザの動きにより前記ユーザが感じる感覚と、前記ユーザが前記画像を視聴することで感じる感覚との不一致を抑制するための画像表示を含む
 画像表示システム。
(6)(1)から(5)のうちいずれか1つに記載の画像表示システムであって、
 前記抑制用画像表示は、前記ユーザにとって、景色を見ているように前記画像を視聴することを可能とするための画像表示を含む
 画像表示システム。
(7)(1)から(6)のうちいずれか1つに記載の画像表示システムであって、
 前記抑制用画像表示は、前記画像の表示状態を制御することを含む
 画像表示システム。
(8)(7)に記載の画像表示システムであって、
 前記抑制用画像表示は、前記画像の表示サイズ、前記画像の表示位置、及び前記画像の形状の少なくとも1つを制御することを含む
 画像表示システム。
(9)(1)から(8)のうちいずれか1つに記載の画像表示システムであって、
 前記画像表示部は、前記画像を投影する画像投影部と、前記画像が投影される被投影部とを有し、
 前記動き情報は、前記画像投影部の動きに関する動き情報、及び前記被投影部の動きに関する動き情報の少なくとも一方を含む
 画像表示システム。
(10)(9)に記載の画像表示システムであって、
 前記抑制用画像表示は、前記画像投影部及び前記被投影部の間の相対的な動きの影響を抑制するための画像表示を含む
 画像表示システム。
(11)(9)又は(10)に画像表示システムであって、
 前記画像投影部は、投影する画像の表示位置を光学的に移動させることが可能な画像移動機構を有し、
 前記抑制用画像表示は、前記画像移動機構の制御を含む
 画像表示システム。
(12)(9)から(11)のうちいずれか1つに記載の画像表示システムであって、
 前記抑制用画像表示は、投影される画像の画像情報を処理することで、前記画像投影部の投影領域内において前記画像を移動させることを含む
 画像表示システム。
(13)(11)に記載の画像表示システムであって、
 前記抑制用画像表示は、投影される画像の画像情報を処理することで、前記画像投影部の投影領域内において前記画像を移動させることを含み、
 前記表示制御部は、前記取得された動き情報に基づいて前記投影される画像への前記画像表示部の動きの影響を検出し、前記検出された影響に基づいて前記画像移動機構の制御内容と、前記画像情報の処理内容とをそれぞれ設定する
 画像表示システム。
(14)(13)に記載の画像表示システムであって、
 前記表示制御部は、前記画像移動機構の制御が前記画像情報の処理によりも優先されるように、前記画像移動機構の制御内容と、前記画像情報の処理内容とをそれぞれ設定する
 画像表示システム。
(15)(1)から(14)のうちいずれか1つに記載の画像表示システムであって、
 前記ユーザを乗せて移動させることが可能な移動体に搭載される
 画像表示システム。
(16)(1)から(14)のうちいずれか1つに記載の画像表示システムであって、
 前記ユーザに装着される装着体に搭載される
 画像表示システム。
(17)画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得する取得部と、
 前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる表示制御部と
 を具備する情報処理装置。
(18)画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得し、
 前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる
 ことをコンピュータシステムが実行する情報処理方法。
(19)画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得するステップと、
 前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させるステップと
 をコンピュータシステムに実行させるプログラム。
(20)ユーザが搭乗可能な搭乗部を含む本体部と、
 前記本体部に設けられ画像を表示可能である画像表示部と、
 前記本体部に設けられた前記画像表示部の動きに関する動き情報を取得する取得部と、
 前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる表示制御部と
 を具備する移動体。
 1…画像
 2…ユーザの眼
 3…景色
 5…車両
 7…投影領域
 10、40…画像表示システム
 11、62、64、66、70、72…スクリーン
 12、61、63a、63b、65、79、82、83a、83b、85、89a、89b、92a、92b…プロジェクタ
 16…画像シフト素子制御部
 18…画像シフト素子
 20、50…表示制御部
 31…プロジェクタ運動センサ
 41…スクリーン運動センサ
 67、69a、69b、71a、71b、75、76a、76b、77…短焦点プロジェクタ
 74、80、81…フロントウィンドシールドガラス
 78…コンバイナー
 91…自動二輪車(モーターサイクル)
 100…車両制御システム
 200…HMD
 202R…右眼用ディスプレイ
 202L…左眼用ディスプレイ
 203L、203R…センサ部

Claims (20)

  1.  画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部と、
     前記画像表示部の動きに関する動き情報を取得する取得部と、
     前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる表示制御部と
     を具備する画像表示システム。
  2.  請求項1に記載の画像表示システムであって、
     前記抑制用画像表示は、前記画像表示部の動きの影響をキャンセルするための画像表示を含む
     画像表示システム。
  3.  請求項1に記載の画像表示システムであって、
     前記抑制用画像表示は、前記ユーザにとって、前記画像が前記ユーザの動きに対応して相対的に動くようにするための画像表示を含む
     画像表示システム。
  4.  請求項1に記載の画像表示システムであって、
     前記抑制用画像表示は、前記画像が前記画像表示部の動きに対応して動くことを抑制するための画像表示を含む
     画像表示システム。
  5.  請求項1に記載の画像表示システムであって、
     前記抑制用画像表示は、前記ユーザの動きにより前記ユーザが感じる感覚と、前記ユーザが前記画像を視聴することで感じる感覚との不一致を抑制するための画像表示を含む
     画像表示システム。
  6.  請求項1に記載の画像表示システムであって、
     前記抑制用画像表示は、前記ユーザにとって、景色を見ているように前記画像を視聴することを可能とするための画像表示を含む
     画像表示システム。
  7.  請求項1に記載の画像表示システムであって、
     前記抑制用画像表示は、前記画像の表示状態を制御することを含む
     画像表示システム。
  8.  請求項7に記載の画像表示システムであって、
     前記抑制用画像表示は、前記画像の表示サイズ、前記画像の表示位置、及び前記画像の形状の少なくとも1つを制御することを含む
     画像表示システム。
  9.  請求項1に記載の画像表示システムであって、
     前記画像表示部は、前記画像を投影する画像投影部と、前記画像が投影される被投影部とを有し、
     前記動き情報は、前記画像投影部の動きに関する動き情報、及び前記被投影部の動きに関する動き情報の少なくとも一方を含む
     画像表示システム。
  10.  請求項9に記載の画像表示システムであって、
     前記抑制用画像表示は、前記画像投影部及び前記被投影部の間の相対的な動きの影響を抑制するための画像表示を含む
     画像表示システム。
  11.  請求項9に記載の画像表示システムであって、
     前記画像投影部は、投影する画像の表示位置を光学的に移動させることが可能な画像移動機構を有し、
     前記抑制用画像表示は、前記画像移動機構の制御を含む
     画像表示システム。
  12.  請求項9に記載の画像表示システムであって、
     前記抑制用画像表示は、投影される画像の画像情報を処理することで、前記画像投影部の投影領域内において前記画像を移動させることを含む
     画像表示システム。
  13.  請求項11に記載の画像表示システムであって、
     前記抑制用画像表示は、投影される画像の画像情報を処理することで、前記画像投影部の投影領域内において前記画像を移動させることを含み、
     前記表示制御部は、前記取得された動き情報に基づいて前記投影される画像への前記画像表示部の動きの影響を検出し、前記検出された影響に基づいて前記画像移動機構の制御内容と、前記画像情報の処理内容とをそれぞれ設定する
     画像表示システム。
  14.  請求項13に記載の画像表示システムであって、
     前記表示制御部は、前記画像移動機構の制御が前記画像情報の処理によりも優先されるように、前記画像移動機構の制御内容と、前記画像情報の処理内容とをそれぞれ設定する
     画像表示システム。
  15.  請求項1に記載の画像表示システムであって、
     前記ユーザを乗せて移動させることが可能な移動体に搭載される
     画像表示システム。
  16.  請求項1に記載の画像表示システムであって、
     前記ユーザに装着される装着体に搭載される
     画像表示システム。
  17.  画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得する取得部と、
     前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる表示制御部と
     を具備する情報処理装置。
  18.  画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得し、
     前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる
     ことをコンピュータシステムが実行する情報処理方法。
  19.  画像を表示可能であり、ユーザの動きと関連する動きをする画像表示部の動きに関する動き情報を取得するステップと、
     前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させるステップと
     をコンピュータシステムに実行させるプログラム。
  20.  ユーザが搭乗可能な搭乗部を含む本体部と、
     前記本体部に設けられ画像を表示可能である画像表示部と、
     前記本体部に設けられた前記画像表示部の動きに関する動き情報を取得する取得部と、
     前記取得された動き情報に基づいて、前記画像表示部の動きの影響を外部空間に対して抑制するための抑制用画像表示を、前記画像表示部に実行させる表示制御部と
     を具備する移動体。
PCT/JP2019/003672 2018-03-19 2019-02-01 画像表示システム、情報処理装置、情報処理方法、プログラム、及び移動体 WO2019181233A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19771552.7A EP3770898A4 (en) 2018-03-19 2019-02-01 IMAGE DISPLAY SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOBILE BODY
CN201980018612.4A CN111837175B (zh) 2018-03-19 2019-02-01 图像显示系统、信息处理装置、信息处理方法、程序和移动体
US16/979,877 US11232769B2 (en) 2018-03-19 2019-02-01 Image display system, information processing apparatus, information processing method, program, and mobile object
KR1020207025195A KR102550382B1 (ko) 2018-03-19 2019-02-01 화상 표시 시스템, 정보 처리 장치, 정보 처리 방법, 프로그램, 및 이동체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018050844 2018-03-19
JP2018-050844 2018-03-19

Publications (1)

Publication Number Publication Date
WO2019181233A1 true WO2019181233A1 (ja) 2019-09-26

Family

ID=67986085

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003672 WO2019181233A1 (ja) 2018-03-19 2019-02-01 画像表示システム、情報処理装置、情報処理方法、プログラム、及び移動体

Country Status (5)

Country Link
US (1) US11232769B2 (ja)
EP (1) EP3770898A4 (ja)
KR (1) KR102550382B1 (ja)
CN (1) CN111837175B (ja)
WO (1) WO2019181233A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256483A1 (ja) * 2020-06-19 2021-12-23 ソニーグループ株式会社 制御装置、投影システム、制御方法及びプログラム
WO2024084951A1 (ja) * 2022-10-19 2024-04-25 ソニーグループ株式会社 プロジェクションシステム、制御装置、および制御方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202000004891A1 (it) * 2020-03-09 2021-09-09 Ferrari Spa Metodo di assistenza alla guida prestazionale di un veicolo stradale con interfaccia in realta' aumentata
JPWO2021251115A1 (ja) * 2020-06-08 2021-12-16
JP7057053B1 (ja) 2021-03-19 2022-04-19 三菱ロジスネクスト株式会社 荷役システム
DE102021107390A1 (de) * 2021-03-24 2022-09-29 Claas E-Systems Gmbh Landwirtschaftliche Arbeitsmaschine
US11726340B1 (en) 2022-03-28 2023-08-15 Honeywell International Inc. Systems and methods for transforming video data in an indirect vision system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019452A (ja) * 2010-07-09 2012-01-26 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
JP2012109708A (ja) * 2010-11-16 2012-06-07 Seiko Epson Corp 映像表示装置及び映像表示方法
JP2015019274A (ja) * 2013-07-11 2015-01-29 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2015146805A1 (ja) * 2014-03-25 2015-10-01 コニカミノルタ株式会社 投光装置、及び、投光方法
DE102014112077A1 (de) * 2014-08-22 2016-02-25 Connaught Electronics Ltd. Vorrichtung zur Linderung von Reisekrankheit in einem Kraftfahrzeug
JP2017171243A (ja) 2016-03-25 2017-09-28 三菱自動車工業株式会社 車両用モニタ表示システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2767774B2 (ja) * 1990-03-30 1998-06-18 ウシオ電機株式会社 投影露光装置
JP4300818B2 (ja) * 2002-11-25 2009-07-22 日産自動車株式会社 車載表示装置および携帯表示装置
US7284866B2 (en) * 2005-01-05 2007-10-23 Nokia Corporation Stabilized image projecting device
JP5010202B2 (ja) * 2006-07-31 2012-08-29 Necディスプレイソリューションズ株式会社 プロジェクタおよび投射画像調整方法
JP5060792B2 (ja) * 2007-01-29 2012-10-31 三洋電機株式会社 投写光学系、投写用ユニットおよび投写型表示装置
JP2010070066A (ja) 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
CN102314315B (zh) * 2010-07-09 2013-12-11 株式会社东芝 显示装置、图像数据生成装置、图像数据生成程序及显示方法
JP5648907B2 (ja) * 2010-11-26 2015-01-07 株式会社ニコン 変倍光学系、及び、光学機器
US9959591B2 (en) * 2014-07-31 2018-05-01 Seiko Epson Corporation Display apparatus, method for controlling display apparatus, and program
CN107430261B (zh) * 2015-01-30 2020-07-17 株式会社尼康 变倍光学系统以及光学设备
WO2018110448A1 (ja) * 2016-12-12 2018-06-21 ソニーセミコンダクタソリューションズ株式会社 投影光学系、画像投影装置、および画像投影システム
JP7077611B2 (ja) * 2017-12-27 2022-05-31 セイコーエプソン株式会社 プロジェクター、マルチプロジェクションシステムおよびプロジェクターの制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019452A (ja) * 2010-07-09 2012-01-26 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
JP2012109708A (ja) * 2010-11-16 2012-06-07 Seiko Epson Corp 映像表示装置及び映像表示方法
JP2015019274A (ja) * 2013-07-11 2015-01-29 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2015146805A1 (ja) * 2014-03-25 2015-10-01 コニカミノルタ株式会社 投光装置、及び、投光方法
DE102014112077A1 (de) * 2014-08-22 2016-02-25 Connaught Electronics Ltd. Vorrichtung zur Linderung von Reisekrankheit in einem Kraftfahrzeug
JP2017171243A (ja) 2016-03-25 2017-09-28 三菱自動車工業株式会社 車両用モニタ表示システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256483A1 (ja) * 2020-06-19 2021-12-23 ソニーグループ株式会社 制御装置、投影システム、制御方法及びプログラム
WO2024084951A1 (ja) * 2022-10-19 2024-04-25 ソニーグループ株式会社 プロジェクションシステム、制御装置、および制御方法

Also Published As

Publication number Publication date
US20200410963A1 (en) 2020-12-31
EP3770898A1 (en) 2021-01-27
CN111837175B (zh) 2023-11-14
EP3770898A4 (en) 2021-05-26
US11232769B2 (en) 2022-01-25
CN111837175A (zh) 2020-10-27
KR20200131820A (ko) 2020-11-24
KR102550382B1 (ko) 2023-07-04

Similar Documents

Publication Publication Date Title
WO2019181233A1 (ja) 画像表示システム、情報処理装置、情報処理方法、プログラム、及び移動体
JP7188397B2 (ja) 画像処理装置及び画像処理方法
US20180278920A1 (en) Entertainment apparatus for a self-driving motor vehicle
JPWO2019167457A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
JP7371629B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
JP7382327B2 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
JPWO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
JP7209651B2 (ja) 車両の画像提供システム、および車両の画像提供方法
US11151775B2 (en) Image processing apparatus, display system, computer readable recoring medium, and image processing method
WO2020116194A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
WO2019073795A1 (ja) 情報処理装置、自己位置推定方法、プログラム、及び、移動体
WO2021015171A1 (ja) ヘッドアップディスプレイ
US20230186651A1 (en) Control device, projection system, control method, and program
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
WO2024062976A1 (ja) 情報処理装置及び情報処理方法
JP7487178B2 (ja) 情報処理方法、プログラム、及び、情報処理装置
WO2021132250A1 (en) In-vehicle display device and program
US20230415652A1 (en) Camera module, information processing system, information processing method, and information processing apparatus
WO2021153262A1 (ja) 移動装置用シート、シート制御装置、及び、シート制御方法
WO2024038759A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2022085479A1 (ja) 情報処理装置、情報処理方法、及び、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19771552

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019771552

Country of ref document: EP

Effective date: 20201019

NENP Non-entry into the national phase

Ref country code: JP