WO2017208719A1 - 表示制御装置及び表示制御方法、表示装置、並びに移動体装置 - Google Patents
表示制御装置及び表示制御方法、表示装置、並びに移動体装置 Download PDFInfo
- Publication number
- WO2017208719A1 WO2017208719A1 PCT/JP2017/017095 JP2017017095W WO2017208719A1 WO 2017208719 A1 WO2017208719 A1 WO 2017208719A1 JP 2017017095 W JP2017017095 W JP 2017017095W WO 2017208719 A1 WO2017208719 A1 WO 2017208719A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- window
- mode
- unit
- moving body
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 17
- 238000001514 detection method Methods 0.000 claims abstract description 74
- 230000005540 biological transmission Effects 0.000 claims description 65
- 230000004044 response Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 6
- 239000005357 flat glass Substances 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000391 smoking effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 206010025482 malaise Diseases 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 241000167854 Bourreria succulenta Species 0.000 description 1
- 241001600609 Equus ferus Species 0.000 description 1
- 241000269400 Sirenidae Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000019693 cherries Nutrition 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 231100000206 health hazard Toxicity 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000019645 odor Nutrition 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/66—Transforming electric information into light information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/04—Structural and physical details of display devices
- G09G2300/0439—Pixel structures
- G09G2300/0456—Pixel structures with a reflective area and a transmissive area combined in one pixel, such as in transflectance pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
Definitions
- the technology disclosed in this specification relates to a display control apparatus, a display control method display apparatus, and a mobile apparatus that control display of an image in a closed space, and in particular, controls display of an image in a room of a mobile object such as a vehicle.
- the present invention relates to a display control device, a display control method, a display device, and a mobile device.
- the cabin is a space for clothing, food and living similar to the living room at home. Passengers are almost unaware that they are in the car, reading books, operating information terminals such as smartphones, watching movies and other content on displays installed in the passenger compartment, and other boarding It is assumed that a person has a conversation or a meeting with a person.
- Watching video in the passenger compartment has already been done. It is common to use an onboard display or a head-up display for viewing images in the passenger compartment.
- an in-vehicle image display device that acquires image information of a landscape that would be visible outside the vehicle at the position of the vehicle from a storage device and displays the information on a window glass has been proposed (see, for example, Patent Document 2). thing).
- image data representing an image around the vehicle is generated.
- a vehicle-mounted image display device that displays on display means provided on at least the entire front window portion of the vehicle has been proposed (see, for example, Patent Document 3).
- An object of the technology disclosed in the present specification is to provide a display control device, a display control method, a display device, and a mobile device that display an image in a room of a mobile device such as a vehicle.
- a detection unit for detecting the status of the moving object
- a control unit for controlling a display mode of a display unit having a transmission mode for displaying a landscape outside the moving body on at least a part of a display screen based on a detection result of the detection unit; Is a display control device.
- the display unit superimposes a content video on at least a part of the transparent mode and the external landscape, or displays the content video on the entire display screen.
- the said control part of the display control apparatus which concerns on a 1st side surface is comprised so that the said display part may be set to either the said transmission mode or the said non-transmission mode according to the detection result of the said detection part. Yes.
- the display unit displays an image on the display screen including an inner wall surface of the moving body. It is configured.
- the moving body includes a window.
- the display unit is configured to display an image on the display screen including an inner wall surface of the moving body including the window.
- the window can be opened and closed. Further, the display unit opens the window in the transparent mode or displays the scenery outside the moving body on at least a part of the display screen including the window, and closes the window in the non-transparent mode.
- the content video is superimposed on at least a part of the external landscape displayed on the display screen including the window, or the content video is displayed on the entire display screen.
- the window in the display control device according to the fourth aspect, can switch between a transmissive state that transmits light and a non-transmissive state that blocks light.
- the display unit sets the window to the transmission state so that the scenery outside the moving body can be seen.
- the non-transmission mode the display unit sets at least a part of the window to the non-transmission state.
- the content video is superimposed on at least a part of an external landscape, or the content video is displayed on the entire display screen including the window.
- the display unit includes the window on a display screen, and is mounted on the moving body in the transmission mode.
- An image of the scenery outside the moving body captured by a camera is displayed in the window frame, and in the non-transparent mode, the content image is superimposed on at least a part of the window frame or within the window frame. It is configured to display content video as a whole.
- the detection unit of the display control device acquires information about a current position of the moving body, and the control unit Based on the current position of the body, the display unit is configured to switch from the transmissive mode to the non-transmissive mode, or to switch from the non-transmissive mode to the transmissive mode.
- the detection unit of the display control device acquires information about an internal or external situation of the moving body or an ambient environment, and the control unit Is configured to switch the display unit from the transmissive mode to the non-transmissive mode, or from the non-transmissive mode to the transmissive mode, based on the situation outside the moving body.
- control unit of the display control device is configured to display the display in response to the detection unit detecting that the traffic is congested.
- the unit is configured to switch to a non-transparent mode.
- the window in the display control device according to the seventh aspect, can be opened and closed.
- the control unit is configured to prohibit the opening and closing of the window under the transmission mode in which an image captured by a camera mounted on the moving body is displayed in a frame of the window.
- the window in the display control device according to the seventh aspect, can be opened and closed.
- the display unit In the transmission mode in which an image captured by the camera mounted on the moving body is displayed in the window frame, the display unit displays the image in the window frame in conjunction with the opening / closing position of the window. Is configured to change.
- the thirteenth aspect of the technology disclosed in this specification is: A detection step for detecting the status of the moving object; A control step of controlling a display mode of a display unit having a transmission mode for displaying a landscape outside the moving body on at least a part of a display screen; Is a display control method.
- the fourteenth aspect of the technology disclosed in this specification is: A detection unit for detecting the status of the moving object; A display unit mounted on the mobile body and having a transmission mode for displaying a landscape outside the mobile body on at least a part of a display screen; A control unit that controls a display mode of the display unit based on a detection result of the detection unit; Is a display device.
- a moving object A display unit having a transparent mode for displaying a landscape outside the moving body on at least a part of a display screen;
- a detection unit for detecting the state of the moving body;
- a control unit that controls a display mode of the display unit based on a detection result of the detection unit; It is a moving body apparatus which comprises.
- a display control device a display control method, a display device, and a mobile device that display an image in a room of a mobile device such as a vehicle.
- FIG. 1 is a diagram schematically showing a mechanism for using an inner wall surface of a passenger compartment as an omnidirectional display.
- FIG. 2 is a diagram schematically illustrating a functional configuration of the display control system 200.
- FIG. 3 is a diagram showing a video see-through display of the captured image of the in-vehicle camera within the frame of the window under the transparent mode.
- FIG. 4 is a view showing the scenery outside the vehicle that can be seen through the window when the window is fully opened, in contrast to FIG.
- FIG. 5 is a diagram illustrating a video see-through display of the captured image of the in-vehicle camera on the half-opened window.
- FIG. 1 is a diagram schematically showing a mechanism for using an inner wall surface of a passenger compartment as an omnidirectional display.
- FIG. 2 is a diagram schematically illustrating a functional configuration of the display control system 200.
- FIG. 3 is a diagram showing a video see-through display of the captured image of the in-vehicle
- FIG. 6 is a diagram showing a video see-through display of the image captured by the in-vehicle camera in a half-open window.
- FIG. 7 is a diagram showing a functional configuration for controlling the display of video see-through video in conjunction with the opening / closing position of the power window.
- Autonomous driving uses radar, LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), GNSS (Global Navigation Satelite System, for example, GPS (Global Positioning System) and other vehicle sensing devices such as GPS (Global Positioning System) and other devices. It can also be defined as an operation mode that autonomously travels to a specified destination while recognizing the environment.
- GPS Global Positioning System
- GNSS Global Navigation Satelite System
- GPS Global Positioning System
- GPS Global Positioning System
- other vehicle sensing devices such as GPS (Global Positioning System) and other devices. It can also be defined as an operation mode that autonomously travels to a specified destination while recognizing the environment.
- the strict definition of automatic driving is not particular.
- the automatic driving may be performed only on a dedicated driving lane or a lane section of an automatic driving vehicle set on an expressway or a general road.
- the interior wall surface of the passenger compartment be an omnidirectional display as one of the ways to use the vehicle to drive automatically.
- the interior wall surface of the passenger compartment can be used for the display not only during automatic driving, but also during manual driving or renting cars, but at least the windshield cannot be used for the display for the driver's driving operation. .
- Fig. 1 schematically shows a mechanism for using the inner wall surface of the passenger compartment as a spherical display.
- the inner wall surface of the passenger compartment 100 is drawn as a rectangular parallelepiped.
- a plurality of projectors 110-1, 110-2,..., 110 -N are installed in the passenger compartment 100, and images from each projector are projected to display a spherical image on the inner wall surface of the passenger compartment 100. Can be displayed.
- the omnidirectional video referred to in this specification is not necessarily required to display a 360-degree video, and a part of the visual field may be missing.
- the omnidirectional video may be a hemispherical video that does not include a floor surface with little information (the same applies hereinafter).
- the reason for using a plurality of projectors 110-1, 110-2,..., 110-N is that a single projector cannot display an image on the entire inner wall surface of the passenger compartment 100, and that passengers in the passenger compartment 100 For example, shadows can be created.
- a single projector cannot display an image on the entire inner wall surface of the passenger compartment 100, and that passengers in the passenger compartment 100 For example, shadows can be created.
- a stitching process is performed so that the joint portion between the projection images of adjacent projectors is aligned.
- displaying the omnidirectional image on the inner wall surface of the passenger compartment 100 is not limited to the method using a projection display as shown in FIG.
- a flat display such as a liquid crystal display (LCD) or a flexible display such as an organic EL (electroluminescence) display (OLED) is attached to the inner wall surface of the passenger compartment 100 to display a full-sky image. You may make it display.
- the configuration is not limited to the configuration in which all the inner wall surfaces of the passenger compartment 100 as shown in FIG. This includes the case where only the screen is formed on the three surfaces excluding glass, only the windshield, and only the ceiling.
- a passenger compartment of a four-door ordinary passenger car is assumed, and the inner wall surface of the passenger compartment 100 includes a windshield 101, a rear window 102, and seats (driver seat, front passenger seat, left and right rear seats). ) Side windows 103 to 106 are included.
- the vehicle may be equipped with a sunroof.
- window glasses can be electrically switched, for example, between a transmission state that transmits light and a non-transmission state that does not transmit light (or blocks light). It is assumed that the projected image of the projector can be displayed.
- each of the side windows 103 to 106 (or a part of the side windows) is always non-transparent, but may be made transparent by opening the windows.
- each of the side windows 103 to 106 (or some of the side windows) is always in a non-transparent state, but a live surrounding image captured by the in-vehicle camera is displayed in the frame of the window (for example, “video” It may be possible to make the window appear to be in a transparent state.
- the sunroof may also have a transmissive state and a non-transmissive state using any one of the methods described above.
- an immersive virtual space can be constructed by displaying the omnidirectional video in a closed space such as the passenger compartment 100.
- the entire inner wall surface of the passenger compartment 100 including the windshield may be used to display content images such as omnidirectional images.
- the images displayed on the inner wall surface of the passenger compartment 100 are various.
- it may be a commercial content such as a movie, an image captured by an in-vehicle camera installed in the vehicle, an image captured by a mobile camera installed in a vehicle other than the host vehicle or a flying object (such as a drone), or any place
- It may be an image captured by a fixed point camera fixed to.
- the captured video may be a live video or an archive video.
- the image displayed on the inner wall surface of the passenger compartment 100 is not limited to a live-action image, and may be an image reproduced by CG (Computer Graphics) technology.
- CG Computer Graphics
- the passenger compartment 100 by displaying on the inner wall surface of the passenger compartment 100 an image of a living room at home or a favorite place for a passenger (a cafe terrace, a frequently used park, a frequently used library, etc.) In some cases, it is possible to create a comfortable virtual space where passengers can be very relaxed. By constructing a virtual space in the passenger compartment 100, for example, even if the vehicle is involved in a traffic jam, there is no need to give the passenger an uncomfortable feeling. For example, if the vehicle is in automatic driving, the whole celestial sphere image may be displayed using the entire inner wall surface of the passenger compartment 100 including the windshield, and all passengers including the driver can be immersed in the virtual space. it can.
- the celestial sphere image to be displayed in the passenger compartment 100 may be designated by the passenger through manual input or voice instruction, or automatically selected on the vehicle (system) side. Also good. For example, it may be automatically selected from a large number of video contents based on the display history of the video in the vehicle, the viewing history or the behavior history of the passenger. Alternatively, the video content may be designated from the outside to the vehicle via V2X (Vehicleto X communication).
- V2X Vehicleto X communication
- the video content may be stored in advance in a recording device mounted on the vehicle, or a portable medium (such as a Blu-ray disc) on which the video content is recorded may be brought into the passenger compartment 100 and played back.
- a video streamed from an external device such as a video server may be received via, for example, V2X communication.
- the passenger can construct a virtual space in the passenger compartment 100, but on the other hand, it is assumed that the user wants to confirm or confirm the scenery around the vehicle, in other words, the real space, by temporarily stopping viewing the video.
- At least a part of the windows 101 to 106 provided in the passenger compartment 100 is transmissive as well as non-transmissive. It has a state. Accordingly, by switching at least a part of the windows 101 to 106 from the non-transparent state to the transparent state, even if the whole sky image is being displayed, the window 101 is passed through the transparent state (or the window is changed to the transparent state). The scenery outside the car (displayed) can be observed.
- the “transmission state” of the window here means that the outside of the vehicle is moved by changing the window glass from a non-transmission state where light is electrically blocked to a transmission state where light is transmitted, or when the window is opened while not transmitting light. It is possible to display the surrounding image of the live image picked up by the in-vehicle camera in the visible state, or in the frame of the window that does not transmit light (described above).
- the driver When driving manually or renting a car, the driver is always watching the outside world, so other passengers can be taught the appropriate timing.
- the passenger can check the scenery outside the vehicle by being prompted by the driver to switch at least some of the windows to a transparent state (for example, by opening the windows).
- all windows 101 to 106 are in a non-transparent state and an all-sky image is displayed over the entire inner wall surface of the passenger compartment 100 (that is, a virtual space is constructed in the passenger compartment 100).
- a virtual space is constructed in the passenger compartment 100.
- the vehicle is configured to constantly monitor the vehicle status during the construction of the virtual space in the passenger compartment and automatically switch the window to the transparent state when it detects that a predetermined event has occurred. Has been. However, since the passenger may not like the virtual space in which the passenger is immersed, he / she may not want to be interrupted. Therefore, when switching the window to the transparent state, the passenger should be allowed to switch via the GUI (Graphical User Interface). It may be.
- GUI Graphic User Interface
- the vehicle when the vehicle detects that the predetermined event has disappeared during the period in which the window is switched to the transmissive state, the vehicle automatically returns the transmissive state to the non-transmissive state, and the entire inner wall surface of the passenger compartment 100
- the virtual space for displaying the spherical image may be reconstructed using the.
- the passenger does not need to look outside the vehicle when passing through a point of interest, a person of interest, or an object of interest.
- the passenger's permission may be obtained via the GUI or the like. This is because the passenger may want to continue to confirm or observe the real space, that is, the state outside the vehicle.
- the detection targets that should be monitored to automatically switch between the transparent state and non-transparent state of the window are various, such as the current position of the vehicle, the situation outside the vehicle, the situation inside the vehicle, and the surrounding environment.
- the contents of each detection target and the detection method / detection device are summarized below.
- the current position of the vehicle is, for example, position information obtained by receiving a GNSS signal (for example, a GPS signal from a GPS satellite) from a GNSS (Global Navigation Satellite System) satellite and performing positioning and including the latitude, longitude, and altitude of the vehicle.
- a positioning unit that generates
- the positioning unit may specify the current position based on the electric measurement information from the wireless access point using PlaceEngine (registered trademark) or the like, or a mobile phone having a positioning function, PHS (Personal Handy-phone)
- PlaceEngine registered trademark
- PHS Personal Handy-phone
- the position information may be acquired from a portable terminal possessed by the passenger, such as a system or smartphone, via Wi-Fi communication or a USB (Universal Serial Bus) cable.
- the passenger may directly specify the destination via, for example, an input unit equipped on the instrument panel.
- the passenger may indicate the destination by voice.
- the destination may be automatically determined by analyzing the past behavior history of the passengers, the contents of the conversation between the passengers, and the like.
- the past action history may be recorded in the form of a drive recorder or the like, may be recorded in an information terminal possessed by a passenger such as a smartphone, or via V2X communication or the like.
- the personal information server may be inquired for acquisition.
- the point of interest on the route of the vehicle may be extracted using map information.
- the map information may be stored in advance in a recording device mounted on the vehicle, or may be sequentially acquired from the outside via V2X communication or the like.
- the point of interest may be detected based on the result of object recognition of the captured image of the in-vehicle camera.
- an object such as a building recognized from the captured image of the in-vehicle camera may be collated with an external database via V2X communication or the like to determine whether or not it is a point of interest.
- the point of interest is not always universal. What determines the point of interest (that is, the definition of the point of interest) may be determined based on, for example, the passenger's hobby preference or past action history.
- the passenger's hobby preferences and past behavior history may be recorded on an information terminal possessed by the passenger, such as a smartphone, or may be acquired by inquiring of a personal information server via V2X communication or the like. May be.
- the definition of the point of interest may change depending on the season, time of day, and weather. For example, there are places that you want to see during the day but do not need to see at night or in bad weather, and cherry blossom spots that are out of bloom. In such cases, a clock and an environmental sensor for detecting current weather or weather should also be added to the detection device for detecting the point of interest.
- the current position of the vehicle acquired by the positioning unit is compared with the position information of the destination and the point of interest, and when the current position falls within a predetermined range from the destination and the point of interest, the window is switched to a transparent state.
- the window is switched to a transparent state.
- the window switched to the transparent state is returned to the non-transparent state, and the vehicle The virtual space of the room 100 may be reconstructed.
- a person of interest or an object of interest by recognizing a face or object of an image captured by an in-vehicle camera.
- visual information such as two-dimensional barcodes and markers is placed on the surface of the target person or target object so that it can be detected by simple image recognition processing, and the target person or target object is detected based on this visual information. You may make it do.
- an oscillator that transmits a specific wireless signal to the person of interest or the object of interest may be equipped, and the person of interest or the object of interest may be detected by receiving the wireless signal at the receiver on the vehicle side.
- the definition of the person of interest and the object of interest is arbitrary.
- the passenger may specify his or her attention person or object on the vehicle side in advance.
- the person of interest or the object of interest may be determined based on the hobby preference of the passenger and the past action history.
- the passenger's hobby preferences and past behavior history may be recorded on an information terminal possessed by the passenger, such as a smartphone, or may be acquired by inquiring of a personal information server via V2X communication or the like. May be.
- the captured image of the in-vehicle camera (or the information of the face or object recognized from the captured image) is collated with the personal information server, and the person of interest or the person of interest Alternatively, the determination result as to whether or not the object is an attention object may be returned to the vehicle side.
- the window is switched to the transparent state so that the passenger can see the scenery outside the vehicle.
- it is not necessary to make all the windows transparent and only the windows in which the person of interest or the object of interest can be seen well may be made transparent so as to keep the immersion of the virtual space as much as possible.
- only the side window closest to the passenger may be switched to the transparent state.
- the virtual space of the passenger compartment 100 may be reconstructed by returning the window that has been switched to the transparent state to the non-transparent state.
- the in-vehicle camera that captures the interior of the vehicle
- the thermo camera the driver
- the biometric sensor that detects the biometric information of each occupant (sweat, body temperature, heart rate, etc.)
- Smoking can be monitored.
- it can detect that a passenger started smoking using a smoke sensor.
- the window is switched to the transparent state so that the passenger can see the scenery outside the vehicle or can evoke the inside of the vehicle.
- the windows that are closest to a specific passenger for example, those who feel unwell, those who want to look outside the car, or smokers.
- the immersive feeling of the virtual space may be maintained as much as possible.
- the virtual space of the passenger compartment 100 may be reconstructed by returning the window switched to the non-transparent state.
- a situation in the vehicle that triggers switching a transparent window to a non-transparent state is also assumed. For example, when a passenger starts a meal, party or secret conversation in the car, or meets with a certain person in the car and does not want to be peeked from outside the car. These events can be detected by analyzing the captured image of the dramoni camera or the sound in the vehicle collected by the microphone. When these events are detected, if there is a transparent window, the window is switched to the non-transparent state. Alternatively, a part of the windows may be in a transparent state as long as something that is not desired to be peeked out of the vehicle can be hidden.
- Examples of the surrounding environment that triggers switching the window to the transparent state include when the weather changes and when the vehicle encounters an abnormal situation such as an accident or disaster. When such an event occurs, the passenger may want to interrupt (or need to confirm) the situation around the vehicle through the window by interrupting viewing of the omnidirectional video.
- the window cannot be left open during rain, snow, storms, lightning strikes, extreme heat, or extreme cold. Also, if your vehicle gets caught in a traffic jam, you don't want to see the boring scenery outside the car, and you want to immerse yourself in the virtual space. In addition, when encountering an accident or disaster, the window cannot be left open if it cannot withstand the noise of emergency vehicles such as sirens and wild horses, or if smoke or odors spread around the vehicle. If the window is open and transparent, it should be switched to a completely closed non-transparent state.
- the window should be in a non-transparent state based on the current weather or an environmental sensor for detecting the weather, an image around the vehicle captured by the in-vehicle camera, weather information received via V2X communication, etc.
- An event can be detected.
- traffic jam information information transmitted from an information organization such as a road traffic center can be received via radio broadcasting, V2X communication, or the like.
- accidents and disasters can be detected based on emergency information distributed by radio broadcasting or one-segment broadcasting.
- the window is switched to the transmissive state or the window is switched to the transmissive state or the non-transparent state depending on the detected situation.
- the “transmission state” of the window is determined by changing the window glass from a non-transmission state that electrically blocks light to a transmission state that transmits light, or by opening a window that does not transmit light but opens the window. It is possible to realize this by various methods, such as displaying a live ambient image captured by an in-vehicle camera in a window frame that does not transmit light, and the like.
- the passenger can observe the scenery outside the vehicle.
- the display mode of the display unit when at least one window is in a transparent state and a scenery outside the vehicle can be seen will be referred to as a “transparent mode”.
- transparent mode the display mode of the display unit when at least one window is in a transparent state and a scenery outside the vehicle can be seen
- the content image is displayed on at least a part of the window where the scenery outside the vehicle can be seen, or the content image is displayed on the entire inner wall surface of the passenger compartment 100 including all windows, or all windows are not transparent.
- the display mode of the display unit in the state is referred to as “non-transparent mode”.
- FIG. 2 schematically shows a functional configuration of a display control system 200 for controlling the switching of the display mode of the display unit having the entire inner wall surface of the passenger compartment 100 as a display screen as shown in FIG. ing.
- the illustrated display control system 200 includes a vehicle condition detection unit 210 and a control unit 220, and controls the display mode of the display unit 230.
- the vehicle status detection unit 210 is a communication unit that detects the vehicle status by communicating with a positioning unit 211 that immediately determines the current position of the vehicle, an in-vehicle (possessed by passenger), Wi-Fi, USB cable, or the like. 212, a V2X communication unit 213 that communicates with an external device via V2X communication, a clock that measures the current time, a clock / environment sensor 214 that detects weather or weather, an in-vehicle camera 215 that captures the surroundings of the vehicle, and an image of the interior of the vehicle It is equipped with a plurality of detection devices such as a dramoni camera 216, a biological sensor 217 for detecting a passenger's biological information (perspiration, body temperature, heart rate, etc.), and a broadcast receiving unit 218 for receiving a radio broadcast or a one-segment broadcast.
- the detection devices listed here are merely examples, and are not essential, and some detection devices may not be included (or may not be used for advanced vehicle detection). Further,
- the control unit 220 includes an event determination unit 221 that determines whether or not an event for switching the display mode of the display unit 230 has occurred based on the detection result of each detection device of the vehicle state detection unit 210, and a mode control unit 222. Contains.
- the event determination unit 221 Based on the detection result of each detection device of the vehicle state detection unit 210, the event determination unit 221 does not transmit the display mode of the display unit 230 in any of the current position, the situation outside the vehicle, the situation inside the vehicle, and the surrounding environment. It is determined whether or not an event to be switched has occurred from the mode to the transmission mode, or conversely from the transmission mode to the non-transmission mode. Since what kind of current position, the situation outside the vehicle, the situation inside the vehicle, and the surrounding environment specifically correspond to the event has already been explained, the explanation is omitted here.
- the mode control unit 222 controls the mode switching process of the display unit 230 when the display mode corresponding to the event determined by the event determination unit 221 is different from the current display mode of the display unit 230.
- the display unit 230 uses the entire inner wall surface of the passenger compartment 100 of the vehicle as a display screen.
- the display screen is, for example, a screen, and can display a spherical image using a plurality of projectors.
- the inner wall surface includes a plurality of windows 101 to 106 such as a windshield, a rear window, a side window, and a sunroof.
- At least some windows can be switched between transparent and non-transparent states by electrical switching between light transmission and non-transmission, window glass opening / closing operation, video see-through video display in the window frame, etc. Can do.
- the display unit 230 is in the transmission mode if at least one window is in a transparent state and a scenery outside the vehicle can be seen.
- the content video is displayed on at least a part of the window where the scenery outside the vehicle can be seen, or the content video is displayed on the entire inner wall surface of the passenger compartment 100 including all windows, or all windows are displayed.
- the display unit 230 is in the non-transmissive mode. For example, in conjunction with the transition of the display unit 230 from the transparent mode to the non-transparent mode, an open window may be closed to secure an area for displaying content video.
- the mode control unit 222 controls the display unit 230 to a display mode corresponding to the event determined by the event determination unit 221. For example, if the display unit 230 is in the transmission mode when the current position of the vehicle arrives at or approaches the destination or the point of interest, the mode control unit 222 switches to the non-transmission mode. If the display unit 230 is in the non-transparent mode when the vehicle approaches the target person or target object, or when the target person or target object appears, the mode control unit 222 switches to the transparent mode. Conversely, when the vehicle has moved away from the person of interest or the object of interest, the display unit 230 may be switched from the transmission mode to the non-transmission mode.
- the mode control unit 222 switches from the transmission mode to the non-transmission mode, or the non-transmission mode. Switch to transparent mode.
- the mode control unit 222 switches the display mode of the display unit 230. For example, when the vehicle encounters an abnormal situation such as an accident or disaster, the display unit 230 is set to the transmission mode so that the passenger can check the situation around the vehicle. Further, when the vehicle is involved in a traffic jam, the display unit 230 is set to the non-transparent mode so that the passenger does not have to see an unpleasant landscape.
- the mode control unit 222 instructs the display unit 230 to switch all windows that are currently in the transparent state to the non-transparent state.
- the mode control unit 222 sets all windows or only some windows to the transparent state (that is, the location of the window to be set to the transparent state). And instructing the display unit 230 to switch to the transparent state of the window.
- the person of interest 301 detected in the real space is imaged by an in-vehicle camera (not shown), and the person of interest is imaged as indicated by reference numeral 302 in the frame of the window 310 under the transmission mode. It shows how the image is displayed in video see-through mode. It is assumed that the video see-through image 302 shown in FIG. 3 completely matches the scenery outside the vehicle (see FIG. 4) that can be seen when the window 310 is fully opened. However, in FIG. 3, the video 302 of the person of interest displayed in the video see-through display completely coincides with the person of interest 301 in the real space, but is painted with diagonal lines and grayed out to identify the video see-through display. (Same below).
- FIG. 5 shows a video see-through display of the video 302 of the person of interest in the window 310 being opened. If the same video see-through video is continuously displayed on the window 310 regardless of the opening / closing position of the window 310, as shown in FIG. 5, the video see-through video does not match the scenery outside the vehicle, and the passenger sees an unsightly video. It will be. Further, if the window 310 is kept in a half-open state, the passenger will continue to watch such unsightly images for a long time, which may cause an illusion or dizziness, resulting in a health hazard.
- the inconsistency problem between the video see-through image and the actual outside scenery as shown in FIG. 5 does not occur.
- the video see-through image 302 and the actual scenery outside the vehicle may be matched by changing the display of the video see-through image 302 in conjunction with the opening / closing position of the window 310. For example, if the upper end position of an area for reading a display image from a video frame (not shown) for temporarily writing a video image taken by an in-vehicle camera is shifted downward according to the opening / closing position of the window 310, the video The see-through video can be used as a real scenery outside the car.
- the video frame reading position is controlled in accordance with the drive amount of the power window device (for example, the upper end position of the area for reading the display video is the opening / closing position of the window 310). To shift downward).
- FIG. 7 shows a functional configuration for controlling the display of video see-through video in conjunction with the opening / closing position of the power window.
- the imaging signal of the in-vehicle camera 701 is subjected to processing such as development by the image processing unit 702 and written into the video frame 703.
- the control unit 220 in the transmissive mode obtains information about the current driving amount of the window that is in the transmissive state, that is, the video see-through display, from the power window device 704, the control unit 220 converts it to the angle of view to be displayed in the window.
- the display unit 230 is notified.
- the display unit 230 reads the video signal from the appropriate region of the video frame 703 (the region in which the upper end position of the region to be read is shifted downward according to the opening / closing position of the window 310).
- the image is displayed on the window (for example, an image is projected from the projector 110 onto a half-open window).
- a virtual immersive feeling for the passenger is obtained. It is possible to build a space and automatically detect the situation where the passenger must check the situation outside the vehicle, and at least use some windows to show the scenery outside the vehicle to the passenger it can.
- the technology disclosed in this specification can be applied to various vehicles such as automobiles (including gasoline cars and diesel cars), electric cars, hybrid electric cars, motorcycles, bicycles, personal mobility, and the like. Furthermore, the technology disclosed in this specification can also be applied to mobile bodies (robots, airplanes, ships, and the like) other than vehicles traveling on a road.
- a detection unit for detecting the status of the moving object A control unit for controlling a display mode of a display unit having a transmission mode for displaying a landscape outside the moving body on at least a part of a display screen based on a detection result of the detection unit;
- a display control apparatus comprising: (2) The display unit has the transparent mode and a non-transparent mode in which a content video is superimposed on at least a part of the external landscape or the content video is displayed on the entire display screen. The control unit sets the display unit to either the transmission mode or the non-transmission mode according to the detection result of the detection unit.
- the display control apparatus according to (1) above.
- the display unit displays an image on the display screen including an inner wall surface of the moving body.
- the display control apparatus according to (1) above.
- the moving body includes a window, The display unit displays an image on the display screen including an inner wall surface of the moving body including the window;
- the window can be opened and closed. In the transparent mode, the display unit opens the window or displays a scenery outside the moving body on at least a part of the display screen including the window, and in the non-transparent mode, closes the window and closes the window. Superimposing content video on at least a part of the external landscape displayed on the display screen including the content video or displaying the content video on the entire display screen; The display control apparatus according to (4) above.
- the window can be switched between a transmissive state that transmits light and a non-transmissive state that blocks light.
- the display unit sets the window to the transmissive state so that the scenery outside the moving body can be seen, and in the non-transmissive mode, at least a part of the window is set to the non-transmissive state and the external portion Superimposing the content video on at least a part of the landscape or displaying the content video on the entire display screen including the window;
- the display control apparatus according to (4) above.
- the display unit includes the window on a display screen, and in the transparent mode, displays an image of a landscape outside the moving body captured by a camera mounted on the moving body in a frame of the window, In the non-transparent mode, the content video is superimposed on at least a part of the window frame or the content video is displayed over the entire window frame.
- the display control apparatus according to (4) above.
- the detection unit obtains information on a current position of the moving body, The control unit switches the display unit from a transmission mode to a non-transmission mode, or switches from a non-transmission mode to a transmission mode based on the current position of the moving body.
- the display control apparatus according to (2) above.
- the detection unit acquires information on the internal or external situation of the moving body or the surrounding environment,
- the control unit switches the display unit from a transmission mode to a non-transmission mode, or switches from a non-transmission mode to a transmission mode based on a situation outside the moving body.
- the display control apparatus according to (2) above. (10) The control unit switches the display unit to a non-transparent mode in response to the detection unit detecting that there is a traffic jam.
- (11) The window can be opened and closed. Under the transmission mode in which an image captured by a camera mounted on the moving body is displayed in a frame of the window, the control unit prohibits opening and closing of the window.
- the display control apparatus according to (7) above. (12) The window can be opened and closed.
- the display unit changes the display in the window frame in conjunction with the opening / closing position of the window.
- a detection step of detecting the status of the moving body A control step of controlling a display mode of a display unit having a transmission mode for displaying a landscape outside the moving body on at least a part of a display screen; A display control method.
- a detection unit for detecting the status of the moving object A display unit mounted on the mobile body and having a transmission mode for displaying a landscape outside the mobile body on at least a part of a display screen; A control unit that controls a display mode of the display unit based on a detection result of the detection unit;
- a display device comprising: (15) a moving object; A display unit having a transparent mode for displaying a landscape outside the moving body on at least a part of a display screen; A detection unit for detecting the state of the moving body; A control unit that controls a display mode of the display unit based on a detection result of the detection unit;
- a mobile device comprising:
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Controls And Circuits For Display Device (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
表示制御装置は、移動体の状況を検出する検出部と、前記検出部の検出結果に基づいて、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御部を具備する。前記表示部は、前記透過モードと、前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示する非透過モードを有し、前記制御部は、前記検出部の検出結果に応じて、前記表示部を前記透過モード又は前記非透過モードのいずれかに設定する。
Description
本明細書で開示する技術は、閉空間における映像の表示を制御する表示制御装置及び表示制御方法表示装置、並びに移動体装置に係り、特に、車両などの移動体の室内における映像の表示を制御する表示制御装置及び表示制御方法、表示装置、並びに移動体装置に関する。
車両の自動運転に関する研究が急速に進められている(例えば、特許文献1を参照のこと)。今後の先進安全運転システム(ADAS)のさらなる普及や、運転者が介在不要となる専用走行レーンやレーン区間を導入するなど社会インフラの整備、さらには、運転者を車両制御から切り離すことを許容するなど法規制の緩和などにより、近い将来に完全自動運転する車両が公道に出現することが予想される。
車両制御から完全に切り離された車両の搭乗者にとって、車室は自宅のリビング・ルームと同じような衣食住の空間である。搭乗者は、車中であることをほとんど意識せずに、読書したり、スマートフォンなどの情報端末を操作したり、車室内に設置されたディスプレイで映画などのコンテンツを鑑賞したり、他の搭乗者と会話や会議をしたりすることが想定される。
車室内で映像を視聴すること自体は既に行なわれている。車室内での映像の視聴にはオンボーデ・ディスプレイやヘッド・アップ・ディスプレイを用いるのが一般的である。例えば、車両の位置において車両の外に見えるであろう風景の画像情報を蓄積装置より取得して窓ガラスに表示させる車載用画像表示装置について提案がなされている(例えば、特許文献2を参照のこと)。また、車両の周囲の状況(周囲の景色や、周囲の人、他車両、障害物などの態様)の検出結果や車両の運転状態に基づいて、車両の周囲の画像を表す画像データを生成して、車両の少なくとも前方の窓部全体に設けられた表示手段に表示する車載用画像表示装置について提案がなされている(例えば、特許文献3を参照のこと)。
本明細書で開示する技術の目的は、車両などの移動体の室内で映像を表示する表示制御装置及び表示制御方法、表示装置、並びに移動体装置を提供することにある。
本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御部と、
を具備する表示制御装置である。
移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御部と、
を具備する表示制御装置である。
本明細書で開示する技術の第2の側面によれば、前記表示部は、前記透過モードと、前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示する非透過モードを有している。そして、第1の側面に係る表示制御装置の前記制御部は、前記検出部の検出結果に応じて、前記表示部を前記透過モード又は前記非透過モードのいずれかに設定するように構成されている。
本明細書で開示する技術の第3の側面によれば、第1の側面に係る表示制御装置において、前記表示部は、前記移動体の内壁面からなる前記表示画面に映像を表示するように構成されている。
本明細書で開示する技術の第4の側面によれば、第1の側面に係る表示制御装置において、前記移動体は窓を備えている。また、前記表示部は、前記窓を含んだ前記移動体の内壁面からなる前記表示画面に映像を表示するように構成されている。
本明細書で開示する技術の第5の側面によれば、第4の側面に係る表示制御装置において、前記窓は、開閉可能である。また、前記表示部は、前記透過モードでは前記窓を開け又は前記窓を含んだ前記表示画面の少なくとも一部で前記移動体の外部の風景を表示し、前記非透過モードでは前記窓を閉じて前記窓を含んだ前記表示画面に表示される前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示するように構成されている。
本明細書で開示する技術の第6の側面によれば、第4の側面に係る表示制御装置において、前記窓は、光を透過する透過状態と光を遮る非透過状態を切り替え可能である。また、前記表示部は、前記透過モードでは前記窓を前記透過状態にして前記移動体の外部の風景が見えるようにし、前記非透過モードでは前記窓の少なくとも一部を前記非透過状態にして前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記窓を含んだ前記表示画面全体にコンテンツ映像を表示するように構成されている。
本明細書で開示する技術の第7の側面によれば、第4の側面に係る表示制御装置において、前記表示部は、前記窓を表示画面に含み、前記透過モードでは前記移動体に搭載されたカメラで撮像した前記移動体の外部の風景の映像を前記窓の枠内に表示し、前記非透過モードでは前記窓の枠内の少なくとも一部にコンテンツ映像を重畳し又は前記窓の枠内全体にコンテンツ映像を表示するように構成されている。
本明細書で開示する技術の第8の側面によれば、第1の側面に係る表示制御装置の前記検出部は、前記移動体の現在位置に関する情報を取得し、前記制御部は、前記移動体の現在位置に基づいて、前記表示部を透過モードから非透過モードに切り替え、又は非透過モードから透過モードに切り替えるように構成されている。
本明細書で開示する技術の第9の側面によれば、第1の側面に係る表示制御装置の前記検出部は、前記移動体の内外の状況若しくは周囲環境に関する情報を取得し、前記制御部は、前記移動体外の状況に基づいて、前記表示部を透過モードから非透過モードに切り替え、又は非透過モードから透過モードに切り替えるように構成されている。
本明細書で開示する技術の第10の側面によれば、第9の側面に係る表示制御装置の前記制御部は、渋滞時であることを前記検出部が検出したことに応じて、前記表示部を非透過モードに切り替えるように構成されている。
本明細書で開示する技術の第11の側面によれば、第7の側面に係る表示制御装置において、前記窓は、開閉可能である。そして、前記移動体に搭載されたカメラで撮像した映像を前記窓の枠内に表示する前記透過モード下では、前記制御部は前記窓の開閉を禁止するように構成されている。
本明細書で開示する技術の第12の側面によれば、第7の側面に係る表示制御装置において、前記窓は、開閉可能である。そして、前記移動体に搭載されたカメラで撮像した映像を前記窓の枠内に表示する前記透過モード下では、前記表示部は、前記窓の開閉位置に連動して前記窓の枠内の表示を変更するように構成されている。
また、本明細書で開示する技術の第13の側面は、
移動体の状況を検出する検出ステップと、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御ステップと、
を有する表示制御方法である。
移動体の状況を検出する検出ステップと、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御ステップと、
を有する表示制御方法である。
また、本明細書で開示する技術の第14の側面は、
移動体の状況を検出する検出部と、
前記移動体に搭載され、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する表示装置である。
移動体の状況を検出する検出部と、
前記移動体に搭載され、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する表示装置である。
また、本明細書で開示する技術の第15の側面は、
移動体と、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する移動体装置である。
移動体と、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する移動体装置である。
本明細書で開示する技術によれば、車両などの移動体の室内で映像を表示する表示制御装置及び表示制御方法、表示装置、並びに移動体装置を提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
自動運転は、レーダーやLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、GNSS(Global Navigation Satellite System、例えばGPS(Global Positioning System)など)、車載カメラなどのセンシング・デバイスを用いて車両の周囲環境を認識しながら、指定した目的地まで自律的に走行する運転モードと定義することもできる。但し、以下の説明では、自動運転の厳密な定義にはこだわらないものとする。また、自動運転は、高速道路や、一般道に設定された自動運転車両の専用走行レーンやレーン区間に限定して実施されるものであってもよい。また、車両の自動運転の実現には、社会インフラの整備に加えて、自動車運転に関連する法規制の緩和も必要であるが、以下では、これらの問題が解消したものとして説明する。
車両が自動運転を行なう期間中、運転操作から解放されたドライバーやその他の搭乗者にとって、乗り心地が良く、車室がリラックスできる空間であることが望ましい。勿論、手動運転中の車両やタクシーのような賃走車であっても、搭乗者にとって乗り心地が良く、車室がリラックスできる空間が好ましいことは同様である。
本明細書では、自動運転する車両の利用方法の1つとして、車室の内壁面を全天球ディスプレイにすることを提案する。勿論、自動運転時ではなく、手動運転時や賃走車においても車室の内壁面をディスプレイに用いることができるが、ドライバーの運転操作のために少なくともフロントガラスをディスプレイに利用することはできなくなる。
図1には、車室の内壁面を全天球ディスプレイとして利用する仕組みを模式的に示している。但し、図面の簡素化のため、車室100の内壁面を直方体として描いている。
車室100には、複数台のプロジェクター110-1、110-2、…、110-Nが設置されており、各プロジェクターから画像を投影して、車室100の内壁面に全天球映像を表示することができる。但し、本明細書で言う全天球映像は、必ずしも360度の映像を表示する必要はなく、一部の視野が欠けていてもよい。また、全天球映像は、情報の少ない床面を含まない半天球映像であってもよい(以下、同様)。
複数台のプロジェクター110-1、110-2、…、110-Nを用いる理由として、1台のプロジェクターだけでは車室100の内壁面全体に映像を表示できないことや、車室100に居る乗客の影ができてしまうことなどを挙げることができる。装備されたすべてのプロジェクター110-1、110-2、…、110-Nを用いなくても、影を生じることなく、車室100の内壁面に全天球映像を表示することができる場合には、不要なプロジェクターをオフにしてもよい。複数台のプロジェクターで1つの映像を表示する場合、隣接するプロジェクターの投影画像間の接合部分は、整合するようにスティッチング処理を施すものとする。
なお、車室100の内壁面に全天球映像を表示するには、図1に示したような投影型のディスプレイを用いる方法に限定されない。例えば、車室100の内壁面に液晶ディスプレイ(Liquid Crystal Display:LCD)のような平面ディスプレイや有機EL(electroluminescence)ディスプレイ(OLED)のようなフレキシブル・ディスプレイを貼設して、全天周映像を表示するようにしてもよい。また、投影型、平面型、フレキシブル型のいずれのタイプのディスプレイを使用する場合においても、図1に示したような車室100のすべての内壁面を画面にする構成に限定されず、例えばフロントガラスを除く3面、フロントガラスのみ、天井のみを画面にする場合を含むものとする。
図1に示す例では、4ドアの普通乗用車の車室を想定しており、車室100の内壁面は、フロントガラス101、リアウィンドウ102、座席毎(運転席、助手席、左右の後部座席)のサイドウィンドウ103~106が含まれている。図示を省略するが、車両がサンルーフを装備している場合もある。
これらのウィンドウガラス(少なくとも一部のウィンドウガラス)は、光を透過する透過状態と光を透過しない(若しくは、光を遮る)非透過状態を例えば電気的に切り替えることができ、非透過の状態では、プロジェクターの投影画像を表示することができるものとする。あるいは、各サイドウィンドウ103~106(若しくは、一部のサイドウィンドウ)は、常時非透過の状態であるが、ウィンドウを開けることによって透過状態となるようにしてもよい。あるいは、各サイドウィンドウ103~106(若しくは、一部のサイドウィンドウ)は、常時非透過の状態であるが、ウィンドウの枠内に車載カメラで撮像したライブの周囲映像を表示させる(例えば、「ビデオシースルー」にする)ことによって、そのウィンドウを見かけ上の透過状態にするようにしてもよい。なお、サンルーフについても上記のいずれかの方法を用いて同様に透過状態と非透過状態を有していてもよい。
車室100に備えられたすべてのウィンドウ101~106を非透過状態にして、車室100の内壁面全体に全天球映像を途切れなく表示すると、そこに居る搭乗者はその映像に深く没入することができる。すなわち、車室100のような閉空間に全天球映像を表示することによって、没入感のある仮想空間を構築することができる。例えば車両が自動運転中であれば、フロントガラスを含む車室100の内壁面全体を使って全天球映像などのコンテンツの映像を表示してもよい。
車室100の内壁面に表示する映像はさまざまである。例えば映画のような商用コンテンツでもよいし、車両に設置された車載カメラで撮像した映像や、自車両以外の車両や飛行体(ドローンなど)に設置された移動カメラで撮像した映像、任意の場所に固定された定点カメラで撮像した映像でもよい。また、撮像した映像は、ライブ映像でもアーカイブ映像でもよい。あるいは、車室100の内壁面に表示する映像は、実写映像に限定されず、CG(Computer Graphics)技術により再現された映像であってもよい。
例えば、搭乗者にとって自宅のリビング・ルームやお気に入りの場所(よく利用するカフェテラスや、よく行く公園、頻繁に利用する図書館など)を撮像した映像を車室100の内壁面に表示することによって、搭乗者がとてもリラックスできる、快適な仮想空間を構築できる場合もある。車室100に仮想空間を構築することで、例えば車両が渋滞に巻き込まれている状況でも、搭乗者に不快感を与えなくて済む。例えば車両が自動運転中であれば、フロントガラスを含む車室100の内壁面全体を使って全天球映像を表示してもよく、ドライバーを含むすべての搭乗者を仮想空間に没入させることができる。
車室100でどのような全天球映像を表示するかは、搭乗者が手入力や音声指示などを介して指定するようにしてもよいし、車両(システム)側で自動選択するようにしてもよい。例えば、当該車両における映像の表示履歴や、搭乗者の視聴履歴若しくは行動履歴に基づいて、数多の映像コンテンツの中から自動選択するようにしてもよい。あるいは、V2X(Vehicleto X:車車間通信及び路車間通信)通信などを介して外部から車両に対して映像コンテンツを指定するようにしてもよい。
また、車室100の内壁面に表示する映像コンテンツを車両で取得する方法はさまざまである。例えば、車両に搭載される記録装置に映像コンテンツをあらかじめ格納しておいてもよいし、映像コンテンツを記録した可搬型メディア(ブルーレイ・ディスクなど)を車室100に持ち込んで再生するようにしてもよい。あるいは、映像サーバーなどの外部機器からストリーミング配信される映像を例えばV2X通信などを介して受信するようにしてもよい。
搭乗者は、車室100に仮想空間を構築することができる反面、映像の視聴を一時中断して、車両の周囲の風景、言い換えれば実空間を確認したい若しくは確認しなければならない状況が想定される。
例えば、旅行やドライブの目的地が近くなったとき、目的地ではないが注目地点(見ておきたい場所や立ち寄りたい場所)に通りかかったとき、注目人物(待ち合わせしている人や親しい人(家族や友人、上司、同僚)など)や注目物体(建物や珍しい自動車、ペットなど)が見えてきたとき、天候が変化したとき、事故や災害に遭遇したときなどに、搭乗者は実空間を確認したくなり、又は実空間をする必要がある。勿論、搭乗者自身が全天球映像の視聴をブレイクしたいときや外界が気になったときもある。
図1に示したような、車室100の内壁面を利用した全天球ディスプレイの構成によれば、車室100に備えられたウィンドウ101~106のうち少なくとも一部は、非透過状態とともに透過状態を備えている。したがって、ウィンドウ101~106のうち少なくとも一部を、非透過状態から透過状態に切り替えることによって、全天周映像を表示中であっても、透過状態のウィンドウ越しに(若しくは、透過状態にウィンドウに表示された)車外の風景を観察することができるようになっている。
ここで言う、ウィンドウの「透過状態」とは、ウィンドウガラスを、電気的に光を遮る非透過状態から光を透過する透過状態にすることや、光を透過しないがウィンドウを開けることによって車外が見えるようにした状態、さらには、光を透過しないままのウィンドウの枠内に車載カメラで撮像したライブの周囲映像を表示させることなど、いずれでもよい(前述)。
しかしながら、搭乗者は、車室100のような閉空間に表示された全天球映像に没入するあまり、実空間を確認したい若しくは確認しなければならないタイミングを逃してしまうおそれがある。
手動運転時や賃走車であれば、ドライバーは常に外界を注視しているので、他の搭乗者に適切なタイミングを教えることができる。搭乗者は、ドライバーに促されて少なくとも一部のウィンドウを透過状態に切り替える(例えば、ウィンドウを開ける)ことによって、車外の風景を確認することができる。
これに対し、自動運転中の車両においては、ドライバーは存在せず、すべての搭乗者が仮想空間に深く没入することもあり、実空間を確認したい若しくは確認しなければならないタイミングを逃してしまうおそれを払拭することはできない。
そこで、本実施形態では、すべてのウィンドウ101~106を非透過状態にして、車室100の内壁面全体にわたって全天周映像を表示している(すなわち、車室100に仮想空間を構築している)期間中に、車両の状況を常時モニタリングし、搭乗者が車両の周囲の風景(すなわち、実空間の状況)を確認したい若しくは確認しなければならない事象が起きたことを自動検出すると、少なくとも一部のウィンドウを開けるなど透過状態にして、搭乗者が車両の風景を確認できるようにしている。
要するに、車両は、車室内で仮想空間を構築している期間中、車両の状況を常時モニタリングして、所定の事象が発生したことを検出すると、ウィンドウを自動的に透過状態に切り替えるように構成されている。但し、搭乗者が没入中の仮想空間が途切れることを好まない場合もあるので、ウィンドウを透過状態に切り替える際には、GUI(Graphical User Interface)などを介して搭乗者に切り替えの許可を得るようにしてもよい。
また、車両は、ウィンドウを透過状態に切り替えている期間中に、所定の事象が消滅したことを検出すると、透過状態のウィンドウを非透過状態に自動的に戻して、車室100の内壁面全体を使って全天球映像を表示する仮想空間を再構築するようにしてもよい。例えば、注目地点や注目人物、注目物体を通過したときは、搭乗者は車外を見る必要がなくなるからである。勿論、ウィンドウを透過状態から非透過状態に切り替える際にも、GUIなどを介して搭乗者の許可を得るようにしてもよい。何故ならば、搭乗者は実空間すなわち車外の様子を確認又は観察し続けたい場合があるからである。
ウィンドウの透過状態と非透過状態の自動切り替えを行なうためにモニタリングすべき検出対象は、車両の現在位置、車外の状況、車内の状況、周囲環境など、さまざまである。各検出対象の内容と検出方法・検出デバイスについて、以下にまとめておく。
(1)車両の現在位置
車両の現在位置が、旅行やドライブの目的地が近くなったとき、目的地ではないが注目地点(見ておきたい場所や立ち寄りたい場所)に通りかかったときに、搭乗者は実空間を確認したくなり、又は実空間をする必要がある。
車両の現在位置が、旅行やドライブの目的地が近くなったとき、目的地ではないが注目地点(見ておきたい場所や立ち寄りたい場所)に通りかかったときに、搭乗者は実空間を確認したくなり、又は実空間をする必要がある。
車両の現在位置は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する測位部を用いて検出することができる。あるいは、測位部は、PlaceEngine(登録商標)などを利用して無線アクセスポイントからの電測情報に基づいて現在位置を特定してもよく、又は測位機能を有する携帯電話機、PHS(Personal Handy-phone System)若しくはスマートフォンといった搭乗者が所持する携帯端末から位置情報をWi-Fi通信やUSB(Universal Serial Bus)ケーブルを通じて取得するようにしてもよい。
目的地については、搭乗者が例えばインストルメント・パネルに装備された入力部を介して直接目的地を指定するようにしてもよい。搭乗者が音声により目的地を指示するようにしてもよい。あるいは、搭乗者の過去の行動履歴や、搭乗者同士の車内の会話の内容などを解析して、目的地を自動判別するようにしてもよい。過去の行動履歴は、ドライブレコーダーなどの形態で記録されたものであってもよいし、スマートフォンなどの搭乗者が所持する情報端末に記録されたものであってもよいし、V2X通信などを介して個人情報サーバーに問い合わせて取得するようにしてもよい。
また、注目地点については、地図情報を利用して、車両の経路上にある注目地点を抽出するようにしてもよい。地図情報は、車両に搭載される記録装置にあらかじめ格納しておいてもよいし、V2X通信などを介して外部から逐次取得するようにしてもよい。あるいは、車載カメラの撮像映像を物体認識した結果に基づいて、注目地点を検出するようにしてもよい。また、車載カメラの撮像映像から認識された建物などの物体を、V2X通信などを介して外部のデータベースに照合して、注目地点か否かを判別するようにしてもよい。
注目地点が、普遍的であるとは限らない。何を以って注目地点とするか(すなわち、注目地点の定義)は、例えば搭乗者の趣味嗜好や過去の行動履歴に基づいて決定するようにしてもよい。搭乗者の趣味嗜好や過去の行動履歴は、スマートフォンなどの搭乗者が所持する情報端末に記録されたものであってもよいし、V2X通信などを介して個人情報サーバーに問い合わせて取得するようにしてもよい。
また、季節や時間帯、天候などによって注目地点の定義が変わる場合もある。例えば、日中は見て見たくなるが、夜間や悪天候下では見る必要がない場所や、開花時期を外れた桜の名所などである。このような場合、時計や現在の天候又は気象を検出するための環境センサーも、注目地点を検出するための検出デバイスに加えるべきである。
そして、測位部で取得された車両の現在位置と、目的地や注目地点の位置情報を照合して、現在位置が目的地や注目地点から所定範囲内に入ると、ウィンドウを透過状態に切り替えて、搭乗者が車外の風景を見えるようにする。但し、すべてのウィンドウを透過状態にする必要はなく、目的地や注目地点が良く見えるウィンドウだけ透過状態にして、仮想空間の没入感を可能な限り保つようにしてもよい。
なお、車両が目的地に到着したとき(若しくは、到着してから所定時間が経過したとき)、注目地点を通過してしまったときには、透過状態に切り替えたウィンドウを非透過状態に戻して、車室100の仮想空間を再構築するようにしてもよい。
(2)車外の状況
ウィンドウを透過状態に切り替えるトリガーとなるような車外の状況として、注目人物(待ち合わせしている人や親しい人(家族や友人、上司、同僚)など)や注目物体(建物や珍しい自動車、ペットなど)が出現したこと、などを挙げることができる。
ウィンドウを透過状態に切り替えるトリガーとなるような車外の状況として、注目人物(待ち合わせしている人や親しい人(家族や友人、上司、同僚)など)や注目物体(建物や珍しい自動車、ペットなど)が出現したこと、などを挙げることができる。
例えば、車載カメラの撮像映像を顔認識や物体認識して、注目人物や注目物体を検出することができる。また、簡易な画像認識処理でも検出できるように、注目人物や注目物体の表面に2次元バーコードやマーカーなどの視認情報を設置して、これらの視認情報に基づいて注目人物や注目物体を検出するようにしてもよい。あるいは、注目人物や注目物体に特定の無線信号を発信する発振機を装備し、車両側では受信機で無線信号を受信することによって、注目人物や注目物体を検出するようにしてもよい。
注目人物や注目物体の定義は任意である。搭乗者があらかじめ自分の注目人物や注目物体を車両側に指定するようにしてもよい。あるいは、搭乗者の趣味嗜好や過去の行動履歴に基づいて、注目人物や注目物体を決定するようにしてもよい。搭乗者の趣味嗜好や過去の行動履歴は、スマートフォンなどの搭乗者が所持する情報端末に記録されたものであってもよいし、V2X通信などを介して個人情報サーバーに問い合わせて取得するようにしてもよい。また、車両で注目人物や注目物体を判別するのではなく、車載カメラの撮像映像(若しくは、撮像映像から認識された顔や物体の情報)を個人情報サーバーで照合して、注目人物又は注目人物や注目物体であるか否かの判別結果を車両側に返信するようにしてもよい。
そして、上記のいずれかの検出方法又は検出デバイスにより、注目人物又は注目物体が検出されると、ウィンドウを透過状態に切り替えて、搭乗者が車外の風景を見えるようにする。但し、すべてのウィンドウを透過状態にする必要はなく、注目人物又は注目物体が良く見えるウィンドウだけ透過状態にして、仮想空間の没入感を可能な限り保つようにしてもよい。あるいは、一部の搭乗者だけの注目人物(例えば、待合わせしている人)が検出された場合には、その搭乗者が最も近いサイドウィンドウのみ透過状態に切り替えるようにしてもよい。
また、車両が注目人物又は注目物体から遠ざかってしまったときには、透過状態に切り替えたウィンドウを非透過状態に戻して、車室100の仮想空間を再構築するようにしてもよい。
(3)車内の状況
ウィンドウを透過状態に切り替えるトリガーとなるような車内の状況として、搭乗者の気分が悪くなったこと(酔いなど)、搭乗者が外を見たくなったこと、一部の搭乗者が喫煙して車室の換気が必要になったこと、などを挙げることができる。
ウィンドウを透過状態に切り替えるトリガーとなるような車内の状況として、搭乗者の気分が悪くなったこと(酔いなど)、搭乗者が外を見たくなったこと、一部の搭乗者が喫煙して車室の換気が必要になったこと、などを挙げることができる。
例えば、車内を撮像する車載カメラ(ドラモニカメラ)や、サーモカメラ、ドライバー若しくは各搭乗者の生体情報(発汗、体温、心拍など)を検出する生体センサーを利用して、搭乗者の様子や健康状態、喫煙していることをモニタリングすることができる。また、ドラモニカメラの撮像画像を解析して搭乗者が外を見たいことを示すジェスチャーを理解したり、車内の音声を集音するマイクを通じて搭乗者からの音声入力を行なったりするようにしてもよい。また、煙センサーを用いて、搭乗者が喫煙を開始したことを検出することができる。
そして、上記で例示した事象が車内で発生したことが検出されると、ウィンドウを透過状態に切り替えて、搭乗者が車外の風景を見え、若しくは車内を喚起できるようにする。但し、すべてのウィンドウを透過状態にする必要はなく、特定の搭乗者(例えば、気分が悪くなった者、車外を見たくなった者、喫煙している者)に最も近いウィンドウだけ透過状態にして、仮想空間の没入感を可能な限り保つようにしてもよい。
その後、ウィンドウを透過状態に切り替えるトリガーとなった事象がもはや車内で検出されなくなったときには(搭乗者の気分が回復したとき、車外の風景を見飽きたとき、喫煙を終えたときなど)、透過状態に切り替えたウィンドウを非透過状態に戻して、車室100の仮想空間を再構築するようにしてもよい。
また、逆に透過状態のウィンドウを非透過状態に切り替えるトリガーとなるような車内の状況も想定される。例えば、搭乗者が車内で食事やパーティー、秘密の会話を始めたり、とある人物と車内で密会したりして、車外から覗き見されたくないときなどである。これらの事象は、ドラモニカメラの撮像画像やマイクで集音された車内の音声を解析したりすることで検出することができる。そして、これらの事象が検出された時点で、透過状態のウィンドウがある場合には、非透過状態に切り替える。あるいは、車外から覗き見されたくないものを隠すことができるのであれば、一部のウィンドウを透過状態にしておいてもよい。
(4)周囲環境
ウィンドウを透過状態に切り替えるトリガーとなるような周囲環境として、天候が変化したとき、車両が事故や災害などの異常事態に遭遇したとき、などを挙げることができる。このような事象が発生すると、搭乗者は、全天球映像の視聴を中断して、ウィンドウ越しに自車両周辺の状況を確認したくなる(若しくは、確認する必要がある)場合がある。
ウィンドウを透過状態に切り替えるトリガーとなるような周囲環境として、天候が変化したとき、車両が事故や災害などの異常事態に遭遇したとき、などを挙げることができる。このような事象が発生すると、搭乗者は、全天球映像の視聴を中断して、ウィンドウ越しに自車両周辺の状況を確認したくなる(若しくは、確認する必要がある)場合がある。
あるいは、周囲環境によっては、逆にウィンドウを閉じて非透過状態にしたい場合もある。例えば、降雨や降雪、暴風、落雷、猛暑又は極寒のときには、ウィンドウを開けたままではいられない。また、自車両が渋滞に巻き込まれると、うんざりして退屈な車外の風景を見たくなくなり、仮想空間に没入したくなる。また、事故や災害に遭遇したときに、緊急車両のサイレンや野次馬の喧騒に耐えられなかったり、車両周辺に煙や異臭が蔓延したりすると、ウィンドウを開けたままではいられない。ウィンドウを開けた透過状態であれば、完全に閉じた非透過状態に切り替えるべきである。
天候に関しては、現在の天候又は気象を検出するための環境センサーや、車載カメラで撮像する車両周辺の画像、V2X通信などを介して受信した天気情報に基づいて、ウィンドウを非透過状態にすべき事象を検出することができる。渋滞情報に関しては、道路交通センターのような情報機関から発信される情報をラジオ放送やV2X通信などを介して受信することができる。また、事故や災害に関しては、ラジオ放送やワンセグ放送で配信される緊急情報に基づいて検出することができる。
そして、上記で例示した事象が車両の周囲で発生したことが検出されると、検出された状況毎に応じて、ウィンドウを透過状態に切り替えたり、逆に透過状態にウィンドウを非透過状態に切り替えたりする。
既に述べたように、ウィンドウの「透過状態」は、ウィンドウガラスを、電気的に光を遮る非透過状態から光を透過する透過状態にすることや、光を透過しないがウィンドウを開けることによって車外が見えるようにした状態、さらには、光を透過しないままのウィンドウの枠内に車載カメラで撮像したライブの周囲映像を表示させることなど、さまざまな方法により実現することができる。車両が装備する少なくとも1つのウィンドウが透過状態になると、搭乗者は車外の風景を観察することができる。
図1に示したように、車室100の内壁面全体を(全天球映像を表示するための)表示画面に持つ表示部とみなした場合、全天球映像を表示中であっても少なくとも1つのウィンドウが透過状態になると、搭乗者はそのウィンドウ越しに車外の風景を観察することができる。少なくとも1つのウィンドウが透過状態になり車外の風景を見えることができるときの表示部の表示モードを、以下では「透過モード」と呼ぶことにする。一方、すべてのウィンドウを非透過状態にして車室100の内壁面全体に映像を表示させると、搭乗者は車外の風景をまったく観察できなくなる。車外の風景が見えるウィンドウの少なくとも一部にコンテンツの映像を表示し、又は、すべてのウィンドウを含む車室100の内壁面全体でコンテンツの映像を表示している状態、若しくはすべてのウィンドウが非透過状態になった表示部の表示モードを、以下では「非透過モード」と呼ぶことにする。
図2には、図1に示したような、車室100の内壁面全体を表示画面とする表示部の表示モードの切り替えを制御するための表示制御システム200の機能的構成を模式的に示している。図示の表示制御システム200は、車両状況検出部210と、制御部220を備え、表示部230の表示モードを制御する。
車両状況検出部210は、車両の状況を検出するための、車両の現在位置を即位する測位部211、車内(搭乗者が所持する)情報端末とWi-FiやUSBケーブルなどを通じて通信する通信部212、V2X通信を介して外部機器と通信するV2X通信部213、現在時刻を計時する時計並びに天候又は気象を検出する時計・環境センサー214、自車両の周辺を撮像する車載カメラ215、車内を撮像するドラモニカメラ216、搭乗者の生体情報(発汗、体温、心拍など)を検出する生体センサー217、ラジオ放送やワンセグ放送を受信する放送受信部218などの複数の検出デバイスを装備している。但し、ここで挙げた検出デバイスは例示であり、すべて必須ではなく、一部の検出デバイスを含まない(若しくは、車両の上級の検出には使用しない)場合もある。また、ここで例示した以外の検出デバイスを車両状況検出部210が含んでいてもよい。
制御部220は、車両状況検出部210の各検出デバイスの検出結果に基づいて表示部230の表示モードを切り替えるべき事象が発生したか否かを判定する事象判定部221と、モード制御部222を含んでいる。
事象判定部221は、車両状況検出部210の各検出デバイスの検出結果に基づいて、現在位置、車外の状況、車内の状況、周囲環境のうちいずれかにおいて、表示部230の表示モードを非透過モードから透過モードへ、若しくは、逆に透過モードから非透過モードへ、切り替えるべき事象が発生したか否かを判定する。具体的にどのような現在位置、車外の状況、車内の状況、周囲環境が事象に相当するかは既に説明した通りなので、ここでは説明を省略する。
モード制御部222は、事象判定部221で判定された事象に対応する表示モードと、表示部230の現在の表示モードが異なる場合には、表示部230のモード切り替え処理を制御する。
表示部230の一例は、図1に示した通りである。すなわち、表示部230は、車両の車室100の内壁面全体を表示画面として使用する。表示画面は例えばスクリーンであり、複数のプロジェクターを用いて全天球映像を表示することができる。また、内壁面は、フロントガラスやリアウィンドウ、サイドウィンドウ、サンルーフなど複数のウィンドウ101~106を含んでいる。
少なくとも一部のウィンドウは、光の透過/非透過の電気的切り替え、ウィンドウガラスの開閉操作、ウィンドウ枠内へのビデオシースルー映像の表示などいずれかの方法により、透過状態と非透過状態を切り替えることができる。上記で定義したように、少なくとも1つのウィンドウが透過状態で車外の風景を見ることができれば、表示部230は透過モードである。また、車外の風景が見えるウィンドウの少なくとも一部にコンテンツの映像を表示し、又は、すべてのウィンドウを含む車室100の内壁面全体でコンテンツの映像を表示している状態、若しくはすべてのウィンドウが非透過状態であれば、表示部230は非透過モードである。例えば、表示部230を透過モードから非透過モードに移行させる際に連動して、開いているウィンドウを閉じて、コンテンツの映像を表示する領域を確保するようにしてもよい。
モード制御部222は、事象判定部221で判定された事象に対応する表示モードに、表示部230を制御する。例えば、車両の現在位置が目的地や注目地点に到着し又は接近してきたときに表示部230が透過モードであれば、モード制御部222は、非透過モードに切り替える。また、車両が注目人物や注目物体に近づき、又は注目人物や注目物体が出現したときに表示部230が非透過モードであれば、モード制御部222は、透過モードに切り替える。逆に、車両が注目人物や注目物体から遠ざかってしまったときには、表示部230を透過モードから非透過モードに切り替えるようにしてもよい。また、表示部230の表示モードが車内の状況(搭乗者の意向や健康状態、精神状態など)に適合していないときには、モード制御部222は、透過モードから非透過モードに、あるいは非透過モードから透過モードに切り替える。また、表示部230の表示モードが車両の周囲環境適合していないときには、モード制御部222は、表示部230の表示モードの切り替えを行なう。例えば、車両が事故や災害などの異常事態に遭遇したときには、表示部230を透過モードに設定して、搭乗者が車両周辺の状況を確認できるようにする。また、車両が渋滞に巻き込まれたときには、表示部230を非透過モードに設定して、搭乗者が不快な風景を見なくて済むようにする。
表示部230を非透過モードに切り替えるときには、モード制御部222は、表示部230に対し、現在透過状態にあるウィンドウをすべて非透過状態に切り替えるように指示する。
また、表示部を透過モードに切り替えるときには、モード制御部222は、すべてのウィンドウを透過状態にするのか又は一部のウィンドウのみを透過状態にするのか(すなわち、透過状態にすべきウィンドウの場所)を決定して、表示部230に対してウィンドウの透過状態への切り替えを指示する。
表示部を透過モードにする方法は、上述したようにさまざまである。1つの方法として、車載カメラで撮像したライブ映像をウィンドウの枠内にビデオシースルーする方法がある。ところが、ビデオシースルー表示中のウィンドウを開くと、ビデオシースルー表示された映像と、開いたウィンドウ越しに見える車外の風景が整合しなくなるという問題がある。
図3には、実空間上で検出された注目人物301を車載カメラ(図示しない)で撮像し、透過モード下のウィンドウ310の枠内に、参照番号302で示すように、注目人物を撮像した画像をビデオシースルー表示している様子を示している。図3に示したビデオシースルー画像302は、ウィンドウ310を全開したときに見える車外の風景(図4を参照のこと)と完全に一致するものとする。但し、図3では、ビデオシースルー表示された注目人物の映像302は、実空間の注目人物301と完全に一致するが、ビデオシースルー表示であることを識別するために斜線で塗り潰すとともに背景をグレーで描いている(以下同様)。
図5には、開く途中のウィンドウ310に注目人物の映像302がビデオシースルー表示されている様子を示している。ウィンドウ310の開閉位置に拘わらず、ウィンドウ310に同じビデオシースルー映像を表示し続けると、図5から分かるように、ビデオシースルー映像が車外の風景と整合しなくなり、搭乗者に見苦しい映像を見せてしまうことになる。また、ウィンドウ310を半開きにした状態に保つと、搭乗者はこのような見苦しい映像を長時間にわたり見続けることになり、錯覚に陥ったり、眩暈を生じたりして健康被害を起こしかねない。
車載カメラのビデオシースルー表示により透過状態にしたウィンドウの開閉操作を制限若しくは禁止することによって、図5に示したような、ビデオシースルー映像と現実の車外の風景との不整合問題が発生しないようにすることもできる。しかしながら、注目人物が待合わせをした人であれば、搭乗者はウィンドウを開けてその注目人物に声をかける必要がある。また、注目人物が親しい人や会社の上司又は同僚の場合には、搭乗者はその注目人物に挨拶しなければならない若しくは挨拶したい場合がある。よって、透過状態にしたウィンドウの開閉操作を制限若しくは禁止することが適切でない場合もある。
そこで、図6に示すように、ウィンドウ310の開閉位置に連動してビデオシースルー映像302の表示を変更することによって、ビデオシースルー映像と現実の車外の風景とが整合するようにしてもよい。例えば、車載カメラの撮影映像を一時的に書き込むビデオ・フレーム(図示しない)から表示用の映像を読み出す領域の上端位置を、ウィンドウ310の開閉位置に従って下方にシフトさせていくようにすれば、ビデオシースルー映像を現実の車外の風景とさせることができる。
ウィンドウ310がパワーウィンドウ装置の場合であれば、パワーウィンドウ装置の駆動量に応じて、ビデオ・フレームの読み出し位置を制御する(例えば、表示用の映像を読み出す領域の上端位置をウィンドウ310の開閉位置に従って下方にシフトさせていく)ようにすればよい。図7には、パワーウィンドウの開閉位置に連動してビデオシースルー映像の表示を制御するための機能的構成を示している。車載カメラ701の撮像信号は、画像処理部702によって現像などの処理が施され、ビデオ・フレーム703に書き込まれる。一方、透過モード下の制御部220は、パワーウィンドウ装置704から、透過状態すなわちビデオシースルー表示しているウィンドウの現在の駆動量に関する情報を取得すると、そのウィンドウに表示すべき画角に換算して、表示部230に通知する。そして、表示部230は、制御部220からの通知に従って、ビデオ・フレーム703の適切な領域(ウィンドウ310の開閉位置に従って読み出す領域の上端位置を下方にシフトさせた領域)が映像信号を読み出して、そのウィンドウに表示する(例えば、プロジェクター110から半開き状態のウィンドウに映像を投影する)。
ここまで説明してきたように、本実施形態によれば、例えば自動運転中の車両の車室100の内壁面を利用して全天周映像を表示することによって、搭乗者にとって没入感のある仮想空間を構築することができるとともに、搭乗者が車外の様子を確認しなければならなくなる状況を自動検出して、少なくとも一部のウィンドウを使って車外の風景を搭乗者に見せるようにすることができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、自動車(ガソリン車及びディーゼル車を含む)、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナル・モビリティーなどさまざまな車両に適用することができる。さらには本明細書で開示する技術は、道路を走行する車両以外の形態の移動体(ロボット、飛行機や船舶など)にも適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御部と、
を具備する表示制御装置。
(2)前記表示部は、前記透過モードと、前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示する非透過モードを有し、
前記制御部は、前記検出部の検出結果に応じて、前記表示部を前記透過モード又は前記非透過モードのいずれかに設定する、
上記(1)に記載の表示制御装置。
(3)前記表示部は、前記移動体の内壁面からなる前記表示画面に映像を表示する、
上記(1)に記載の表示制御装置。
(4)前記移動体は窓を備え、
前記表示部は、前記窓を含んだ前記移動体の内壁面からなる前記表示画面に映像を表示する、
上記(1)に記載の表示制御装置。
(5)前記窓は、開閉可能であり、
前記表示部は、前記透過モードでは前記窓を開け又は前記窓を含んだ前記表示画面の少なくとも一部で前記移動体の外部の風景を表示し、前記非透過モードでは前記窓を閉じて前記窓を含んだ前記表示画面に表示される前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示する、
上記(4)に記載の表示制御装置。
(6)前記窓は、光を透過する透過状態と光を遮る非透過状態を切り替え可能であり、
前記表示部は、前記透過モードでは前記窓を前記透過状態にして前記移動体の外部の風景が見えるようにし、前記非透過モードでは前記窓の少なくとも一部を前記非透過状態にして前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記窓を含んだ前記表示画面全体にコンテンツ映像を表示する、
上記(4)に記載の表示制御装置。
(7)前記表示部は、前記窓を表示画面に含み、前記透過モードでは前記移動体に搭載されたカメラで撮像した前記移動体の外部の風景の映像を前記窓の枠内に表示し、前記非透過モードでは前記窓の枠内の少なくとも一部にコンテンツ映像を重畳し又は前記窓の枠内全体にコンテンツ映像を表示する、
上記(4)に記載の表示制御装置。
(8)前記検出部は、前記移動体の現在位置に関する情報を取得し、
前記制御部は、前記移動体の現在位置に基づいて、前記表示部を透過モードから非透過モードに切り替え、又は非透過モードから透過モードに切り替える、
上記(2)に記載の表示制御装置。
(9)前記検出部は、前記移動体の内外の状況若しくは周囲環境に関する情報を取得し、
前記制御部は、前記移動体外の状況に基づいて、前記表示部を透過モードから非透過モードに切り替え、又は非透過モードから透過モードに切り替える、
上記(2)に記載の表示制御装置。
(10)前記制御部は、渋滞時であることを前記検出部が検出したことに応じて、前記表示部を非透過モードに切り替える、
上記(9)に記載の表示制御装置。
(11)前記窓は、開閉可能であり、
前記移動体に搭載されたカメラで撮像した映像を前記窓の枠内に表示する前記透過モード下では、前記制御部は前記窓の開閉を禁止する、
上記(7)に記載の表示制御装置。
(12)前記窓は、開閉可能であり、
前記移動体に搭載されたカメラで撮像した映像を前記窓の枠内に表示する前記透過モード下では、前記表示部は、前記窓の開閉位置に連動して前記窓の枠内の表示を変更する、
上記(7)に記載の表示制御装置。
(13)移動体の状況を検出する検出ステップと、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御ステップと、
を有する表示制御方法。
(14)移動体の状況を検出する検出部と、
前記移動体に搭載され、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する表示装置。
(15)移動体と、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する移動体装置。
(1)移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御部と、
を具備する表示制御装置。
(2)前記表示部は、前記透過モードと、前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示する非透過モードを有し、
前記制御部は、前記検出部の検出結果に応じて、前記表示部を前記透過モード又は前記非透過モードのいずれかに設定する、
上記(1)に記載の表示制御装置。
(3)前記表示部は、前記移動体の内壁面からなる前記表示画面に映像を表示する、
上記(1)に記載の表示制御装置。
(4)前記移動体は窓を備え、
前記表示部は、前記窓を含んだ前記移動体の内壁面からなる前記表示画面に映像を表示する、
上記(1)に記載の表示制御装置。
(5)前記窓は、開閉可能であり、
前記表示部は、前記透過モードでは前記窓を開け又は前記窓を含んだ前記表示画面の少なくとも一部で前記移動体の外部の風景を表示し、前記非透過モードでは前記窓を閉じて前記窓を含んだ前記表示画面に表示される前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示する、
上記(4)に記載の表示制御装置。
(6)前記窓は、光を透過する透過状態と光を遮る非透過状態を切り替え可能であり、
前記表示部は、前記透過モードでは前記窓を前記透過状態にして前記移動体の外部の風景が見えるようにし、前記非透過モードでは前記窓の少なくとも一部を前記非透過状態にして前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記窓を含んだ前記表示画面全体にコンテンツ映像を表示する、
上記(4)に記載の表示制御装置。
(7)前記表示部は、前記窓を表示画面に含み、前記透過モードでは前記移動体に搭載されたカメラで撮像した前記移動体の外部の風景の映像を前記窓の枠内に表示し、前記非透過モードでは前記窓の枠内の少なくとも一部にコンテンツ映像を重畳し又は前記窓の枠内全体にコンテンツ映像を表示する、
上記(4)に記載の表示制御装置。
(8)前記検出部は、前記移動体の現在位置に関する情報を取得し、
前記制御部は、前記移動体の現在位置に基づいて、前記表示部を透過モードから非透過モードに切り替え、又は非透過モードから透過モードに切り替える、
上記(2)に記載の表示制御装置。
(9)前記検出部は、前記移動体の内外の状況若しくは周囲環境に関する情報を取得し、
前記制御部は、前記移動体外の状況に基づいて、前記表示部を透過モードから非透過モードに切り替え、又は非透過モードから透過モードに切り替える、
上記(2)に記載の表示制御装置。
(10)前記制御部は、渋滞時であることを前記検出部が検出したことに応じて、前記表示部を非透過モードに切り替える、
上記(9)に記載の表示制御装置。
(11)前記窓は、開閉可能であり、
前記移動体に搭載されたカメラで撮像した映像を前記窓の枠内に表示する前記透過モード下では、前記制御部は前記窓の開閉を禁止する、
上記(7)に記載の表示制御装置。
(12)前記窓は、開閉可能であり、
前記移動体に搭載されたカメラで撮像した映像を前記窓の枠内に表示する前記透過モード下では、前記表示部は、前記窓の開閉位置に連動して前記窓の枠内の表示を変更する、
上記(7)に記載の表示制御装置。
(13)移動体の状況を検出する検出ステップと、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御ステップと、
を有する表示制御方法。
(14)移動体の状況を検出する検出部と、
前記移動体に搭載され、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する表示装置。
(15)移動体と、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する移動体装置。
100…車室、101…フロントガラス、102…リアウィンドウ
103~106…サイドウィンドウ、110…プロジェクター
200…表示制御システム、210…車両状況検出部
211…測位部、212…通信部、213…V2X通信部
214…時計・環境センサー、215…車載カメラ
216…ドラモニカメラ、217…生体センサー
218…放送受信部
701…車載カメラ、702…画像処理部
703…ビデオ・フレーム、704…パワーウィンドウ装置
103~106…サイドウィンドウ、110…プロジェクター
200…表示制御システム、210…車両状況検出部
211…測位部、212…通信部、213…V2X通信部
214…時計・環境センサー、215…車載カメラ
216…ドラモニカメラ、217…生体センサー
218…放送受信部
701…車載カメラ、702…画像処理部
703…ビデオ・フレーム、704…パワーウィンドウ装置
Claims (15)
- 移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御部と、
を具備する表示制御装置。 - 前記表示部は、前記透過モードと、前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示する非透過モードを有し、
前記制御部は、前記検出部の検出結果に応じて、前記表示部を前記透過モード又は前記非透過モードのいずれかに設定する、
請求項1に記載の表示制御装置。 - 前記表示部は、前記移動体の内壁面からなる前記表示画面に映像を表示する、
請求項1に記載の表示制御装置。 - 前記移動体は窓を備え、
前記表示部は、前記窓を含んだ前記移動体の内壁面からなる前記表示画面に映像を表示する、
請求項1に記載の表示制御装置。 - 前記窓は、開閉可能であり、
前記表示部は、前記透過モードでは前記窓を開け又は前記窓を含んだ前記表示画面の少なくとも一部で前記移動体の外部の風景を表示し、前記非透過モードでは前記窓を閉じて前記窓を含んだ前記表示画面に表示される前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記表示画面全体でコンテンツ映像を表示する、
請求項4に記載の表示制御装置。 - 前記窓は、光を透過する透過状態と光を遮る非透過状態を切り替え可能であり、
前記表示部は、前記透過モードでは前記窓を前記透過状態にして前記移動体の外部の風景が見えるようにし、前記非透過モードでは前記窓の少なくとも一部を前記非透過状態にして前記外部の風景の少なくとも一部にコンテンツ映像を重畳し又は前記窓を含んだ前記表示画面全体にコンテンツ映像を表示する、
請求項4に記載の表示制御装置。 - 前記表示部は、前記窓を表示画面に含み、前記透過モードでは前記移動体に搭載されたカメラで撮像した前記移動体の外部の風景の映像を前記窓の枠内に表示し、前記非透過モードでは前記窓の枠内の少なくとも一部にコンテンツ映像を重畳し又は前記窓の枠内全体にコンテンツ映像を表示する、
請求項4に記載の表示制御装置。 - 前記検出部は、前記移動体の現在位置に関する情報を取得し、
前記制御部は、前記移動体の現在位置に基づいて、前記表示部を透過モードから非透過モードに切り替え、又は非透過モードから透過モードに切り替える、
請求項2に記載の表示制御装置。 - 前記検出部は、前記移動体の内外の状況若しくは周囲環境に関する情報を取得し、
前記制御部は、前記移動体外の状況に基づいて、前記表示部を透過モードから非透過モードに切り替え、又は非透過モードから透過モードに切り替える、
請求項2に記載の表示制御装置。 - 前記制御部は、渋滞時であることを前記検出部が検出したことに応じて、前記表示部を非透過モードに切り替える、
請求項9に記載の表示制御装置。 - 前記窓は、開閉可能であり、
前記移動体に搭載されたカメラで撮像した映像を前記窓の枠内に表示する前記透過モード下では、前記制御部は前記窓の開閉を禁止する、
請求項7に記載の表示制御装置。 - 前記窓は、開閉可能であり、
前記移動体に搭載されたカメラで撮像した映像を前記窓の枠内に表示する前記透過モード下では、前記表示部は、前記窓の開閉位置に連動して前記窓の枠内の表示を変更する、
請求項7に記載の表示制御装置。 - 移動体の状況を検出する検出ステップと、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部の表示モードを制御する制御ステップと、
を有する表示制御方法。 - 移動体の状況を検出する検出部と、
前記移動体に搭載され、表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する表示装置。 - 移動体と、
表示画面の少なくとも一部で前記移動体の外部の風景を表示する透過モードを有する表示部と、
前記移動体の状況を検出する検出部と、
前記検出部の検出結果に基づいて、前記表示部の表示モードを制御する制御部と、
を具備する移動体装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17806278.2A EP3468172A1 (en) | 2016-06-02 | 2017-04-28 | Display control device, display control method, display device, and moving body device |
CN201780031952.1A CN109155834B (zh) | 2016-06-02 | 2017-04-28 | 显示控制装置、显示控制方法、显示装置以及移动体装置 |
JP2018520736A JP7067471B2 (ja) | 2016-06-02 | 2017-04-28 | 表示制御装置及び表示制御方法、表示装置、並びに移動体装置 |
US16/301,660 US10757375B2 (en) | 2016-06-02 | 2017-04-28 | Display control device and display control method, display device, and moving body device |
US16/943,160 US11451749B2 (en) | 2016-06-02 | 2020-07-30 | Display control device and display control method, display device, and moving body device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016110877 | 2016-06-02 | ||
JP2016-110877 | 2016-06-02 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US16/301,660 A-371-Of-International US10757375B2 (en) | 2016-06-02 | 2017-04-28 | Display control device and display control method, display device, and moving body device |
US16/943,160 Continuation US11451749B2 (en) | 2016-06-02 | 2020-07-30 | Display control device and display control method, display device, and moving body device |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017208719A1 true WO2017208719A1 (ja) | 2017-12-07 |
Family
ID=60479329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/017095 WO2017208719A1 (ja) | 2016-06-02 | 2017-04-28 | 表示制御装置及び表示制御方法、表示装置、並びに移動体装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10757375B2 (ja) |
EP (1) | EP3468172A1 (ja) |
JP (1) | JP7067471B2 (ja) |
CN (1) | CN109155834B (ja) |
WO (1) | WO2017208719A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020183893A1 (ja) * | 2019-03-14 | 2020-09-17 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに移動体装置 |
JP2021043276A (ja) * | 2019-09-09 | 2021-03-18 | 株式会社デンソー | 表示装置 |
KR20210062774A (ko) * | 2019-11-21 | 2021-06-01 | 주식회사 이에스피 | 스마트카의 시스루 디스플레이 제어 시스템 및 방법 |
JP2021124597A (ja) * | 2020-02-05 | 2021-08-30 | 株式会社東海理化電機製作所 | 表示装置及び表示システム |
US11822845B2 (en) | 2020-12-17 | 2023-11-21 | Toyota Jidosha Kabushiki Kaisha | Vehicle display device |
JP7473489B2 (ja) | 2021-01-15 | 2024-04-23 | トヨタ紡織株式会社 | 出力制御装置、出力制御システム、および制御方法 |
US12028655B2 (en) | 2020-12-17 | 2024-07-02 | Toyota Jidosha Kabushiki Kaisha | Vehicle display device |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108885436B (zh) * | 2016-01-15 | 2021-12-14 | 美国iRobot公司 | 自主监视机器人系统 |
WO2018097384A1 (ko) * | 2016-11-24 | 2018-05-31 | 한화테크윈 주식회사 | 밀집도 알림 장치 및 방법 |
JP2019075039A (ja) * | 2017-10-19 | 2019-05-16 | トヨタ自動車株式会社 | 移動体の利用システム、サーバ、移動体、及び移動体の利用方法 |
JP6969276B2 (ja) | 2017-10-19 | 2021-11-24 | トヨタ自動車株式会社 | 移動体の利用システム、サーバ、及び移動体の利用方法 |
JP2019104315A (ja) * | 2017-12-11 | 2019-06-27 | トヨタ紡織株式会社 | 乗物のモニター装置 |
JP6705470B2 (ja) | 2018-06-06 | 2020-06-03 | 株式会社Jvcケンウッド | 記録再生装置、記録再生方法、およびプログラム |
JP7226233B2 (ja) * | 2019-10-08 | 2023-02-21 | トヨタ自動車株式会社 | 車両、情報処理システム、プログラム及び制御方法 |
US12081899B2 (en) | 2021-04-16 | 2024-09-03 | Zoom Video Communications, Inc. | Immersive scenes |
KR20220167520A (ko) * | 2021-06-14 | 2022-12-21 | 현대자동차주식회사 | 모바일 디바이스의 제어 방법 및 제어 시스템 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004020223A (ja) | 2002-06-12 | 2004-01-22 | Nippon Telegr & Teleph Corp <Ntt> | 車載用画像表示装置および車載用画像表示方法 |
JP2005184225A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車両用表示装置 |
JP2007052719A (ja) * | 2005-08-19 | 2007-03-01 | Adc Technology Kk | 車載用画像表示装置 |
JP2007326526A (ja) * | 2006-06-09 | 2007-12-20 | Quality Kk | 乗物用ウインドウガラスの調光制御装置 |
JP2008189202A (ja) * | 2007-02-06 | 2008-08-21 | Honda Motor Co Ltd | 車両用窓装置 |
JP2010532287A (ja) * | 2007-01-31 | 2010-10-07 | チェ、ユン−ジュン | 自動車用ディスプレー装置及びこれを用いたディスプレー方法 |
JP2015024746A (ja) | 2013-07-26 | 2015-02-05 | 日産自動車株式会社 | 自動運転制御装置及び自動運転制御方法 |
JP2016053622A (ja) * | 2014-09-03 | 2016-04-14 | 株式会社デンソー | 表示装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0558287A (ja) * | 1991-09-02 | 1993-03-09 | Hitachi Ltd | 乗り物用情報表示装置 |
JP3930025B2 (ja) * | 2005-01-27 | 2007-06-13 | 松下電器産業株式会社 | 表示制御装置 |
JP4325705B2 (ja) * | 2007-06-15 | 2009-09-02 | 株式会社デンソー | 表示システム及びプログラム |
US20110035776A1 (en) * | 2008-06-03 | 2011-02-10 | Mitsubish Electric Corporation | On-train information service system, on-train information presenting method, and passenger train-use information displaying device |
JP2010006092A (ja) * | 2008-06-24 | 2010-01-14 | Honda Motor Co Ltd | 運転支援装置 |
US20120212613A1 (en) * | 2011-02-22 | 2012-08-23 | Sekai Electronics, Inc. | Vehicle virtual window system, components and method |
EP2581268B2 (en) * | 2011-10-13 | 2019-09-11 | Harman Becker Automotive Systems GmbH | Method of controlling an optical output device for displaying a vehicle surround view and vehicle surround view system |
US8733938B2 (en) * | 2012-03-07 | 2014-05-27 | GM Global Technology Operations LLC | Virtual convertible tops, sunroofs, and back windows, and systems and methods for providing same |
US20140309876A1 (en) * | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Universal vehicle voice command system |
TWM438418U (en) * | 2012-06-07 | 2012-10-01 | Acard Technology Corp | Adaptive auxiliary driving monitoring recorder |
EP2746833A1 (en) * | 2012-12-18 | 2014-06-25 | Volvo Car Corporation | Vehicle adaptation to automatic driver independent control mode |
WO2015104860A1 (ja) * | 2014-01-10 | 2015-07-16 | アイシン精機株式会社 | 画像表示制御装置および画像表示システム |
US10179544B2 (en) * | 2014-05-29 | 2019-01-15 | Koito Manufacturing Co., Ltd. | Vehicle exterior observation device and imaging device |
US9996754B2 (en) * | 2014-06-13 | 2018-06-12 | B/E Aerospace, Inc. | Apparatus and method for providing attitude reference for vehicle passengers |
KR102127356B1 (ko) * | 2014-07-31 | 2020-06-26 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 제어 방법 |
CN107428300B (zh) * | 2015-04-07 | 2019-07-02 | 日产自动车株式会社 | 停车辅助系统以及停车辅助装置 |
US10486599B2 (en) * | 2015-07-17 | 2019-11-26 | Magna Mirrors Of America, Inc. | Rearview vision system for vehicle |
US10518702B2 (en) * | 2017-01-13 | 2019-12-31 | Denso International America, Inc. | System and method for image adjustment and stitching for tractor-trailer panoramic displays |
JP2018117320A (ja) * | 2017-01-20 | 2018-07-26 | 株式会社東芝 | 電子ミラーの映像合成装置及び映像合成方法 |
JP6846624B2 (ja) * | 2017-02-23 | 2021-03-24 | パナソニックIpマネジメント株式会社 | 画像表示システム、画像表示方法及びプログラム |
JP6649914B2 (ja) * | 2017-04-20 | 2020-02-19 | 株式会社Subaru | 画像表示装置 |
US10509413B2 (en) * | 2017-09-07 | 2019-12-17 | GM Global Technology Operations LLC | Ground reference determination for autonomous vehicle operations |
JP2019054360A (ja) * | 2017-09-14 | 2019-04-04 | セイコーエプソン株式会社 | 電子機器、モーションセンサー、位置変化検出プログラムおよび位置変化検出方法 |
JP7000383B2 (ja) * | 2019-07-04 | 2022-01-19 | 株式会社デンソー | 画像処理装置および画像処理方法 |
-
2017
- 2017-04-28 WO PCT/JP2017/017095 patent/WO2017208719A1/ja unknown
- 2017-04-28 CN CN201780031952.1A patent/CN109155834B/zh active Active
- 2017-04-28 US US16/301,660 patent/US10757375B2/en active Active
- 2017-04-28 EP EP17806278.2A patent/EP3468172A1/en not_active Ceased
- 2017-04-28 JP JP2018520736A patent/JP7067471B2/ja active Active
-
2020
- 2020-07-30 US US16/943,160 patent/US11451749B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004020223A (ja) | 2002-06-12 | 2004-01-22 | Nippon Telegr & Teleph Corp <Ntt> | 車載用画像表示装置および車載用画像表示方法 |
JP2005184225A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車両用表示装置 |
JP2007052719A (ja) * | 2005-08-19 | 2007-03-01 | Adc Technology Kk | 車載用画像表示装置 |
JP2011181110A (ja) | 2005-08-19 | 2011-09-15 | Adc Technology Inc | 車載用画像表示装置 |
JP2007326526A (ja) * | 2006-06-09 | 2007-12-20 | Quality Kk | 乗物用ウインドウガラスの調光制御装置 |
JP2010532287A (ja) * | 2007-01-31 | 2010-10-07 | チェ、ユン−ジュン | 自動車用ディスプレー装置及びこれを用いたディスプレー方法 |
JP2008189202A (ja) * | 2007-02-06 | 2008-08-21 | Honda Motor Co Ltd | 車両用窓装置 |
JP2015024746A (ja) | 2013-07-26 | 2015-02-05 | 日産自動車株式会社 | 自動運転制御装置及び自動運転制御方法 |
JP2016053622A (ja) * | 2014-09-03 | 2016-04-14 | 株式会社デンソー | 表示装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3468172A4 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020183893A1 (ja) * | 2019-03-14 | 2020-09-17 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに移動体装置 |
CN113544757A (zh) * | 2019-03-14 | 2021-10-22 | 索尼集团公司 | 信息处理装置、信息处理方法,以及移动体装置 |
CN113544757B (zh) * | 2019-03-14 | 2024-06-21 | 索尼集团公司 | 信息处理装置、信息处理方法,以及移动体装置 |
JP2021043276A (ja) * | 2019-09-09 | 2021-03-18 | 株式会社デンソー | 表示装置 |
JP7255431B2 (ja) | 2019-09-09 | 2023-04-11 | 株式会社デンソー | 表示装置 |
KR20210062774A (ko) * | 2019-11-21 | 2021-06-01 | 주식회사 이에스피 | 스마트카의 시스루 디스플레이 제어 시스템 및 방법 |
KR102286569B1 (ko) * | 2019-11-21 | 2021-08-09 | 주식회사 이에스피 | 스마트카의 시스루 디스플레이 제어 시스템 및 방법 |
JP2021124597A (ja) * | 2020-02-05 | 2021-08-30 | 株式会社東海理化電機製作所 | 表示装置及び表示システム |
US11822845B2 (en) | 2020-12-17 | 2023-11-21 | Toyota Jidosha Kabushiki Kaisha | Vehicle display device |
US12028655B2 (en) | 2020-12-17 | 2024-07-02 | Toyota Jidosha Kabushiki Kaisha | Vehicle display device |
US12118260B2 (en) | 2020-12-17 | 2024-10-15 | Toyota Jidosha Kabushiki Kaisha | Vehicle display device |
JP7473489B2 (ja) | 2021-01-15 | 2024-04-23 | トヨタ紡織株式会社 | 出力制御装置、出力制御システム、および制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US10757375B2 (en) | 2020-08-25 |
US20200358986A1 (en) | 2020-11-12 |
EP3468172A4 (en) | 2019-04-10 |
EP3468172A1 (en) | 2019-04-10 |
US20190124301A1 (en) | 2019-04-25 |
JPWO2017208719A1 (ja) | 2019-04-04 |
CN109155834B (zh) | 2022-01-25 |
CN109155834A (zh) | 2019-01-04 |
JP7067471B2 (ja) | 2022-05-16 |
US11451749B2 (en) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017208719A1 (ja) | 表示制御装置及び表示制御方法、表示装置、並びに移動体装置 | |
JP7124932B2 (ja) | 制振制御装置 | |
EP3617653B1 (en) | Method for providing images to vehicle and electronic device therefor | |
JP6073990B2 (ja) | 車両を介する遠隔通信方法 | |
US20200351478A1 (en) | Display control device and display control method, display device, and mobile device | |
CN104428826B (zh) | 用于车辆交通的自动化控制的中央网络 | |
US9616901B2 (en) | Mobile object, system, and storage medium | |
WO2021079975A1 (ja) | 表示システム、表示装置、表示方法、及び、移動装置 | |
CN113544757B (zh) | 信息处理装置、信息处理方法,以及移动体装置 | |
CN107650795A (zh) | 基于车辆传感器数据呈现车载媒体内容的系统、方法和设备 | |
JP2010211613A (ja) | 情報処理装置及び方法、プログラム、並びに情報処理システム | |
CN108028873A (zh) | 交通工具摄像机系统 | |
CN107306345A (zh) | 行驶记录处理方法、装置、设备、操作系统及交通工具 | |
CN110301133B (zh) | 信息处理装置、信息处理方法和计算机可读记录介质 | |
WO2022124164A1 (ja) | 注目対象共有装置、注目対象共有方法 | |
JP6917426B2 (ja) | 画像表示装置、画像表示方法、および、画像表示システム | |
WO2021131789A1 (ja) | 車両 | |
US11159709B2 (en) | Camera, camera processing method, server, server processing method, and information processing apparatus | |
KR20240024978A (ko) | 차량의 움직임에 맞추어 조정된 미디어 콘텐츠를 제공하는 방법 및 차량 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2018520736 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17806278 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2017806278 Country of ref document: EP Effective date: 20190102 |