WO2018230709A1 - 車両システム - Google Patents

車両システム Download PDF

Info

Publication number
WO2018230709A1
WO2018230709A1 PCT/JP2018/022929 JP2018022929W WO2018230709A1 WO 2018230709 A1 WO2018230709 A1 WO 2018230709A1 JP 2018022929 W JP2018022929 W JP 2018022929W WO 2018230709 A1 WO2018230709 A1 WO 2018230709A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
external device
room
unit
information
Prior art date
Application number
PCT/JP2018/022929
Other languages
English (en)
French (fr)
Inventor
瞬 岩▲崎▼
峰史 廣瀬
将行 渡邉
伊藤 淳
理恵 福島
久和 山根
正明 小野田
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to CN201880039888.6A priority Critical patent/CN110740902A/zh
Priority to US16/622,336 priority patent/US20200169705A1/en
Priority to JP2019525574A priority patent/JPWO2018230709A1/ja
Publication of WO2018230709A1 publication Critical patent/WO2018230709A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle

Definitions

  • the present invention relates to a vehicle system.
  • This application claims priority on June 16, 2017 based on Japanese Patent Application No. 2017-118689 filed in Japan, the contents of which are incorporated herein by reference.
  • Patent Document 1 Japanese Patent Document 1
  • the occupant In the vehicle of an autonomous driving vehicle, the occupant does not need to perform a driving operation. For this reason, it is possible for the occupant to freely use the boarding time, such as having fun with the family and working.
  • the interior of the vehicle is often an inorganic material with a unified color tone, and it is sometimes difficult to enjoy a calm conversation or to concentrate on work.
  • the present invention has been made in consideration of such circumstances, and an object of the present invention is to provide a vehicle system that can provide a room environment according to the needs of the user.
  • One aspect of the present invention is an automatic operation control unit that performs automatic driving of a vehicle, and an external device outside the vehicle when the vehicle is running or stopped, and an operation interface inside the vehicle
  • An environment providing unit that provides state information indicating a state of an external device that can be operated using the vehicle inside the vehicle.
  • the environment providing unit includes at least one of information indicating a control state of the external device or an external state of the external device detected by a detection unit outside the external device. Is provided in the vehicle.
  • the environment providing unit provides the inside of the vehicle with the operation interface for the functional operation that can be remotely operated among all the functional operations of the external device. .
  • the environment providing unit synchronizes the operation content received by the operation interface with the control state of the external device based on the state information.
  • the information processing apparatus further includes a specifying unit that specifies an individual in the vehicle, and the environment providing unit specifies the external device that can be used by the individual specified by the specifying unit. To connect with the specified external device.
  • the environment providing unit includes a projector and displays state information of the external device in the vehicle.
  • the environment providing unit changes an operation content received by the operation interface based on a traveling state of the vehicle.
  • the environment providing unit includes a type of the external device, an access right indicating whether or not use of the external device is permitted, and a state of the external device.
  • the operation interface connected to the external device is determined based on at least one.
  • Another aspect of the present invention is an automatic driving control unit that performs automatic driving of a vehicle, and an external device outside the vehicle when the vehicle is running or stopped, the operation being performed in the vehicle
  • An environment providing unit that provides state information indicating the state of an external device that can be controlled using an interface, and a management device that manages communication between the automatic operation control unit and the environment providing unit; It is a vehicle system provided.
  • the room environment specified by the user can be dubiously reproduced in the vehicle, so that the time in the vehicle can be further enhanced.
  • the user's individual room environment can be specified and the room environment usable by the user can be simulated, the user's private room environment can also be safely and easily Can be reproduced.
  • the external device included in the room environment can also be simulated in the vehicle, and the external device can be remotely controlled. You can do what you can't do in the car.
  • FIG. 1 is a configuration diagram of a vehicle system 1.
  • FIG. 1 is a configuration diagram of a vehicle 100.
  • FIG. It is a figure for demonstrating the process of an automatic driving
  • It is a functional block diagram of the room equipment 200.
  • 3 is a functional configuration diagram of a management server 300.
  • FIG. It is a figure which shows an example of the room information 322.
  • 2 is a sequence diagram illustrating an example of processing by the vehicle system 1.
  • FIG. 2 is a sequence diagram illustrating an example of processing by the vehicle system 1.
  • FIG. 2 is a diagram illustrating an example of a room for a child reproduced in a vehicle 100.
  • FIG. 2 is a diagram illustrating an example of a cafe-like room reproduced in a vehicle 100.
  • FIG. 3 is a diagram illustrating an example of a work room reproduced in the vehicle 100.
  • 2 is a diagram illustrating an example of a living room of a user that is reproduced in a vehicle 100.
  • FIG. It is the figure which looked at a mode that the vehicle 100 and the room 600 couple
  • the vehicle is, for example, an autonomous driving vehicle that basically does not require a driving operation.
  • an automatic driving vehicle is used to provide a room environment according to the user's needs.
  • FIG. 1 is a configuration diagram of the vehicle system 1.
  • the vehicle system 1 includes one or more vehicles 100, one or more room facilities 200 installed in a room that can be used by a user, and a management server 300. These components can communicate with each other via the network NW.
  • the network NW includes the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a public line, a provider device, a dedicated line, a wireless base station, and the like.
  • a room that can be used by a user is a room that has been previously permitted by the owner or manager of the room, such as the user's home or work, a hotel or inn where they stay. It is.
  • the room that can be used by the user is an example of a space outside the vehicle 100
  • a device that exists in the room facility 200 is an example of an external device that exists in the space outside the vehicle 100.
  • the external device includes an object that is remotely operated by the user from the inside of the vehicle based on the operation information acquired through the operation interface prepared in the vehicle.
  • an external apparatus is demonstrated as a structure included in the room equipment 200, it is not restricted to this.
  • the external device is a device other than the device mounted on the vehicle 100 and may include, for example, a device mounted on another vehicle.
  • the vehicle 100 creates a room request based on an operation by the user U and transmits it to the management server 300 via the network NW.
  • the room request is a request for instructing the reproduction of a pseudo room environment in the vehicle 100, and includes usage conditions such as the type of the room and the attributes of the user U, identification information of the vehicle 100, and the like.
  • the room request does not need to be transmitted every time the vehicle 100 is boarded. Once the room request is transmitted, provision of the room environment may be continued until the room request is canceled.
  • the vehicle 100 is a vehicle having four or more wheels on which a plurality of users U can ride, for example.
  • FIG. 2 is a configuration diagram of the vehicle 100.
  • the vehicle 100 includes, for example, an external environment monitoring unit 110, a communication device 120, a navigation device 130, a recommended lane determining device 140, an automatic driving control unit 150, a driving force output device 160, a brake device 162, and a steering device. 164 and an environment providing unit 170.
  • the external environment monitoring unit 110 includes, for example, a camera, a radar, a LIDAR (Light Detection and Ranging), and an object recognition device that performs sensor fusion processing based on these outputs.
  • the outside world monitoring unit 110 estimates the types of objects (particularly, vehicles, pedestrians, and bicycles) existing around the vehicle 100 and outputs the information to the automatic driving control unit 150 together with the position and speed information.
  • the communication device 120 is a wireless communication module for connecting to a network NW or directly communicating with other vehicles or pedestrian terminal devices, for example.
  • the communication device 120 performs wireless communication based on Wi-Fi, DSRC (Dedicated Short Range Communication), Bluetooth (registered trademark), and other communication standards.
  • a plurality of communication devices 120 may be prepared depending on the application.
  • the navigation device 130 includes, for example, an HMI (Human Machine Interface) 132, a GNSS (Global Navigation Satellite System) receiver 134, and a navigation control device 136.
  • the HMI 132 includes, for example, a touch panel display device, a speaker, a microphone, and the like.
  • the GNSS receiver 134 measures the position of the own apparatus (the position of the vehicle 100) based on radio waves coming from a GNSS satellite (for example, a GPS satellite).
  • the navigation control device 136 includes, for example, a CPU (Central Processing Unit) and various storage devices, and controls the entire navigation device 130. Map information (navigation map) is stored in the storage device.
  • the navigation map is a map that expresses roads by nodes and links.
  • the navigation control device 136 determines a route from the position of the vehicle 100 measured by the GNSS receiver 134 to the destination specified using the HMI 132 with reference to the navigation map. In addition, the navigation control device 136 may transmit the position and destination of the vehicle 100 to a navigation server (not shown) using the communication device 120 and acquire a route returned from the navigation server. Note that the route may include information on a stop point and a target arrival time in order to get on or off the user. The navigation control device 136 outputs the route information determined by any one of the above methods to the recommended lane determination unit 140.
  • the recommended lane determining unit 140 includes, for example, an MPU (Micro Processing Unit) and various storage devices.
  • the storage device stores high-precision map information that is more detailed than the navigation map.
  • the high-accuracy map information includes, for example, information such as road width and gradient for each lane, curvature, and signal position.
  • the recommended lane determination unit 140 determines a recommended lane preferable for traveling along the route input from the navigation device 130 and outputs the recommended lane to the automatic driving control unit 150.
  • the automatic operation control unit 150 includes one or more processors such as a CPU and an MPU and various storage devices.
  • the automatic driving control unit 150 travels in the recommended lane determined by the recommended lane determining unit 140, and the vehicle 100 is controlled so as to avoid contact with an object whose position and speed are input from the external monitoring unit 110. Let it run automatically.
  • the automatic operation control unit 150 sequentially executes various events. Events include constant speed driving events that travel in the same lane at a constant speed, follow-up driving events that follow the preceding vehicle, lane change events, merge events, branch events, emergency stop events, and charges for passing through the toll gate Event, handover event to end automatic driving and switch to manual driving. Further, during execution of these events, actions for avoidance may be planned based on the surrounding situation of the vehicle 100 (the presence of surrounding vehicles and pedestrians, lane narrowing due to road construction, etc.).
  • the automatic operation control unit 150 generates a target track on which the vehicle 100 will travel in the future.
  • the target trajectory includes, for example, a velocity element.
  • the target track is expressed as a sequence of points (track points) that the host vehicle M should reach.
  • the trajectory point is a point where the host vehicle M should reach for each predetermined travel distance.
  • the target speed and target acceleration for each predetermined sampling time are the target trajectory. Generated as part of.
  • the track point may be a position to which the host vehicle M should arrive at the sampling time for each predetermined sampling time. In this case, information on the target speed and target acceleration is expressed by the interval between the trajectory points.
  • FIG. 3 is a diagram for explaining a process of automatic driving.
  • a route is determined by the navigation device 130. This route is, for example, a rough route with no lane distinction.
  • the recommended lane determining unit 140 determines a recommended lane that is easy to travel along the route.
  • the automatic operation control unit 150 generates a trajectory point for traveling along the recommended lane as much as possible while avoiding obstacles, and the trajectory point (and accompanying speed profile) is generated.
  • a part or all of the driving force output device 160, the brake device 162, and the steering device 164 are controlled so as to travel along the vehicle.
  • Such division of roles is merely an example, and for example, the automatic operation control unit 150 may perform processing in an integrated manner.
  • the driving force output device 160 outputs a driving force (torque) for driving the vehicle to the driving wheels.
  • the driving force output device 160 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and a power ECU that controls them.
  • the power ECU controls the above-described configuration in accordance with information input from the automatic operation control unit 150 or information input from a driving operator (not shown).
  • the brake device 162 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor according to the information input from the automatic driving control unit 150 or the information input from the driving operator so that the brake torque corresponding to the braking operation is output to each wheel.
  • the brake device 162 may include, as a backup, a mechanism that transmits the hydraulic pressure generated by operating the brake pedal included in the driving operator to the cylinder via the master cylinder.
  • the brake device 162 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to information input from the automatic operation control unit 150 and transmits the hydraulic pressure of the master cylinder to the cylinder. Also good.
  • the steering device 164 includes, for example, a steering ECU and an electric motor.
  • the electric motor changes the direction of the steered wheels by applying a force to a rack and pinion mechanism.
  • the steering ECU drives the electric motor according to the information input from the automatic driving control unit 150 or the information input from the driving operator, and changes the direction of the steered wheels.
  • the environment providing unit 170 includes an output unit 171, a control unit 172, an acquisition unit 173, a storage unit 174, a specifying unit 175, and an authentication unit 176.
  • the environment providing unit 170 reproduces the environment of the room including the room facility 200 in the vehicle 100 by providing the vehicle with state information indicating the state of the external device included in the room facility 200, for example.
  • the status information of the external device includes, for example, information indicating the control status of the external device, information indicating the external status of the external device detected by the detection unit outside the external device, and the like.
  • the control state of the external device includes, for example, that the TV is on and the rice cooker is in the rice cooking state. Further, the control state of the external device includes a functional operation (or an operation associated with the functional operation) possessed by the external device in advance and a functional operation set in the external device.
  • the functional operation of the external device includes, for example, the ability to adjust the volume of the television and the level value (setting value) of the set volume.
  • the functional operation set in the external device includes a functional operation that can be remotely operated from outside and a functional operation that cannot be remotely operated from outside.
  • the control state of the external device includes the operating state of the external device.
  • the detection unit is not included in the external device.
  • the detection unit is not limited to a camera, and may be, for example, a unit that detects an external state of an external device, and may include a thermometer, an illuminometer, a speaker, and the like.
  • the external state of the external device includes the state of the external device observed from the outside, the state of the surrounding environment where the external device is placed, and the like.
  • Providing status information in the vehicle includes displaying the image and text indicating the control status of the external device in the vehicle, and displaying the function operation set in the external device in the vehicle with the image and text. included.
  • providing the state information in the vehicle may include displaying an operation interface for a functional operation with respect to an external device in the vehicle as an image or text.
  • the output unit 171 reproduces a predetermined room environment by displaying the state information in the vehicle 100 based on information (hereinafter referred to as reproduction data) for displaying the state information in the vehicle.
  • the reproduction data is generated by the control unit 172 based on information received from the room facility 200 or the management server 300, for example.
  • the reproduction data may be generated by the room facility 200 or the management server 300, or may be partially generated by the room facility 200 or the management server 300, and finally generated by the control unit 172 based on this portion. Good.
  • the output unit 171 causes a predetermined image to appear in the vehicle based on the reproduction data.
  • the means for causing the predetermined image to appear may be a method of projecting an image on a wall in the vehicle using a projector, or a method of displaying an image on a display installed in the vehicle.
  • the predetermined image includes not only an image related to an external device but also various images that reproduce a specified space, for example, an image related to a building such as a wallpaper or a floor of the specified space. This includes images related to furniture, home appliances, and other structures that exist in the open space.
  • the output unit 171 includes, for example, one or more of a projector, a display, a speaker, and the like.
  • the reproduction data differs depending on the reproduction means in the vehicle 100. For example, if the reproduction means in the vehicle 100 is a projector, the data is projected on the interior surface of the vehicle 100, and if the reproduction means in the vehicle 100 is a display, it is displayed on the display. Includes data to be displayed.
  • the output unit 171 may reproduce the room environment using a projection mapping technique.
  • the output unit 171 notifies the inside of the vehicle of the status of the external devices existing in the room facility 200. For example, based on the information received from the room facility 200, an image corresponding to the status of the device present in the room facility is output, or words or illustrations indicating the status of the device present in the room are output as an image or sound. . Details will be described later.
  • the acquisition unit 173 includes, for example, an interface device that receives an operation by a user and outputs the received operation content to the control unit 172.
  • the acquisition unit 173 includes, for example, a keyboard, a mouse, a touch panel, and the like.
  • the acquisition unit 173 includes a camera and a sensor, and the control unit 172 analyzes the characteristics of the user U and the operation content by the user U based on the image captured by the camera, the detection result by the sensor, and the like. Also good. For example, when the control unit 172 detects the movement of the user U who touches the operation button of the pseudo external device reproduced in the room environment in the vehicle, the control unit 172 detects the operation content for the external device. That is, the control unit 172 and the acquisition unit 173 may function as an operation interface that receives an instruction for remotely operating an external device reproduced in the vehicle as a pseudo image.
  • the acquisition unit 173 acquires the traveling state of the vehicle 100.
  • the traveling state of the vehicle 100 includes, for example, an event executed by the automatic driving control unit 150, the speed of the host vehicle, the position of the vehicle 100 measured by the GNSS receiver 134, and the shape of the road on which the vehicle 100 is traveling ( ⁇ Road, straight road ...) etc.
  • the acquisition unit 173 acquires information indicating the type of event executed by the automatic operation control unit 150 using the communication device 120.
  • the storage unit 174 is realized by an HDD (Hard Disk Drive), flash memory, RAM (Random Access Memory), ROM (Read Only Memory), or the like.
  • the control unit 172, the specifying unit 175, and the authentication unit 176 are realized, for example, when a processor such as a CPU executes a program (software) stored in the storage unit 174.
  • a processor such as a CPU executes a program (software) stored in the storage unit 174.
  • One or both of these functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or software. It may be realized by cooperation of hardware.
  • the program may be stored in advance in a storage device such as an HDD (Hard Disk Drive) or flash memory, or may be stored in a removable storage medium such as a DVD or CD-ROM, and the storage medium is stored in the drive device. It may be installed in the storage device by being attached.
  • the control unit 172 creates a room request based on the information input from the user U using the acquisition unit 173, the identification result by the identification unit 175, the authentication result by the authentication unit 176, and the like, and uses the communication device 120. To the management server 300.
  • the control unit 172 includes usage conditions such as the name and attribute of the user and the type of room in the room request.
  • control unit 172 generates reproduction data based on information received from the room facility 200 or the management server 300. Note that the control unit 172 may acquire reproduction data from the room facility 200 or the management server 300. The control unit 172 outputs the reproduction data to the output unit 171.
  • control unit 172 provides an operation interface for accepting operations on external devices in the vehicle.
  • the control unit 172 corresponds to identification information (hereinafter referred to as operation interface ID) for identifying each unit included in the acquisition unit 173 and identification information (hereinafter referred to as operation ID) for identifying an operation on an external device.
  • the attached information is generated and stored in the storage unit 174 as a part of the interface information 174A.
  • the interface information 174A may include information for identifying a combination of the operation interface ID and the operation ID (hereinafter referred to as an interface ID).
  • an interface ID In the interface information 174A, for example, it is registered that the button A displayed on the touch panel is an operation interface for turning on the power of the television.
  • This interface information 174A may be the same information as all or part of the interface information 323 described later.
  • control unit 172 provides an in-vehicle operation interface for functional operations that can be remotely operated from within the vehicle among all the functional operations of the external device. For example, the control unit 172 determines the operation content that the operation interface accepts depending on whether or not a remote operation from the vehicle is possible. When the functional operation that can be remotely operated from the vehicle is limited among all the functional operations that the external device has, the control unit 172 displays the operation interface of the functional operation that can be remotely operated from the vehicle. To provide. Specifically, the control unit 172 registers the interface ID in association with the operation ID of the functional operation that can be remotely operated from the vehicle in the interface information 174A, and the functional operation that cannot be remotely operated from the vehicle. The operation ID is not registered in the interface information 174A. Further, the control unit 172 may set a flag indicating that the operation ID of the functional operation that cannot be remotely operated from the vehicle is invalid.
  • remote operation from the vehicle is restricted.
  • the external device is a television
  • the television itself such as turning on the television can be remotely operated from the vehicle, but the recording device connected to the television can be remotely operated from the vehicle. You may be restricted.
  • an operation interface for the recording device may be provided by the control unit 172 as an operation of the recording device.
  • control unit 172 may determine the operation content that the operation interface accepts depending on, for example, whether or not the occupant is an individual authenticated by the authentication unit 176.
  • the control unit 172 provides the operation interface of the functional operation that is permitted to be operated by the occupant in the vehicle. To do.
  • the control unit 172 registers the interface ID in the interface information 174A in association with the operation ID of the functional operation permitted to be operated by the occupant, and also operates the functional operation not permitted to be operated by the occupant. The ID is not registered in the interface information 174A.
  • the control unit 172 may set a flag indicating that the operation ID of the functional operation that is not permitted by the passenger is invalid.
  • control unit 172 synchronizes the operation content received by the operation interface with the control state of the external device based on information received from the room facility 200 or the management server 300 using the communication device 120. For example, the control unit 172 determines the operation content that the operation interface accepts based on the latest information received from the room facility 200 or the management server 300.
  • control unit 172 may include a clock function unit and synchronize with the time counted by the clock function unit included in the external device. For example, it is assumed that the start of rice cooking control of the rice cooker included in the external device is set in advance at 17:00. In this case, the control unit 172 instructs the room device 200 to start rice cooking control by the rice cooker using the communication device 120 when the time counted by its own clock function unit is 17:00. A command to be transmitted is displayed, and a display indicating that the rice cooking start button of the rice cooker included in the operation interface is turned on is displayed.
  • control unit 172 may share the operation interface that accepts the same operation content with respect to the plurality of external devices and reproduce it in the vehicle. By doing so, when the occupant operates the operation interface for instructing to turn off the lighting in the vehicle, the living room lighting and the bedroom lighting can be turned off simultaneously.
  • control unit 172 may limit the occupants that can operate the operation interface among all the occupants by determining the occupants that can operate the operation interface according to the situation of the occupants in the vehicle.
  • the situation of the passengers in the vehicle includes the distribution of the passenger positions in the vehicle, the direction of the line of sight of the passengers, and the like.
  • Information indicating the status of the passenger in the vehicle is acquired by the control unit 172 by analyzing image data acquired by a camera or the like provided in the vehicle, for example. For example, the control unit 172 obtains the distance between the operation interface and the occupant based on the occupant's boarding position, and the distance to the operation interface is less than the occupant whose distance from the operation interface is less than a threshold or other occupants.
  • the short occupant may be determined as an occupant capable of operating the operation interface. Further, the control unit 172 determines whether or not the reproduction image of the external device that can be operated using the operation interface is viewed based on the direction of the sight line of the occupant, and determines that the reproduction image of the external device is viewed. The occupant may be determined as an occupant who can operate the operation interface.
  • control unit 172 may create a room request and send it to the management server 300 without depending on the operation of the user U.
  • the control unit 172 creates a room request that instructs to reproduce the room environment of a plurality of rooms (for example, a living room, a bedroom, and a kitchen). Then, the control unit 172 continuously reproduces the room environments of a plurality of rooms based on the information received from the management server 300. For example, the control unit 172 changes the room environment to be reproduced so that the room environment appears to change automatically at regular time intervals.
  • control unit 172 provides the operation interface corresponding to the external device included in the room reproduced in the vehicle, and the operation interface corresponding to the external device included in the room not reproduced in the vehicle. Do not provide to. Further, the control unit 172 may transmit a command for controlling an external device included in the room reproduced in the vehicle to the room device 200 using the communication device 120 based on the operation instruction received from the occupant. . In this case, the control unit 172 does not transmit a command to the external device even when the operation instruction received from the passenger is applicable to the external device included in the room that is not reproduced in the vehicle.
  • the operation instruction from the occupant is not limited to the operation interface realized by the HMI 132 or the operation interface displayed in the vehicle by the projector.
  • control unit 172 may acquire the sound. For example, when the occupant says “Raise the volume of the television a little more”, the control unit 172 may accept an operation instruction from the occupant based on the audio information acquired by the acquisition unit 173. That is, the control unit 172 preferentially accepts an operation on an external device included in a room reproduced in the vehicle from an external device included in a room not reproduced in the vehicle. As described above, when a plurality of external devices that can be operated are associated with one operation interface, the control unit 172 determines an external device to be operated based on the operation interface based on a predetermined priority order. May be.
  • the identifying unit 175 identifies an individual in the vehicle 100 based on the information acquired by the acquiring unit 173.
  • the specifying unit 175 specifies an individual with reference to the storage unit 174, for example.
  • Information indicating the user's characteristics is registered in the storage unit 174 in advance. For example, information indicating the facial features of the user, information indicating the characteristics of the user's voice, information indicating the characteristics of the user's fingerprint, and the like are registered in the storage unit 174.
  • the specifying unit 175 stores the information. With reference to the unit 174, an individual can be specified by face authentication, voice authentication, fingerprint authentication, or the like.
  • the specifying unit 175 may perform authentication by communication using an IC card such as password input, QR code (registered trademark) authentication, or Felica, and may specify an individual based on the authentication result.
  • the authentication unit 176 refers to the information indicating the correspondence relationship with the management server 300 below, and the individual specified by the specifying unit 175 (or the vehicle on which the authentication unit 176 is mounted) grants the access right to the management server 300. It is determined whether or not it has. When the authentication unit 176 determines that the management server 300 has an access right, the control unit 172 creates a room request.
  • the authentication unit 176 determines whether the individual specified by the specifying unit 175 has the access right to control the external device by referring to the information indicating the correspondence relationship with the external device described below, and the access right exists. In this case, the control unit 172 generates a signal including the access right. That is, the authentication unit 176 identifies an external device that can be used by the individual identified by the identifying unit 175 among the external devices registered in “information indicating a correspondence relationship with an external device (described later)”.
  • the “information indicating the correspondence with the external device” exists in the space indicated by the room ID, for example, information for identifying each space in which the external device exists (for example, room ID), information for identifying each individual, and the room ID Information that associates each external device (for example, an external device ID) with the presence / absence of an access right for each external device, and is stored in, for example, a storage device mounted on the vehicle 100.
  • the authentication unit 176 identifies a remote-controllable external device among the external devices existing in the designated space based on information received from the external device via the management server 300, and identifies the identified external device. It may be determined whether or not the individual specified by the unit 175 is usable.
  • the authentication unit 176 refers to the information indicating the correspondence relationship with the external device described above, and the identifying unit 175 among the plurality of external devices existing in the space (room) designated by the occupant via the acquisition unit 173 Even if an external device that can be used by the identified individual (hereinafter referred to as usable device) or an external device that is identified by the identifying unit 175 and cannot be used by the individual (hereinafter referred to as unusable device) is identified. Good.
  • the “information indicating the correspondence relationship with the external device” may be stored in the storage unit of the management server 300, and the processing by the authentication unit 176 as described above may be executed by the constituent unit included in the management server 300. .
  • control unit 172 selectively transmits the operation information acquired through the operation interface (implemented by the acquisition unit 173) to the management server 300 using the communication device 120. For example, when the operation content indicated by the acquired operation information is an operation content for an external device (usable device) determined to have an access right by the authentication unit 176, the control unit 172 sends the operation information to the management server 300. Send. On the other hand, when the operation content indicated by the acquired operation information is the operation content for the external device (unusable device) determined to have no access right by the authentication unit 176, the control unit 172 stores the operation information in the management server. Do not send to 300.
  • the control unit 172 also includes the type of external device (first requirement) existing in the designated space, the access right (second requirement) indicating whether or not use of the external device is permitted, and the state of the external device.
  • the operation interface connected to the external device is determined based on at least one of (third requirement).
  • the information indicating the status of the external device is status information described later, for example.
  • control unit 172 may display operation buttons corresponding to all external devices existing in the designated space on the touch panel included in the acquisition unit 173 based on the first requirement. Further, in consideration of the second requirement, the control unit 172 may invalidate the operation buttons of the external device that does not have the access right among the operation buttons displayed on the touch panel, or may not display them on the touch panel.
  • the control unit 172 communicates with the newly added device and acquires necessary information by acquiring the necessary information. And an operation button corresponding to the newly added external device is added to the touch panel.
  • the control unit 172 excludes the removed external device from the external device of the room facility 200 and supports the removed external device. You may delete the operation button to perform from a touch panel.
  • the control unit 172 may display operation buttons on the touch panel according to the control status of the external device when the control status of the external device changes in consideration of the third element.
  • the control unit 172 displays an operation button indicating that recording is in progress and invalidating the recording operation. Even if it is done, the recording instruction may not be accepted and the same program may not be recorded twice.
  • control unit 172 may change the operation content received by the operation interface based on the traveling state of the vehicle 100. For example, the control unit 172 restricts or expands part of the operation content received by the operation interface according to the traveling state of the vehicle 100. Specifically, when the speed is above a certain level, the size of the characters and button size are limited to restrict some operations and to prevent passengers from getting motion sickness with a detailed operation interface during roadsides. Change the operation so that it becomes larger.
  • control unit 172 adds an operation interface corresponding to the function of the added external device 230.
  • the control unit 172 adds an operation button for operating the vacuum cleaner to the touch panel included in the output unit 171.
  • FIG. 4 is a functional configuration diagram of the room facility 200.
  • the room facility 200 includes, for example, a communication device 210, one or more detection units 220, one or more external devices 230, and a gateway device 240.
  • the communication device 210 is a communication interface for connecting to a network NW or directly communicating with the vehicle 100, for example.
  • the communication device 210 may include, for example, a NIC (Network Interface Card), or may perform wireless communication based on Wi-Fi, DSRC (Dedicated Short Range Communications), Bluetooth (registered trademark), or other communication standards. Good.
  • a plurality of communication devices 210 may be prepared according to applications.
  • the detection unit 220 is provided in a position where the user U can use a room, for example, a living room in the user U's home, a kitchen, a child's room, a room in the user U's workplace, and the like. As the detection unit 220, for example, a 360 ° camera can be used.
  • the detection unit 220 outputs captured image data (hereinafter referred to as image data) to the gateway device 240.
  • the external device 230 is an external device installed in a room that can be used by the user U, and includes, for example, a television, a recording device, a refrigerator, a rice cooker, a microwave oven, an air conditioner, a personal computer, a printer, a game device, Red mills, electric saunas, etc. are included.
  • the external device 230 includes not only electrical devices but also electronic devices.
  • the external device 230 may be connected to the gateway device 240 and controlled by the gateway device 240.
  • the external device 230 may generate state information indicating an operation state, a control state, and the like, and output the state information to the gateway device 240.
  • the status information may further include information indicating the model number, color, shape, and the like of the external device 230.
  • the gateway device 240 is connected to the communication device 210, the detection unit 220, and the external device 230 in the room, and can operate these as an Iot (Internet of things) device.
  • the gateway device 240 includes, for example, a processor such as a CPU, a control signal generation unit 240A (details will be described later), and an authentication unit 240B.
  • the gateway device 240 controls the detection unit 220 and the external device 230 based on the information received from the management server 300. For example, when receiving information instructing transmission of living room video data, the gateway device 240 controls the detection unit 220 installed in the living room to acquire video data, and uses the communication device 210 to manage the management server 300. Send to. When receiving information instructing recording of a television set, the gateway device 240 controls the external device 230 that is a recording device connected to the television to make a recording reservation for a designated program. Further, when a part of the state information is input from the external device 230, the gateway device 240 may transmit to the vehicle 100 using the communication device 210, or may transmit to the vehicle 100 via the management server 300. .
  • the authentication unit 240B performs the same process as the authentication unit 176 described above. For example, on the basis of information received from the management server 300 or the vehicle 100 using the communication device 210, the information indicating the correspondence relationship with the external device is referred to and specified by an occupant (for example, an individual specified in the vehicle 100) It is determined whether or not the user has an access right for reproducing the room. When the access right exists, the authentication unit 240B instructs the state information acquisition unit 240C to acquire the state information of the external device existing in the designated room.
  • Authenticator 240B refers to information indicating a correspondence relationship with the external device based on the received information, and determines whether or not an access right exists for each external device existing in the room designated by the occupant.
  • the authentication unit 240B When the information received from the management server 300 or the vehicle 100 using the communication device 210 includes an operation instruction for an external device having an access right, the authentication unit 240B generates information indicating that the authentication is successful as a control signal To 240A.
  • the control signal generation unit 240A generates a control signal corresponding to the operation instruction included in the received information for the external device successfully authenticated by the authentication unit 240B, and uses the communication device 210 to manage the management server 300 and the vehicle 100. Send to.
  • the state information acquisition unit 240C acquires the detection result detected by the detection unit 220 and information indicating the operation content set in the external device 230 from the detection unit 220 and the external device 230.
  • the status information acquisition unit 240 ⁇ / b> C acquires status information of the external device based on information input from the detection unit 220 or the external device 230, and transmits the status information to the management server 300 or the vehicle 100 using the communication device 210.
  • the state information acquisition unit 240 ⁇ / b> C may generate reproduction data based on the acquired state information of the external device, and may transmit the reproduction data to the management server 300 or the vehicle 100 using the communication device 210.
  • FIG. 5 is a functional configuration diagram of the management server 300.
  • the management server 300 manages communication between the vehicle 100 and the room facility 200, for example. Note that some of the functions of the management server 300 described below may be realized by the vehicle 100.
  • the management server 300 includes, for example, a communication device 310, a storage unit 320, and a server control unit 330.
  • the communication device 310 is, for example, a NIC for connecting to the network NW.
  • the communication device 310 communicates with the vehicle 100 and the room facility 200 via the network NW.
  • the storage unit 320 is realized by an HDD, flash memory, RAM, ROM, or the like.
  • the server control unit 330 includes, for example, a reproduction data acquisition unit 330A, an I / F management unit 330B, and an authentication unit 330C. These functional units are realized, for example, by executing a program (software) stored in the storage unit 320 by a processor such as a CPU. Some or all of these functional units may be realized by hardware such as an LSI, ASIC, or FPGA, or may be realized by cooperation of software and hardware.
  • the reproduction data acquisition unit 330A receives the room request transmitted from the vehicle 100 via the communication device 310 and the network NW, acquires the reproduction data according to the use conditions included in the room request, and acquires the reproduction data. Is transmitted to the vehicle 100.
  • the reproduction data acquisition unit 330A may acquire reproduction data from the reproduction data DB 321 stored in the storage unit 320, or may acquire reproduction data based on captured images acquired in real time from the room facility 200.
  • the reproduction data DB 321 includes various reproduction data for reproducing the room. For example, an image obtained by processing an illustration image or a photograph for reproducing a room is included.
  • the reproduction data is information for outputting a predetermined image in the vehicle using the output unit 171 such as a projector or a display as described above.
  • the predetermined image may be an image projected into the vehicle or an image displayed on a display installed in the vehicle. That is, the reproduction data is information for outputting various item images corresponding to the room environment into the vehicle using the output unit 171, and outputs the image of the external device 230 into the vehicle using the output unit 171. Contains information for.
  • the reproduction data DB 321 is, for example, a database that stores reproduction data prepared in advance in association with information indicating the type of room.
  • the reproduction data acquisition unit 330A may generate reproduction data by combining a part of the reproduction data DB 321 stored in the storage unit 320 and a captured image acquired in real time from the room facility 200. .
  • the reproduction data acquisition unit 330A reads information for outputting an image of the external device from the reproduction data DB 321 and synthesizes the read information with the captured video.
  • the reproduction data DB 321 may include information for outputting an image corresponding to the state of the external device.
  • the reproduction data acquisition unit 330A may read information indicating the state of the external device 230 from the reproduction data DB 321 and synthesize the read information with the captured video.
  • the information representing the state of the external device 230 includes, for example, an image representing the state of the external device 230 with characters, an image representing an image of the external device 230 operating in that state, and the like.
  • the reproduction data acquisition unit 330A generates reproduction data that is displayed by superimposing a part or all of the information representing the state of the external device 230 on the image of the external device 230.
  • the reproduction data acquisition unit 330A is not limited to this, and the reproduction data acquisition unit 330A generates information indicating the state of the external device 230 after being remotely operated from the vehicle 100 based on the operation information based on the information indicating the state of the external device 230.
  • the reproduction data to be displayed near the image of the external device 230 may be generated.
  • the output unit 171 can output information indicating the state of the external device 230 after being remotely operated based on the operation information into the vehicle.
  • the environment providing unit 170 outputs the image based on the “reproduction data generated based on the state information of the external device 230” to the inside of the vehicle, so that the environment providing unit 170 outputs the external device 230 that is output inside the vehicle 100. Can be synchronized with the situation of the external device 230 in the designated space.
  • the reproduction data acquisition unit 330A generates information for displaying information indicating the function and state of the external device 230 on a part of the operation interface (such as a touch panel), and adds the information to the reproduction data (or only the information). For example, it may be transmitted to the vehicle 100.
  • the control unit 172 displays operation buttons on the touch panel according to the function and control state of the external device 230 based on the received information. Specifically, when the external device 230 is a recording device, the control unit 172 causes the touch panel to display operation buttons corresponding to the operation contents that can be received by the recording device.
  • the control unit 172 displays an operation button indicating that recording is in progress and invalidating the recording operation, and even if this operation button is operated, a recording instruction is displayed.
  • the same program may not be recorded in duplicate.
  • the environment providing unit 170 receives the operation content received by the operation interface in the vehicle 100 and the function and status of the electronic device 230. At least one of them can be synchronized.
  • the reproduction data acquisition unit 330A may generate information for outputting information indicating the function and state of the external device 230 into the vehicle by voice and transmit the information to the vehicle 100.
  • the reproduction data acquisition unit 330A reads information corresponding to the added external device from the reproduction data DB 321 and synthesizes the read information with the captured video. May be.
  • the reproduction data acquisition unit 330A may receive an authentication result by the authentication unit 176 from the vehicle 100 (or acquire an authentication result by the authentication unit 330C) and generate reproduction data according to the authentication result. For example, information indicating an external device that can be used by the individual specified by the specifying unit 175 from the vehicle 100 (hereinafter referred to as usable device), or an individual specified by the specifying unit 175 can be used (unusable device). When the information indicating the external device is not received, the reproduction data acquisition unit 330A generates reproduction data that allows the usable device to appear and prevents the unusable device from appearing.
  • the reproduction data acquisition unit 330A may combine the reproduction data corresponding to the usable device with the captured image, and may combine a predetermined unusable image with the captured image at a location corresponding to the unusable device.
  • the unusable image includes, for example, an image filled with one color, an image displaying characters indicating that the image cannot be used, and the like.
  • the process of combining the unusable image is not limited to the above, and includes, for example, mosaic processing of a portion corresponding to the unusable device in the captured video.
  • reproduction data acquisition unit 330A may be realized by the environment providing unit 170.
  • the I / F management unit 330B establishes communication between the vehicle 100 and the external device 230 via the communication device 310 and the network NW. For example, the server control unit 330 transfers operation information received from the vehicle 100 to the external device 230. Further, the server control unit 330 transfers the state information received from the external device 230 to the vehicle 100.
  • FIG. 15 is a diagram illustrating an example of the contents of the interface information 323.
  • the interface information 323 is a table in which an interface ID, an operation interface ID, a type, an external device ID, and an external device interface ID are associated with each other.
  • the type is information indicating the type of the operation interface.
  • the external device ID is identification information for identifying an external device.
  • the external device interface ID is identification information for identifying an operation interface included in the external device. Note that the “example” illustrated in FIG. 15 is a specific example of the functional operation of the external device.
  • the I / F management unit 330B generates interface information 323 based on various types of information related to an operation interface prepared in advance.
  • the various information related to the operation interface prepared in advance includes, for example, information indicating the operation content that can be received by the operation interface indicated by the operation interface ID, and information indicating the operation content that can be received by the operation interface indicated by the external device interface ID. Etc. are included.
  • the type “custom” indicates an operation interface set by the user. For example, when there is a functional operation of an external device added as an operation interface by the user, or when there is a functional operation of an external device frequently used by the user, a predetermined operation interface or an operation interface selected by the user is used. Thus, the operation interface set by the user is associated.
  • an operation interface on the vehicle 100 side is associated with each different operation interface included in the same external device 230.
  • a communication path between the operation interface on the vehicle 100 side and the operation interface on the external device 230 side can be established. Therefore, a pseudo room environment can be reproduced in the vehicle.
  • the I / F management unit 330B may manage communication with an external server (for example, 3rd Party). For example, the I / F management unit 330B determines whether communication with an external server is necessary based on information received from the vehicle 100 (including a room request and an operation instruction for the external device 230). When communication with an external server is necessary, the I / F management unit 330B may communicate with the external server, acquire necessary information from the external server, and then store interface information based on the acquired information. .
  • an external server for example, 3rd Party
  • Authenticator 330C executes the same processing as authenticator 176 described above. For example, based on information received from the vehicle 100 using the communication device 210, information indicating a correspondence relationship with an external device is referred, and an individual identified in the vehicle 100 has an access right to control the external device 230 Determine whether or not. When the access right exists, information indicating that the authentication is successful is output to the reproduction data acquisition unit 330A and the I / F management unit 330B. The reproduction data acquisition unit 330A acquires the reproduction data when the authentication by the authentication unit 330C is successful. When the authentication by the authentication unit 330C is successful, the I / F management unit 330B executes information transfer between the vehicle 100 and the external device 230.
  • FIG. 6 is a diagram illustrating an example of the room information 322.
  • the room information 322 is information related to a room that needs to be used, and is information in which the room type and usable information are associated with the room ID.
  • the room information 322 is stored in a table prepared for each house, for example.
  • the room ID is unique information for identifying each room among all usable rooms.
  • the usable information is information indicating the user U permitted to use each room, and includes, for example, a user ID.
  • the user ID is unique information for identifying each user U.
  • Room selection unit 330D determines whether the room ID of the room designated by the user is registered in room information 322 based on the room request received from vehicle 100. If it is not registered in the room information 322, reproduction data corresponding to the room request is acquired from the room selection unit 330D and the reproduction data DB 321 and transmitted to the vehicle 100 that transmitted the room request. On the other hand, when registered in the room information 322, the room selection unit 330D determines whether or not the user is registered as an authorized user. When the user is registered as a permitted user, the room selection unit 330D requests the room facility 200 in the designated room to transmit video data in the designated room.
  • FIG. 7 is a sequence diagram illustrating an example of processing by the vehicle system 1.
  • the control unit 172 acquires information about the user about the user U1 based on information input from the acquisition unit 173, for example (step S101).
  • the information related to the user includes the name and attributes of the user in the vehicle 100 (relationship, title, etc.). Note that if the individual of the user U1 is specified by the specifying unit 175, the control unit 172 may acquire information about the user from the specifying result by the specifying unit 175.
  • control unit 172 receives the type of room to be reproduced from the user U1 using the acquisition unit 173 (step S102). For example, the control unit 172 accepts one of the rooms for which reproduction data is prepared as the room type. Then, the control unit 172 creates a room request including the acquired information about the user U1 and the room type, and transmits the room request to the management server 300 using the communication device 120 (step S103).
  • the room selection unit 330D refers to the room information 322 in the storage unit 320 based on the room request received from the vehicle 100, and whether or not the room ID of the designated room is registered in the room information 322. Is determined (step S104). In this example, the room ID is not registered in the room information 322 because the designated room is one of the rooms for which reproduction data is prepared. Accordingly, the reproduction data acquisition unit 330A reads the reproduction data of the designated room from the reproduction data DB 321 of the storage unit 320 based on the room request received from the vehicle 100 (step S105), and uses the communication device 310 to read the vehicle 100. (Step S106). In vehicle 100, control unit 172 outputs the reproduction data received from management server 300 using communication device 120 to output unit 171. Based on the input reproduction data, the output unit 171 reproduces the room environment of the designated room in the vehicle 100 (step S107).
  • FIG. 8 is a sequence diagram illustrating an example of processing by the vehicle system 1.
  • an example in which reproduction of the current state of the designated room is requested from the user U2 will be described.
  • control part 172 acquires information about a user about user U2 (Step S201). For example, the control unit 172 acquires information about the user from the identification result obtained by the identifying unit 175.
  • the control unit 172 receives the type of room to be reproduced from the user U2 using the acquisition unit 173 (step S202). For example, the control unit 172 accepts one of the rooms that reproduces a real-time video as the type of room. And the authentication part 176 determines whether it has the access right with respect to the management server 300 based on the information regarding the user etc. which were acquired in step S201 (step S203). When having the access right to the management server 300, the control unit 172 creates a room request including the information about the user acquired in step S201 and the type of room received in step S202, and manages the room request using the communication device 120. It transmits to the server 300 (step S204).
  • the room selection unit 330D refers to the room information 322 in the storage unit 320 based on the room request received from the vehicle 100, and whether or not the room ID of the designated room is registered in the room information 322. Is determined (step S205). In this example, since the designated room is a room where the room facility 200 is installed, the room ID is registered in the room information 322. Therefore, the room selection unit 330D determines whether or not the user ID included in the room request is included in the usable information corresponding to the room ID of the designated room in the room information 322 (step S206).
  • the reproduction data acquisition unit 330A designates the room facility 200 installed in the designated room. A request is made to transmit the video data of the designated room (step S207).
  • the authentication unit 240B determines whether or not the occupant (for example, an individual specified in the vehicle 100) has an access right for reproducing the designated room (step S208).
  • the status information acquisition unit 240C acquires video data from the detection unit 220 installed in the designated room based on the request received from the management server 300, and controls the status from the external device 230. Is acquired (step S209), and is transmitted to the management server 300 using the communication device 210 (step S210).
  • the I / F management unit 330B generates interface information 323 based on the received information indicating the control state, and stores it in the storage unit 320 (step S211).
  • the server control unit 330 uses the communication device 310 to transmit the received video data, information indicating the control state, generated interface information, and the like to the vehicle 100 (step S212).
  • the server control unit 330 may transmit information obtained by combining the illustration image or the like of the external device 230 with the video data as described above to the vehicle 100, and the video data reflected by the external device 230 may be transmitted to the vehicle 100. You may send it.
  • the environment providing unit 170 reproduces the room environment of the designated room in the vehicle 100 based on the received video data and the like (step S213). That is, the environment providing unit 170 causes the output unit 171 to output an image of the external device 230 and an image of a space where the external device 230 exists based on the received video data and the like. Further, the environment providing unit 170 displays a predetermined operation interface on the HMI 132 based on the received information indicating the control state and interface information, or displays a predetermined operation interface in the vehicle using the output unit 171.
  • the environment providing unit 170 when the environment providing unit 170 receives an operation on a reproduction image or the like of the external device displayed in the vehicle from the user U2 (step S214), the environment providing unit 170 manages operation information indicating the received operation content using the communication device 120. It transmits to the server 300 (step S215).
  • the environment providing unit 170 determines whether or not the received operation content is the operation content for the external device (usable device) determined by the authentication unit 176 to have the access right, and for the usable device. Only when it is determined that the content is the operation content, the operation information may be transmitted to the management server 300.
  • the acquisition unit 173 serving as an operation interface operates the unusable device.
  • the content cannot be accepted.
  • the environment providing unit 170 does not transmit operation information for unusable devices to the management server 300.
  • the operation information indicating the operation content includes the room ID of the designated room, information indicating the external device, the operation content, and the like.
  • the management server 300 transfers the information indicating the received operation content to the room facility 200 associated with the room ID included in the received information (step S216).
  • the authentication unit 240B refers to information indicating the correspondence relationship with the external device based on the received information, and whether or not there is an access right for each external device existing in the room designated by the occupant. Is determined (step S217).
  • the authentication unit 240B outputs information indicating that the authentication is successful to the control signal generation unit 240A.
  • the control signal generation unit 240A generates a control signal corresponding to the operation instruction included in the received information for the external device successfully authenticated by the authentication unit 240B, and outputs the control signal to the corresponding external device 230 (step S218).
  • the gateway device 240 can control the external device 230 based on the received information indicating the operation content.
  • the environment providing unit 170 can remotely operate the external device 230 by selectively connecting the operation interface to the external device 230.
  • the control signal generation unit 240A determines whether or not parallel processing by the related device is necessary based on the control signal generated in step S218.
  • the parallel processing by the related device means processing in the related device necessary for controlling the external device 230, processing in the related device operated in cooperation with the control of the external device 230, and an upper level (master) that controls the external device 230.
  • the processing in the related apparatus is included. For example, when a related device in one room depends on an external device 230 in another room, the control signal generation unit 240A controls the related device on the master side in parallel when controlling the external device 230.
  • the control signal generation unit 240A When the parallel processing by the related device is necessary, the control signal generation unit 240A generates a control signal for the related device and controls the related device (step S219).
  • the gateway device 240 transmits a control signal for the related device to the management server 300 using the communication device 210 (step S220). And the management server 300 transmits the control signal with respect to an associated apparatus to an associated apparatus using the communication apparatus 310 (step S221). If the management server 300 can control the related device, the management server 300 may transmit the fact to the room facility 200 (step S222). In the room facility 200, the control signal generation unit 240A may further control the external device 230 based on the information received from the management server 300.
  • the server control unit 330 of the management server 300 may receive state information indicating the state of the external device 230 from the room facility 200. In this case, the server control unit 330 transfers the received state information to the corresponding vehicle 100. As described above, the server control unit 330 may generate reproduction data based on the received state information and transmit the reproduction data to the corresponding vehicle 100.
  • the management server 300 establishes communication between the external device 230 and the environment providing unit 170 associated with each other's operation interface in the interface information 323.
  • the state of the external device reproduced in the vehicle 100 is synchronized with the state of the external device 230 in the designated room.
  • the management server 300 can continuously transmit the video data received from the room facility 200 to the vehicle 100 side. Thereby, the situation of the designated room is reproduced in the vehicle with a time difference almost in real time.
  • FIGS. 9 to 12 are views showing a part of the inside of the vehicle 100.
  • FIG. 9 to 12 show how the vehicle 100 is viewed from the front or the rear using a perspective method.
  • a floor surface 501, a ceiling 502, and a side surface 503 are included. Illustration of tables and chairs that can be installed in the vehicle 100 is omitted.
  • FIG. 9 is a diagram showing an example of a room for children reproduced in the vehicle 100.
  • the environment providing unit 170 transmits a room request for a room for children to the management server 300 using the communication device 120, and reproduces the room for children. Data is received from the management server 300.
  • the environment providing unit 170 reproduces the image of the character 511 and the item 512 that the child is happy with on at least a part of the floor surface 501, the ceiling 502, and the side surface 503 of the vehicle 100 based on the received reproduction data. Thereby, the user can enjoy the time in the vehicle. Further, the atmosphere and items of the room environment may be changed according to the sex, age, preference, etc.
  • the environment providing unit 170 moves or stores the seat of the vehicle 100 to secure a space for children to play, and the surface of the seat (on the skin) or the surface of the vehicle interior based on the color information included in the reproduction data is displayed in the child room. Colored and displayed to produce the atmosphere of
  • FIG. 10 is a diagram illustrating an example of a cafe-like room reproduced in the vehicle 100.
  • the environment providing unit 170 transmits a room request for a cafe-like room as shown in FIG.
  • the reproduction data of the room is received from the management server 300.
  • the environment providing unit 170 reproduces an image of the cafe-like indoor design 521, the indoor facility 522, and the like on at least a part of the floor surface 501, the ceiling 502, and the side surface 503 of the vehicle 100 based on the received reproduction data.
  • the cafe-like indoor design 521 includes, for example, a frame with a nice photo, a blackboard with a menu written on it, a coffee cup illustration and a photo.
  • the cafe-like indoor facilities 522 include stylish lighting, espresso machines, and the like. Thus, the user can enjoy the tea time as if he were in a cafe using the travel time to the destination.
  • the environment providing unit 170 may change the atmosphere and items of the room environment according to drinks, time zones, seasons, and the like.
  • the environment providing unit 170 moves or stores the seats of the vehicle 100 to secure a space or arrange each seat at a position according to the received reproduction data, and color information included in the reproduction data.
  • the seat surface and atmosphere of the cafe are reproduced by coloring the surface of the seat (on the skin) and the surface of the passenger compartment.
  • FIG. 11 is a diagram illustrating an example of a work room reproduced in the vehicle 100.
  • the environment providing unit 170 transmits a room request for a work-oriented room to the management server 300 using the communication device 120, The reproduction data of the target room is received from the management server 300. Based on the received reproduction data, the environment providing unit 170 displays, on at least a part of the floor surface 501, the ceiling 502, and the side surface 503 of the vehicle 100, an image of a room design such as a device installed in the office or an office. Reproduce.
  • Examples of devices installed in the office include a printer 531, a personal computer screen 532, a keyboard 533, a telephone 534, a whiteboard 535, and the like. These are examples of external devices.
  • the indoor design like an office can be selected by the user from multiple settings depending on the job type, and a simple design can be reproduced for desk work, so that various creative ideas come to mind May be displayed as a slide, or news, received mail content, or the like may be displayed as a slide. Thereby, the user can start a part of work while switching the mood to the work mode using the travel time to the destination.
  • the environment providing unit 170 displays an enlarged view of the touched target when a user touches a photograph, news, email content, or the like reproduced in the vehicle 100 or relates to a terminal device possessed by the user. Information to be transmitted may be transmitted.
  • the environment providing unit 170 moves or stores the seats of the vehicle 100 to secure the space or arrange each seat at a position according to the received reproduction data.
  • the surface of the seat (on the skin) and the surface of the passenger compartment are colored and displayed.
  • the seat of the vehicle 100 is moved or stored, or the shape is deformed to reproduce the office chair, and the surface of the seat is based on the color information included in the reproduction data that reproduces the office. (On the skin) and the surface of the passenger compartment are colored to reproduce the office atmosphere.
  • facilities provided in the vehicle 100 can be used effectively.
  • the occupant can feel the room to be reproduced.
  • the environment providing unit 170 reproduces a living room, a children's room, a wooden room, a bedroom, etc., so that the user can enjoy traveling time with a relaxed feeling.
  • the environment providing unit 170 reproduces a room environment similar to that at home or work, so that the user is likely to feel more relaxed.
  • FIG. 12 is a diagram illustrating an example of a living room of a user that is reproduced in the vehicle 100.
  • the environment providing unit 170 uses the communication device 120 to transmit a room request for requesting the living room of the user to the management server 300.
  • the management server 300 acquires the video data of the living room from the designated user's room equipment 200 and transfers it to the environment providing unit 170.
  • the environment providing unit 170 has, on the side surface 503 of the vehicle 100, a television 541 at the user's home, a recording device 542, an air conditioner 543, a rice cooker 544, a microwave oven 545, An image of an external device such as the security device 546 is reproduced.
  • the recording device 542 includes images of a recording button 542a and a selection button 542b.
  • the rice cooker 544 includes an image of the operation panel 544a including a start button, operation buttons, and the like.
  • the security device 546 includes an image of the operation panel 546a.
  • the management server 300 specifies a control target (article in the user's home or the like) based on the information indicating the operation content received from the environment providing unit 170 and the authentication information of the authentication unit 176, and a control signal for the control target.
  • a signal generated together with the authentication information is transmitted to the room facility 200.
  • the authentication unit 240B of the gateway device 240 of the room facility 200 confirms the access right to the external device 230 to be controlled based on the signal received from the management server 300, and determines that the access right has the access right, the external device 230 is controlled.
  • the authentication unit 240B determines whether or not there is an access right to control the external device 230 based on authentication information included in the received signal.
  • the control signal generation unit 240A converts the received signal into a signal for controlling the external device 230, and The converted signal is transmitted to the external device 230 to be controlled. Then, the external device 230 is controlled.
  • the user can operate the recording device in the living room at home while moving on the vehicle 100 by operating the recording button 542a.
  • the user can turn on the power of the rice cooker at home one hour before going home by operating the operation panel 544a.
  • the device can be turned on.
  • the gateway device 240 transmits the state information input from the external device 230 to the vehicle 100 via the communication device 210.
  • the vehicle 100 receives state information indicating that the recording device is recording.
  • the environment providing unit 170 of the vehicle 100 displays an image (including characters, illustrations, and the like) indicating that recording is being performed on the image of the recording device output in the vehicle 100. .
  • the recording button 542a, the selection button 542b, the operation panel 544a, and the operation panel 546a may be realized by a terminal device 547 installed in the vehicle 100.
  • the terminal device 547 displays a button corresponding to an operation button or the like of a device reproduced in the vehicle 100 based on the information received from the environment providing unit 170, and transmits the received operation content to the environment providing unit 170. To do. Thereby, the user only has to operate the terminal device 547 at hand, and the operability is improved.
  • FIG. 13 is a view of a state in which the combined room region 700 appears as a result of the combination of the vehicle 100 and the room 600 from above.
  • FIG. 14 is a view of a state in which the vehicle 100 and the room 600 are separated from above.
  • a shutter device 601, a bed 602, a refrigerator 603, a bathroom 604, and the like are installed.
  • the shutter device 601 is one of the external devices 230 installed in the room 600.
  • the vehicle 100 includes, for example, a back door 181 and a sofa 182, a table 183, a television 184 and the like are brought in.
  • a touch panel of the acquisition unit 173 may be mounted, or a personal computer, a tablet terminal, or the like that communicates with the acquisition unit 173 may be mounted.
  • the environment providing unit 170 uses the communication device 120. Then, a signal instructing to open the shutter device 601 (hereinafter referred to as a shutter open signal) is transmitted to the room facility 200.
  • the gateway device 240 transmits a control signal to the shutter device 601 and opens the shutter. When the shutter is completely opened, the gateway device 240 transmits information indicating that the shutter is opened to the vehicle 100 using the communication device 210.
  • the automatic operation control unit 150 moves the vehicle 100 to a predetermined parking position and stops the vehicle.
  • a combined room region 700 composed of the vehicle 100 and the room 600 appears as shown in FIG. Thereby, the user can also use the vehicle 100 as a part of the room 600. Further, when the user goes out with the vehicle 100, the user can move while taking over a part of the combined room area 700.
  • the shutter opening signal may be transmitted to the shutter device 601 by operating the acquisition unit 173 as a remote controller or a touch panel by the user.
  • the environment providing unit 170 may reflect the setting in the room 600 in the vehicle 100, and the gateway device 240 may reflect the setting in the vehicle 100 in the room 600.
  • the environment providing unit 170 may set the same content as the setting of the temperature and operation mode of the air conditioner installed in the room 600 in the air conditioner of the vehicle 100 and reproduce it on the television set in the room 600.
  • the program or video content that is being played may be output from the output unit 171 of the vehicle 100, or the music content that is being played back by an audio device installed in the room 600 may be output from the output unit 171.
  • the gateway device 240 may control the air conditioner, the television, the audio device, and the like based on the air conditioning temperature set in the vehicle 100, the video content or the music content being reproduced, and the like. Thereby, a seamless environment can be provided in the combined room region 700.
  • the environment providing unit 170 also sets a predetermined time before the scheduled time when the vehicle 100 arrives at the room 600 so that when the vehicle 100 arrives at the room 600, the set temperature of the room 600 becomes the same temperature as inside the vehicle 100. From the above, air conditioning equipment installed in the room 600 may be controlled. In addition, the environment providing unit 170 may synchronize the content reproduced in the vehicle 100 and the content reproduced in the room 600 so that video content and music content are continuous in the combined room region 700.
  • the automatic operation control unit 150 that performs the automatic operation of the vehicle 100 and the environment providing unit that provides a pseudo room environment when the vehicle 100 is traveling or stopped in the vehicle 100. 170 can provide a room environment according to the needs of the user.
  • the user can remotely control the external device 230 installed in a usable room while getting on the vehicle 100, the user can do what to do at home or work while getting on the vehicle 100. , Time can be used effectively.
  • the environment providing unit 170 may adjust the position of the image projected by the projector and the position of the image displayed on the display according to the movement of the user and the vibration of the vehicle 100.
  • the environment providing unit 170 includes a sensor that detects vibration of the vehicle 100, and acquires information (hereinafter referred to as vibration information) indicating the direction and magnitude of the vibration of the vehicle 100 based on the detection result of the sensor. To do.
  • the environment providing unit 170 may adjust the position of the image projected by the projector and the position of the image displayed on the display based on the acquired vibration information. For example, the environment providing unit 170 may move the position of the image based on the reproduction data by the magnitude of the vibration of the vehicle 100 in the direction opposite to the vibration direction of the vehicle 100. Thereby, in the reproduced image, it is possible to cancel the vibration of the vehicle and contribute to prevention of car sickness.
  • the environment providing unit 170 may detect the movement of the user based on the detection result from the camera or sensor provided in the acquisition unit 173.
  • the environment providing unit 170 subtracts the vibration amount based on the vibration information and the user's movement.
  • the operation buttons of the external device may be reproduced at the same position. Thereby, the operation button can be displayed at the place where the user presses the wrong button.
  • the environment providing unit 170 may adjust the position of the image as described above for a part reproduced in the vehicle 100. For example, the environment providing unit 170 detects the user's field of view using the line-of-sight recognition technology based on the detection results from the cameras and sensors included in the acquisition unit 173, and the periphery around the detected field of view is the center. The image position adjustment as described above may be performed for a display within a certain range. In addition, the environment providing unit 170 may perform the above-described image position adjustment in the video of the external device 230 reproduced on the vehicle 100.
  • the simulated room environment that is reproduced is not limited to the interior of a real room.
  • a room environment where the scenery of the sea and mountains spreading out in front of you is expressed on the wall, cartoons, novels, etc. may be a room environment that expresses the world view of the story in a room design or room interior.
  • the simulated room environment to be reproduced may include humans and animals such as children and pets in a living room at home, or a cram school teacher in a cram school classroom.
  • the environment providing unit 170 may reflect changes in a part of the designated real room in the vehicle 100, and the gateway device 240 may reflect the changes in the room reproduced in the vehicle 100. It may be reflected in the room. For example, when a whiteboard placed in a real room is also reproduced in the vehicle 100, information written on the whiteboard in the real room is read by an electronic method and displayed on the whiteboard of the vehicle 100. On the contrary, the information written on the whiteboard of the vehicle 100 may be read by an electronic method and displayed on the whiteboard in the actual room. In addition, the environment providing unit 170 may mirror the images displayed on the displays of the external devices 230 in the actual room and the images of the external devices 230 reproduced on the vehicle 100. Good.
  • the environment providing unit 170 and the server control unit 330 may create reproduction data in which the layout of the designated real room is changed according to the interior of the vehicle 100, and may be a part of two or more real rooms.
  • Reproduction data may be created by synthesizing. Thereby, even if the shape and area of the actual room are different from the shape and area of the vehicle 100, a similar atmosphere and necessary external devices can be reproduced.
  • the environment providing unit 170 may select a room type according to the user's behavior in the vehicle 100 and create a room request based on the selected room type. For example, when the output unit 171 of the vehicle 100 plays a movie and the user views a movie, the environment providing unit 170 sets a movie theater as the room type according to the content output by the output unit 171. You may choose. In addition, when the output unit 171 of the vehicle 100 plays music and the user views music, the environment providing unit 170 changes the type of room according to the content output by the output unit 171. You may choose.
  • the environment providing unit 170 may select the type of room according to the user who is in the vehicle 100 and the combination of the users. For example, the environment providing unit 170 may designate a room type having the highest selection frequency based on the past user designation history. If the user is a combination of a child and a parent, the child is given priority. A room for children may be designated, and if the combination of users is a member of the company, a meeting room may be designated.
  • the environment providing unit 170 may designate a room according to the destination of the vehicle 100. For example, if the destination is the sea, you may specify a room whose room design is the sea view. If the destination is a theme park, the theme park character is the room design. You may specify a room.
  • the operation interface may be realized by a format such as API (Application Programming Interface).
  • SYMBOLS 1 Vehicle system, 100 ... Vehicle, 110 ... Outside world monitoring unit, 120 ... Communication device, 130 ... Navigation device, 140 ... Recommended lane determining device, 150 ... Automatic driving control unit, 160 ... Driving force output device, 162 ... Brake device DESCRIPTION OF SYMBOLS 164 ... Steering device, 170 ... Environment provision part, 171 ... Output part, 172 ... Control part, 173 ... Acquisition part, 174 ... Storage part, 175 ... Specific part, 200 ... Room equipment, 210 ... Communication apparatus, 220 ... Detection , 230 ... external device, 240 ... gateway device, 300 ... management server, 310 ... communication device, 320 ... storage unit, 321 ... reproduction data DB, 322 ... room information, 330 ... server control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Selective Calling Equipment (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両の自動運転を実行する自動運転制御部と、前記車両の走行時または停止時に、前記車両外の外部機器であって、前記車両の車内における操作インタフェースを用いて操作可能な外部機器の状態を示す状態情報を、前記車内に提供する環境提供部と、を備える車両である。

Description

車両システム
 本発明は、車両システムに関する。
 本願は、2017年6月16日に、日本に出願された特願2017-118689号に基づき優先権を主張し、その内容をここに援用する。
 近年、車両の自動運転について研究が進められている(特許文献1参照)。
特開2017-61168号公報
 自動運転車両の車内において、乗員は、運転操作をする必要がない。このため、家族との団らんを楽しんだり、仕事をしたり、乗員は乗車時間を自由に使うことができる。しかしながら、車両の内装は、色調が統一された無機質なものが多く、落ち着いて会話を楽しむことや、仕事に集中することが困難な場合があった。
 本発明は、このような事情を考慮してなされたものであり、利用者のニーズに応じた部屋環境を提供することができる車両システムを提供することを目的の一つとする。
 (1):本発明の一態様は、車両の自動運転を実行する自動運転制御部と、前記車両の走行時または停止時に、前記車両外の外部機器であって、前記車両の車内における操作インタフェースを用いて操作可能な外部機器の状態を示す状態情報を、前記車内に提供する環境提供部と、を備える車両システムである。
 (2):(1)の態様において、前記環境提供部は、前記外部機器の制御状態を示す情報、あるいは、前記外部機器外の検出部により検出された前記外部機器の外部状態のうち少なくとも一つを、前記車内に提供する、ものである。
 (3):(1)の態様において、前記環境提供部は、前記外部機器が有する全ての機能動作のうち遠隔操作可能な機能動作についての前記操作インタフェースを、前記車内に提供する、ものである。
 (4):(3)の態様において、前記環境提供部は、前記状態情報に基づいて、前記操作インタフェースが受け付ける操作内容を、前記外部機器の制御状態と同期させる、ものである。
 (5):(1)の態様において、前記車両内にいる個人を特定する特定部を更に備え、前記環境提供部は、前記特定部により特定された個人が使用可能な前記外部機器を特定し、特定した前記外部機器と接続する、ものである。
 (6):(1)の態様において、前記環境提供部は、プロジェクタを含み、前記外部機器の状態情報を車内に表示させる、ものである。
 (7):(1)の態様において、前記外部機器と通信する通信部を更に備え、前記環境提供部は、前記車両内にいる人が前記操作インタフェースに対して行った操作を認識し、前記認識した操作に対応する制御信号を前記外部機器側に送信するように前記通信部を制御する、ものである。
 (8):(1)の態様において、前記環境提供部は、前記車両の走行状態に基づいて、前記操作インタフェースが受け付ける操作内容を変更する、ものである。
 (9):(1)の態様において、前記環境提供部は、前記外部機器が追加された場合、前記追加された外部機器の機能に応じた前記操作インタフェースを追加する、ものである。
 (10):(1)の態様において、前記環境提供部は、前記外部機器の種類と、前記外部機器の使用が許可されているか否かを示すアクセス権と、前記外部機器の状態とのうち少なくとも一つに基づいて、前記外部機器と接続される前記操作インタフェースを決定する、ものである。
 (11):本発明の他の態様は、車両の自動運転を実行する自動運転制御部と、前記車両の走行時または停止時に、前記車両外の外部機器であって、前記車両の車内における操作インタフェースを用いて制御可能な外部機器の状態を示す状態情報を、前記車内に提供する環境提供部と、前記自動運転制御部と前記環境提供部との間の通信を管理する管理装置と、を備える車両システムである。
 (1)―(11)の態様によれば、利用者が指定した部屋環境を車内に疑義的に再現することができるため、車内での時間をより充実させることができる。
 (5)の態様によれば、利用者の個人を特定した上で、利用者が使用可能な部屋環境を擬似的に再現することができるため、利用者のプライベートな部屋環境も安全かつ簡単に再現することができる。
 (1)―(11)の態様によれば、部屋環境に含まれる外部機器も車内に擬似的に再現することができ、その外部機器に対する遠隔操作が可能であるため、部屋にいるときにしかできないことを車内でも行うことができる。
車両システム1の構成図である。 車両100の構成図である。 自動運転の処理過程について説明するための図である。 部屋設備200の機能構成図である。 管理サーバ300の機能構成図である。 部屋情報322の一例を示す図である。 車両システム1による処理の一例を示すシーケンス図である。 車両システム1による処理の一例を示すシーケンス図である。 車両100内に再現される子供向けの部屋の一例を示す図である。 車両100内に再現されるカフェ風の部屋の一例示す図である。 車両100内に再現される仕事向けの部屋の一例を示す図である。 車両100内に再現される利用者の自宅のリビングの一例を示す図である。 車両100と部屋600とが結合して合体部屋領域が出現した様子を上方から見た図である。 車両100と部屋600とが分離した様子を上方から見た図である。 インタフェース情報323の内容の一例を示す図である。
 以下、図面を参照し、本発明の車両、および車両システムの実施形態について説明する。車両は、例えば、基本的には運転操作を必要としない自動運転車両である。車両システムでは、自動運転車両を用いて、利用者のニーズに応じた部屋環境を提供する。
 図1は、車両システム1の構成図である。車両システム1は、一以上の車両100と、利用者が使用可能な部屋に設置される一以上の部屋設備200と、管理サーバ300とを備える。これらの構成要素は、ネットワークNWを介して互いに通信可能である。ネットワークNWは、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、プロバイダ装置、専用回線、無線基地局などを含む。
 利用者が使用可能な部屋とは、部屋の所有者や、管理者等により利用者による使用が予め許可されている部屋であって、例えば、利用者の自宅や職場、滞在するホテルや旅館等である。利用者が使用可能な部屋とは、車両100の外の空間の一例であり、部屋設備200に存在する機器が、この車両100の外の空間に存在する外部装置の一例である。外部機器は、後で説明する通り、車内に用意された操作インタフェースを介して取得された操作情報に基づいて車内から利用者により遠隔操作される対象を含む。以下、外部機器が部屋設備200に含まれる構成として説明するが、これに限られない。例えば、外部機器は、車両100に搭載される機器以外の機器であって、例えば、他車両に搭載される機器などを含んでもよい。
 [車両]
 車両100は、利用者Uによる操作に基づいて部屋リクエストを作成し、ネットワークNWを介して、管理サーバ300に送信する。部屋リクエストとは、車両100の車内に擬似的な部屋環境の再現を指示する要求であって、部屋の種類や利用者Uの属性等の利用条件や車両100の識別情報等が含まれる。部屋リクエストは、車両100に乗車する度に送信される必要はなく、一度部屋リクエストが送信されると、キャンセルされるまで部屋環境の提供が継続されてもよい。
 車両100は、例えば、複数の利用者Uが乗車可能な四輪以上の車輪を有する車両である。図2は、車両100の構成図である。車両100は、例えば、外界監視ユニット110と、通信装置120と、ナビゲーション装置130と、推奨車線決定装置140と、自動運転制御ユニット150と、駆動力出力装置160と、ブレーキ装置162と、ステアリング装置164と、環境提供部170とを備える。
 外界監視ユニット110は、例えば、カメラやレーダ、LIDAR(Light Detection and Ranging)、これらの出力に基づいてセンサフュージョン処理を行う物体認識装置などを含む。外界監視ユニット110は、車両100の周辺に存在する物体の種類(特に、車両、歩行者、および自転車)を推定し、その位置や速度の情報と共に自動運転制御ユニット150に出力する。
 通信装置120は、例えば、ネットワークNWに接続したり、他車両や歩行者の端末装置などと直接的に通信したりするための無線通信モジュールである。通信装置120は、Wi-Fi、DSRC(Dedicated Short Range Communications)、Bluetooth(登録商標)、その他の通信規格に基づいて無線通信を行う。通信装置120として、用途に応じた複数のものが用意されてもよい。
 ナビゲーション装置130は、例えば、HMI(Human machine Interface)132と、GNSS(Global Navigation Satellite System)受信機134と、ナビ制御装置136とを備える。HMI132は、例えば、タッチパネル式ディスプレイ装置やスピーカ、マイクなどを含む。GNSS受信機134は、GNSS衛星(例えばGPS衛星)から到来する電波に基づいて自機の位置(車両100の位置)を測位する。ナビ制御装置136は、例えば、CPU(Central Processing Unit)や各種記憶装置を備え、ナビゲーション装置130全体を制御する。記憶装置には、地図情報(ナビ地図)が格納されている。ナビ地図は、ノードとリンクで道路を表現した地図である。ナビ制御装置136は、GNSS受信機134によって測位された車両100の位置から、HMI132を用いて指定された目的地までの経路を、ナビ地図を参照して決定する。また、ナビ制御装置136は、車両100の位置と目的地とを、通信装置120を用いてナビゲーションサーバ(不図示)に送信し、ナビゲーションサーバから返信された経路を取得してもよい。なお、経路には、利用者を乗車または降車させるために停止する地点および到達目標時刻の情報が含まれてよい。ナビ制御装置136は、上記いずれかの方法で決定した経路の情報を推奨車線決定部140に出力する。
 推奨車線決定部140は、例えば、MPU(Micro Processing Unit)と各種記憶装置を備える。記憶装置には、ナビ地図よりも詳細な高精度地図情報が格納されている。高精度地図情報には、例えば、車線ごとの道路幅や勾配、曲率、信号の位置などの情報が含まれている。推奨車線決定部140は、ナビゲーション装置130から入力された経路に沿って走行するために好ましい推奨車線を決定し、自動運転制御ユニット150に出力する。
 自動運転制御ユニット150は、CPUやMPUなどの一以上のプロセッサと各種記憶装置を備える。自動運転制御ユニット150は、推奨車線決定部140により決定された推奨車線を走行することを原則として、外界監視ユニット110から位置や速度が入力された物体との接触を避けるように、車両100を自動的に走行させる。自動運転制御ユニット150は、例えば、各種イベントを順次実行する。イベントには、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、車線変更イベント、合流イベント、分岐イベント、緊急停止イベント、料金所を通過するための料金所イベント、自動運転を終了して手動運転に切り替えるためのハンドオーバイベントなどがある。また、これらのイベントの実行中に、車両100の周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄など)に基づいて、回避のための行動が計画される場合もある。
 自動運転制御ユニット150は、車両100が将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、所定の走行距離ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
 図3は、自動運転の処理過程について説明するための図である。まず、上図に示すように、ナビゲーション装置130によって経路が決定される。この経路は、例えば車線の区別が付けられていない大まかな経路である。次に、中図に示すように、推奨車線決定部140が、経路に沿って走行しやすい推奨車線を決定する。そして、下図に示すように、自動運転制御ユニット150が、障害物の回避などを行いながら、なるべく推奨車線に沿って走行するための軌道点を生成し、軌道点(および付随する速度プロファイル)に沿って走行するように、駆動力出力装置160、ブレーキ装置162、ステアリング装置164のうち一部または全部を制御する。なお、このような役割分担はあくまで一例であり、例えば自動運転制御ユニット150が一元的に処理を行ってもよい。
 駆動力出力装置160は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。駆動力出力装置160は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するパワーECUとを備える。パワーECUは、自動運転制御ユニット150から入力される情報、或いは不図示の運転操作子から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置162は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、自動運転制御ユニット150から入力される情報、或いは運転操作子から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置162は、運転操作子に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置162は、上記説明した構成に限らず、自動運転制御ユニット150から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
 ステアリング装置164は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、自動運転制御ユニット150から入力される情報、或いは運転操作子から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 環境提供部170は、出力部171と、制御部172と、取得部173と、記憶部174と、特定部175と、認証部176とを備える。
 環境提供部170は、例えば、部屋設備200に含まれる外部機器の状態を示す状態情報を車内に提供することにより、車両100の車内に部屋設備200を備える部屋の環境を再現する。外部機器の状態情報には、例えば、外部機器の制御状態を示す情報、あるいは、外部機器外の検出部により検出される外部機器の外部状態を示す情報などが含まれる。
 外部機器の制御状態には、例えば、テレビがオン状態であること、炊飯器が炊飯状態であることなどが含まれる。また、外部機器の制御状態には、外部機器が予め保有している機能動作(あるいは機能動作に付随する動作)や、外部機器において設定されている機能動作も含まれる。外部機器の機能動作には、例えば、テレビの音量を調整できることや、設定されている音量のレベル値(設定値)などが含まれる。外部機器において設定されている機能動作には、室外からの遠隔操作が可能な機能動作であることや、室外からの遠隔操作が可能でない機能動作であることなども含まれる。外部機器の制御状態には、外部機器の稼働状態なども含まれる。
 検出部は、外部機器に含まれない構成である。検出部は、カメラに限られず、例えば、外部機器の外部状態を検出するものであればよく、温度計、照度計、スピーカなどを含んでもよい。外部機器の外部状態には、外部機器を外側から観測した外部機器の状態や、外部機器が置かれている周りの環境の状態などが含まれる。
 状態情報を車内に提供することには、外部機器の制御状態を表す画像やテキストで車内に表示することや、外部機器において設定されている機能動作を画像やテキストで車内に表示することなどが含まれる。また、状態情報を車内に提供することには、外部機器に対する機能動作についての操作インタフェースを画像やテキストで車内に表示することなども含まれてよい。
 出力部171は、状態情報を車内に表示させるための情報(以下、再現データと記す)に基づいて車両100の車内に状態情報を表示させることにより、所定の部屋環境を再現する。再現データは、例えば、部屋設備200や管理サーバ300から受信した情報に基づいて制御部172により生成される。また再現データは、部屋設備200あるいは管理サーバ300により生成されてもよく、部屋設備200あるいは管理サーバ300により一部が生成され、この一部に基づいて最終的に制御部172により生成されてもよい。
 例えば、出力部171は、再現データに基づいて所定の像を車内に出現させる。所定の像を出現させる手段は、プロジェクタを用いて車内の壁に像を投影される手法であってもよく、車内に設置されたディスプレイに像を表示させる手法であってもよい。また、所定の像には、外部機器に関する像だけでなく、指定された空間を再現する様々な像が含まれ、例えば、指定された空間の壁紙や床などの建造物に関する像と、指定された空間に存在する家具や家電等の構造物に関する像なども含まれる。
 出力部171は、例えば、プロジェクタ、ディスプレイ、スピーカ等のうち一つまたは複数を含む。再現データは、車両100における再現手段に応じて異なり、例えば、車両100における再現手段がプロジェクタであれば車両100の内装の表面に投影されるデータ、車両100における再現手段がディスプレイであればディスプレイに表示されるデータ等を含む。また、出力部171は、プロジェクションマッピング技術を利用して、部屋環境を再現してもよい。
 また出力部171は、部屋設備200に存在する外部機器の状況を車内に通知する。例えば、部屋設備200から受信した情報に基づいて、部屋設備に存在する機器の状況に応じた像を出力したり、部屋に存在する機器の状況を示す言葉やイラストを、画像あるいは音声により出力する。詳細については、後述する。
 取得部173は、例えば、利用者による操作を受け付け、受け付けた操作内容を制御部172に出力するインタフェース装置を含む。取得部173は、例えば、キーボード、マウス、タッチパネル等を含む。また、取得部173はカメラやセンサを含み、制御部172が、カメラにより撮像された画像やセンサによる検出結果等に基づいて、利用者Uの特徴や、利用者Uによる操作内容を解析してもよい。例えば、制御部172は、車内の部屋環境において再現された擬似的な外部機器の操作ボタンをタッチする利用者Uの動きを検出した場合、外部機器に対する操作内容を検出する。つまり、制御部172と取得部173は、擬似的な像として車内に再現された外部機器を遠隔操作するための指示を受け付ける操作インタフェースとして機能する場合がある。
 また、取得部173は、車両100の走行状態を取得する。車両100の走行状態は、例えば、自動運転制御ユニット150により実行されるイベント、自車両の速度、GNSS受信機134により測位された車両100の位置、車両100が走行している道路の形状(峠道、直線道路…)などにより表される。例えば、取得部173は、通信装置120を用いて、自動運転制御ユニット150により実行されるイベントの種類を示す情報を取得する。
 記憶部174は、HDD(Hard Disk Drive)やフラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)などにより実現される。
 制御部172、特定部175、および認証部176は、例えば、CPUなどのプロセッサが記憶部174に格納されたプログラム(ソフトウェア)を実行することで実現される。また、これらの機能部のうち一方または双方は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶装置にインストールされてもよい。
 制御部172は、取得部173を用いて利用者Uから入力された情報、特定部175による特定結果、認証部176による認証結果などに基づいて、部屋リクエストを作成し、通信装置120を用いて、管理サーバ300に送信する。例えば、制御部172は、利用者の名前や属性、部屋の種類等の利用条件を部屋リクエストに含める。
 また制御部172は、部屋設備200や管理サーバ300から受信した情報に基づいて、再現データを生成する。なお制御部172は、部屋設備200や管理サーバ300から再現データを取得してもよい。制御部172は、再現データを出力部171に出力する。
 また制御部172は、外部機器に対する操作を受け付ける操作インタフェースを、車内に提供する。例えば、制御部172は、取得部173に含まれる各部を識別する識別情報(以下、操作インタフェースIDと記す)と、外部機器に対する操作を識別する識別情報(以下、操作IDと記す)とを対応付けた情報を生成し、インタフェース情報174Aの一部として記憶部174に格納する。なお、インタフェース情報174Aは、操作インタフェースIDと操作IDとの組み合わせを識別する情報(以下、インタフェースIDと記す)を含んでいてもよい。インタフェース情報174Aには、例えば、タッチパネルに表示されるボタンAがテレビの電源をオンする操作インタフェースであることが登録される。このインタフェース情報174Aは、後述するインタフェース情報323の全部あるいは一部と同じ情報であってよい。
 また制御部172は、外部機器が有する全ての機能動作のうち、車内から遠隔操作が可能な機能動作についての操作インタフェースを、車内に提供する。制御部172は、例えば、車両からの遠隔操作が可能であるか否かに応じて操作インタフェースが受け付ける操作内容を決定する。外部機器が有する全ての機能動作のうち車両からの遠隔操作が可能である機能動作が限定されている場合、制御部172は、車両からの遠隔操作が可能である機能動作の操作インタフェースを、車内に提供する。具体的には、制御部172は、車両からの遠隔操作が可能である機能動作の操作IDにインタフェースIDを対応付けてインタフェース情報174Aに登録するとともに、車両からの遠隔操作が可能でない機能動作の操作IDはインタフェース情報174Aに登録しない。また、制御部172は、車両からの遠隔操作が可能でない機能動作の操作IDについては、無効であることのフラグを立ててもよい。
 なお、車両からの遠隔操作が制限される場合の一例について説明する。例えば、外部機器がテレビである場合、テレビの電源をオンするなどのテレビ自体の操作は車両からの遠隔操作が可能であるが、テレビと接続されている録画機器については車両からの遠隔操作が制限されてよい。なお、録画機器に対する操作は、録画機器の操作として、制御部172により操作インタフェースが提供されてよい。
 また制御部172は、例えば、乗員が認証部176により認証された個人であるか否かに応じて操作インタフェースが受け付ける操作内容を決定してもよい。外部機器が有する全ての機能動作のうち乗員による操作が許可されている機能動作が限定されている場合、制御部172は、乗員による操作が許可されている機能動作の操作インタフェースを、車内に提供する。具体的には、制御部172は、乗員による操作が許可されている機能動作の操作IDにインタフェースIDを対応付けてインタフェース情報174Aに登録するとともに、乗員による操作が許可されていない機能動作の操作IDはインタフェース情報174Aに登録しない。また、制御部172は、乗員による操作が許可されていない機能動作の操作IDについては、無効であることのフラグを立ててもよい。
 また制御部172は、通信装置120を用いて部屋設備200や管理サーバ300から受信した情報に基づいて、操作インタフェースが受け付ける操作内容を、外部機器の制御状態と同期させる。例えば、制御部172は、部屋設備200や管理サーバ300から受信した最新の情報に基づいて、操作インタフェースが受け付ける操作内容を決定する。
 また制御部172は、時計機能部を備え、外部機器に含まれる時計機能部により計時された時刻と同期させてもよい。例えば、17時00分に外部機器に含まれる炊飯器の炊飯制御の開始が予め設定されていたとする。この場合、制御部172は、自身の時計機能部により計時された時刻が17時00分になった場合に、通信装置120を用いて部屋装置200に対して炊飯器による炊飯制御の開始を指示するコマンドを送信するとともに、操作インタフェースに含まれる炊飯器の炊飯開始ボタンがオンされていることを示すことを表示させる。
 また制御部172は、部屋設備200に同じ機能の複数の外部機器が含まれる場合、この複数の外部機器に対する同じ操作内容を受け付ける操作インタフェースを、共通化して車内に再現してもよい。こうすることにより、乗員が照明のオフを指示する操作インタフェースを車内において操作した場合、リビングの照明と寝室の照明を同時にオフすることができる。
 また制御部172は、車内の乗員の状況に応じて操作インタフェースを操作可能な乗員を決定することにより、全ての乗員のうち操作インタフェースを操作可能な乗員を制限してもよい。車内の乗員の状況には、車内における乗員の乗車位置の分布や、乗員の視線の方向などが含まれる。車内の乗員の状況を示す情報は、例えば、車内に設けられたカメラなどにより取得された画像データを解析することにより、制御部172により取得される。例えば、制御部172は、乗員の乗車位置に基づいて操作インタフェースと乗員との距離を取得し、操作インタフェースとの距離が閾値以下である乗員や、他の乗員に比べて操作インタフェースまでの距離が短い乗員を、操作インタフェースを操作可能な乗員に決定してもよい。また、制御部172は、乗員の視線の方向に基づいて操作インタフェースを用いて操作可能な外部機器の再現画像を見ているか否かを判定し、外部機器の再現画像を見ていると判定した乗員を、操作インタフェースを操作可能な乗員に決定してもよい。
 また制御部172は、利用者Uの操作によらずに部屋リクエストを作成し、管理サーバ300に送信してもよい。例えば、制御部172は、複数の部屋(例えば、リビングと、寝室と、キッチン)の部屋環境の再現を指示する部屋リクエストを作成する。そして、制御部172は、管理サーバ300から受信した情報に基づいて複数の部屋の部屋環境を連続的に再現する。例えば、制御部172は、一定時間ごとに部屋環境が自動で変更して見えるように、再現する部屋環境を変更する。
 この場合、制御部172は、車内に再現されている部屋に含まれる外部機器に対応する操作インタフェースを車内に提供し、車内に再現されていない部屋に含まれる外部機器に対応する操作インタフェースを車内に提供しないようにする。また、制御部172は、乗員から受け付けた操作指示に基づいて、車内に再現されている部屋に含まれる外部機器を制御するコマンドを、通信装置120を用いて部屋装置200に送信してもよい。この場合、制御部172は、乗員から受け付けた操作指示が車内に再現されていない部屋に含まれる外部機器に対して適用可能な場合であっても、この外部機器に対するコマンドは送信しない。なお、乗員からの操作指示は、HMI132により実現されている操作インタフェースや、プロジェクタにより車内に表示されている操作インタフェースに限られず、例えば、制御部172が音声により取得されてもよい。例えば、乗員が「もう少しテレビの音量を上げて」と言った場合、制御部172は、取得部173により取得された音声情報に基づいて乗員からの操作指示を受け付けてもよい。つまり、制御部172は、車内に再現されている部屋に含まれる外部機器に対する操作を、車内に再現されていない部屋に含まれる外部機器によりも優先的に受け付ける。このように、一の操作インタフェースに対して操作可能な複数の外部機器が対応づけられている場合、制御部172は、所定の優先順位に基づいて、操作インタフェースに基づいて操作する外部機器を決定してもよい。
 特定部175は、取得部173により取得された情報に基づいて、車両100の車内にいる個人を特定する。特定部175は、例えば、記憶部174を参照して個人を特定する。記憶部174には、利用者の特徴を示す情報が予め登録されている。例えば、記憶部174には、利用者の顔の特徴を示す情報、利用者の声の特徴を示す情報、利用者の指紋の特徴を示す情報等が登録されており、特定部175は、記憶部174を参照して、顔認証、声認証、指紋認証等により個人を特定することができる。なお、特定部175は、パスワード入力、QRコード(登録商標)認証、或いはFelicaなどのICカードを用いて通信によって認証を行い、認証結果に基づいて個人を特定してもよい。
 認証部176は、下記の管理サーバ300との対応関係を示す情報を参照し、特定部175により特定された個人(あるいは、認証部176が搭載されている車両)が管理サーバ300に対するアクセス権を有するか否かを判定する。管理サーバ300に対するアクセス権を有することが認証部176により判定された場合、制御部172により部屋リクエストが作成される。
 認証部176は、下記の外部装置との対応関係を示す情報を参照し、特定部175により特定された個人が外部機器を制御するアクセス権を有するか否かを判定し、アクセス権が存在する場合に、アクセス権を含む信号を制御部172に生成させる。つまり、認証部176は、「外部装置との対応関係を示す情報(後述する)」に登録されている外部機器のうち、特定部175により特定された個人が使用可能な外部機器を特定する。「外部装置との対応関係を示す情報」は、例えば、外部機器が存在する空間のそれぞれを識別する情報(例えば部屋ID)、個人のそれぞれを識別する情報と、部屋IDが示す空間に存在する外部機器のそれぞれを識別する情報(例えば、外部機器ID)と、各外部機器に対するアクセス権の有無とを対応付けた情報であって、例えば車両100に搭載される記憶装置に格納されている。
 また認証部176は、管理サーバ300を介して外部機器から受信した情報に基づいて、指定された空間に存在する外部機器のうち、遠隔操作可能な外部機器を特定し、特定した外部機器について特定部175により特定された個人が使用可能か否かを判定してもよい。
 また認証部176は、上述の外部装置との対応関係を示す情報を参照し、取得部173を介して乗員により指定された空間(部屋)に存在する複数の外部機器のうち、特定部175により特定された個人が使用可能な外部機器(以下、使用可能機器と記す)や、特定部175により特定された個人が使用可能でない外部機器(以下、使用不可能機器と記す)を特定してもよい。
 なお「外部装置との対応関係を示す情報」は、管理サーバ300の記憶部に格納されて、管理サーバ300に含まれる構成部によって、上述したような認証部176による処理が実行されてもよい。
 また制御部172は、操作インタフェース(取得部173により実現される)を介して取得した操作情報を、通信装置120を用いて、管理サーバ300に選択的に送信する。例えば、制御部172は、取得した操作情報が示す操作内容が、認証部176によりアクセス権が存在すると判定された外部機器(使用可能機器)に対する操作内容である場合、操作情報を管理サーバ300に送信する。一方、取得した操作情報が示す操作内容が、認証部176によりアクセス権が存在しないと判定された外部機器(使用不可能機器)に対する操作内容である場合、制御部172は、操作情報を管理サーバ300に送信しない。
 また制御部172は、指定された空間に存在する外部機器の種類(第1要件)と、外部機器の使用が許可されているか否かを示すアクセス権(第2要件)と、外部機器の状態(第3要件)とのうち少なくとも一つに基づいて、外部機器と接続される操作インタフェースを決定する。外部機器の状態を示す情報は、例えば後で説明する状態情報である。
 例えば、制御部172は、第1要件に基づいて、指定された空間に存在する全ての外部機器に対応する操作ボタンを取得部173に含まれるタッチパネルに表示してもよい。また制御部172は、さらに第2要件を考慮して、タッチパネルに表示した操作ボタンのうち、アクセス権がない外部機器の操作ボタンを無効にしてもよく、タッチパネルに表示しないようにしてもよい。
 また、制御部172は、さらに第3要件を考慮して、部屋設備200として新たな外部機器が追加された場合、新たに追加された機器と通信し必要な情報を取得することにより部屋設備200の外部機器に追加するとともに、新たに追加された外部機器に対応する操作ボタンをタッチパネルに追加する。なお、同様にして、部屋設備200の外部機器がその空間から撤去された場合、制御部172は、撤去された外部機器を部屋設備200の外部機器から除外するとともに、撤去された外部機器に対応する操作ボタンをタッチパネルから削除してもよい。また、制御部172は、第3要素を考慮して、外部機器の制御状態が変化した場合は、外部機器の制御状況に応じた操作ボタンをタッチパネルに表示させてもよい。例えば、外部機器が録画装置であって、制御状態が録画中である場合、制御部172は、録画中であることを示し録画操作を無効とする操作ボタンを表示して、この操作ボタンが操作されたとしても録画指示を受け付けず、同じ番組を重複して録画できないようにしてもよい。
 また、制御部172は、車両100の走行状態に基づいて、操作インタフェースが受け付ける操作内容を変更してもよい。例えば、制御部172は、車両100の走行状態に応じて、操作インタフェースが受け付ける操作内容の一部を制限したり、拡張したりする。具体的には、速度が一定以上である場合は、一部の操作内容を制限したり、峠道の時には細かい操作インタフェースで乗員が乗り物酔いを起こすことを防止するために文字の大きさやボタンの大きくなるように操作内容を変更する。
 また、制御部172は、指定された空間に外部機器230が追加された場合、追加された外部機器230の機能に応じた操作インタフェースを追加する。例えば、制御部172は、外部機器230として掃除機が追加された場合、出力部171に含まれるタッチパネルに、掃除機を操作するための操作ボタンを追加する。
 [部屋設備]
 図4は、部屋設備200の機能構成図である。部屋設備200は、例えば、通信装置210と、一以上の検出部220と、一以上の外部機器230と、ゲートウェイ装置240とを備える。
 通信装置210は、例えば、ネットワークNWに接続したり、車両100と直接的に通信したりするための通信インタフェースである。通信装置210は、例えば、NIC(Network Interface Card)を含んでもよいし、Wi-Fi、DSRC(Dedicated Short Range Communications)、Bluetooth(登録商標)、その他の通信規格に基づいて無線通信を行ってもよい。通信装置210として、用途に応じた複数のものが用意されてもよい。
 検出部220は、利用者Uが使用可能な部屋、例えば、利用者Uの自宅のリビング、キッチン、子供部屋や、利用者Uの職場の室内等を撮像する位置に設けられている。検出部220としては、例えば、360°カメラが利用可能である。検出部220は、撮像した画像のデータ(以下、画像データ)をゲートウェイ装置240に出力する。
 外部機器230は、利用者Uが使用可能な部屋に設置される外部機器であって、例えば、テレビ、録画装置、冷蔵庫、炊飯器、電子レンジ、空調装置、パーソナルコンピューター、プリンター、ゲーム機器、トレッドミル、電動サウナ等が含まれる。以下、外部機器230は、電気機器だけでなく、電子機器も含むものとする。外部機器230は、ゲートウェイ装置240と接続され、ゲートウェイ装置240により制御されてもよい。また外部機器230は、動作状態、制御状態などを示す状態情報を生成し、ゲートウェイ装置240に出力してもよい。状態情報には、さらに、外部機器230の型番や色、形などを示す情報などが含まれていてもよい。
 ゲートウェイ装置240は、部屋内の通信装置210や検出部220、外部機器230と接続され、これらをIot(Internet of things)機器として動作させることができる。ゲートウェイ装置240は、例えば、CPUなどのプロセッサと、制御信号生成部240A(詳細は後述)と、認証部240Bとを含む。
 ゲートウェイ装置240は、管理サーバ300から受信した情報に基づいて、検出部220や外部機器230を制御する。例えば、リビングの映像データの送信を指示する情報を受信した場合、ゲートウェイ装置240は、リビングに設置されている検出部220を制御して映像データを取得し、通信装置210を用いて管理サーバ300に送信する。また、テレビの録画を指示する情報を受信した場合、ゲートウェイ装置240は、テレビに接続されている録画装置である外部機器230を制御して、指定の番組の録画予約をする。またゲートウェイ装置240は、外部機器230から状態情報の一部が入力された場合、通信装置210を用いて車両100に送信してもよく、管理サーバ300を介して車両100に送信してもよい。
 認証部240Bは、上述した認証部176と同様の処理を実行する。例えば、通信装置210を用いて管理サーバ300や車両100から受信した情報に基づいて、外部機器との対応関係を示す情報を参照し、乗員(例えば、車両100において特定された個人)が指定した部屋を再現するためのアクセス権を有するか否かを判定する。アクセス権が存在する場合、認証部240Bは、指定された部屋に存在する外部機器の状態情報を取得するよう、状態情報取得部240Cに指示する。
 認証部240Bは、受信した情報に基づいて、外部機器との対応関係を示す情報を参照し、乗員が指定した部屋に存在する外部機器ごとにアクセス権が存在するか否かを判定する。通信装置210を用いて管理サーバ300や車両100から受信した情報に、アクセス権が存在する外部機器に対する操作指示が含まれる場合、認証部240Bは、認証に成功したことを示す情報を制御信号生成部240Aに出力する。制御信号生成部240Aは、認証部240Bによる認証が成功した外部機器に対して、受信した情報に含まれる操作指示に応じた制御信号を生成し、通信装置210を用いて管理サーバ300や車両100に送信する。
 状態情報取得部240Cは、検出部220により検出された検出結果や、外部機器230において設定されている操作内容を示す情報を、検出部220や外部機器230から取得する。状態情報取得部240Cは、検出部220や外部機器230から入力する情報に基づいて、外部機器の状態情報を取得し、通信装置210を用いて管理サーバ300や車両100に送信する。状態情報取得部240Cは、取得した外部機器の状態情報に基づいて再現データを生成し、通信装置210を用いて管理サーバ300や車両100に送信してもよい。
 [管理サーバ]
 図5は、管理サーバ300の機能構成図である。管理サーバ300は、例えば、車両100と部屋設備200との間の通信を管理する。なお、以下に説明する管理サーバ300が備える機能の一部は、車両100により実現されてもよい。管理サーバ300は、例えば、通信装置310と、記憶部320と、サーバ制御部330とを備える。通信装置310は、例えば、ネットワークNWに接続するためのNICである。通信装置310は、ネットワークNWを介して車両100や部屋設備200と通信する。記憶部320は、HDDやフラッシュメモリ、RAM、ROMなどにより実現される。
 サーバ制御部330は、例えば、再現データ取得部330Aと、I/F管理部330Bと、認証部330Cとを備える。これらの機能部は、例えば、CPUなどのプロセッサが記憶部320に格納されたプログラム(ソフトウェア)を実行することで実現される。また、これらの機能部のうち一部または全部は、LSIやASIC、FPGAなどのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 再現データ取得部330Aは、通信装置310およびネットワークNWを介して、車両100から送信された部屋リクエストを受信し、部屋リクエストに含まれる利用条件に応じた再現データを取得して、取得した再現データを車両100に送信する。再現データ取得部330Aは、記憶部320に保存されている再現データDB321から再現データを取得してもよく、部屋設備200からリアルタイムに取得された撮像映像に基づく再現データを取得してもよい。
 再生データDB321には、部屋を再現するための様々な再現データが含まれる。例えば、部屋を再現するためのイラスト画像や写真等を加工した画像などが含まれる。また再現データは、上述した通り、プロジェクタやディスプレイ等の出力部171を用いて車内に所定の像を出力するための情報である。所定の像は、車内に投影される像であってもよく、車内に設置されたディスプレイにおいて表示される像であってもよい。つまり、再現データは、部屋環境に応じた様々なアイテムの像を出力部171を用いて車内に出力するための情報であって、外部機器230の像を出力部171を用いて車内に出力するための情報を含む。再現データDB321は、例えば、部屋の種類を示す情報に対応付けて、予め用意された再現データを保存するデータベースである。
 また、再現データ取得部330Aは、記憶部320に保存されている再現データDB321の一部と、部屋設備200からリアルタイムに取得された撮像映像とを合成して、再現データを生成してもよい。例えば、再現データ取得部330Aは、外部機器の像を出力するための情報を再現データDB321から読み出し、読み出した情報を撮像映像に合成する。
 また、再現データDB321には、外部機器の状態に応じた像を出力するための情報が含まれていてもよい。例えば、外部機器230から状態情報を受信した場合、再現データ取得部330Aは、外部機器230の状態を表す情報を再現データDB321から読み出し、読み出した情報を撮像映像に合成してもよい。外部機器230の状態を表す情報には、例えば、外部機器230の状態を文字で表す画像や、その状態で動作している外部機器230の像を表現した画像等が含まれる。再現データ取得部330Aは、外部機器230の状態を表す情報の一部または全部を、外部機器230の像の上に重畳させて表示する再現データを生成する。
 なお、これに限られず、再現データ取得部330Aは、外部機器230の状態を表す情報に基づいて、操作情報に基づいて車両100側から遠隔操作された後の外部機器230の状態を表す情報を、外部機器230の像の付近に表示させる再現データを生成してもよい。この再生データが車両100に送信されることにより、出力部171は、操作情報に基づいて遠隔操作された後の外部機器230の状態を示す情報を、車内に出力することができる。
 このようにして、「外部機器230の状態情報に基づいて生成された再生データ」に基づく像を車内に出力することにより、環境提供部170は、車両100の車内において出力されている外部機器230の像の状況と、指定された空間における外部機器230の状況とを、同期させることができる。
 また、再現データ取得部330Aは、外部機器230の機能や状態を表す情報を操作インタフェースの一部(タッチパネル等)に表示させるための情報を生成し、再現データに付与(あるいはその情報だけで)などして、車両100に送信してもよい。例えば、制御部172は、受信した情報に基づいて、外部機器230の機能や制御状態に応じた操作ボタンをタッチパネルに表示させる。具体的には、外部機器230が録画装置である場合、制御部172は、録画装置において受け付け可能な操作内容に対応する操作ボタンをタッチパネルに表示させる。また、録画装置の制御状態が録画中である場合、制御部172は、録画中であることを示し録画操作を無効とする操作ボタンを表示して、この操作ボタンが操作されたとしても録画指示を受け付けず、同じ番組を重複して録画できないようにしてもよい。このようにして再現データ取得部330Aから受信した情報に基づく像を車内に出力することにより、環境提供部170は、車両100の車内における操作インタフェースが受け付ける操作内容と、電子機器230の機能及び状況のうち少なくとも一方を、同期させることができる。
 また、再現データ取得部330Aは、外部機器230の機能や状態を示す情報を音声で車内に出力するための情報を生成し、車両100に送信してもよい。
 また、車内に再現されている空間に新しい外部機器が追加された場合、再現データ取得部330Aは、追加された外部機器に対応する情報を再現データDB321から読み出し、読み出した情報を撮像映像に合成してもよい。
 また、再現データ取得部330Aは、車両100から認証部176による認証結果を受信し(あるいは、認証部330Cによる認証結果を取得し)、認証結果に応じた再生データを生成してもよい。例えば、車両100から、特定部175により特定された個人が使用可能な外部機器(以下、使用可能機器と記す)を示す情報や、特定部175により特定された個人が使用可能(使用不可能機器と記す)でない外部機器を示す情報を受信した場合、再現データ取得部330Aは、使用可能機器を出現させ、使用不可能機器を出現させないような再生データを生成する。例えば、再現データ取得部330Aは、使用可能機器に対応する再現データを撮像映像に合成し、使用不可能機器に対応する箇所には所定の使用不可能画像を撮像映像に合成してもよい。使用不可能画像には、例えば、一色で塗りつぶされた画像や、使用ができないことを示す文字が表示されている画像などが含まれる。また、使用不可能画像を合成する処理は、上述に限られず、例えば撮像映像のうち使用不可能機器に対応する部分をモザイク処理するなどが含まれる。
 なお、上述した再現データ取得部330Aの一部または全部は、環境提供部170により実現されてもよい。
 I/F管理部330Bは、通信装置310およびネットワークNWを介して、車両100と外部機器230との通信を確立する。例えば、サーバ制御部330は、車両100から受信した操作情報を外部機器230に転送する。また、サーバ制御部330は、外部機器230から受信した状態情報を車両100に転送する。
 またI/F管理部330Bは、インタフェース情報323を生成し、記憶部320に格納する。図15は、インタフェース情報323の内容の一例を示す図である。図15に示す通り、インタフェース情報323は、インタフェースIDと、操作インタフェースIDと、タイプと、外部機器IDと、外部機器インタフェースIDとを対応付けたテーブルである。タイプは、操作インタフェースのタイプを示す情報である。外部機器IDとは、外部機器を識別する識別情報である。外部機器インタフェースIDとは、外部機器に含まれる操作インタフェースを識別する識別情報である。なお、図15に示す“例”は、外部機器が有する機能動作の具体例である。I/F管理部330Bは、事前に用意された操作インタフェースに関する各種情報に基づいて、インタフェース情報323を生成する。事前に用意された操作インタフェースに関する各種情報には、例えば、操作インタフェースIDが示す操作インタフェースが受け付け可能な操作内容を示す情報や、外部機器インタフェースIDが示す操作インタフェースが受け付け可能な操作内容を示す情報などが含まれる。なお、タイプ「カスタム」は、ユーザにより設定された操作インタフェースであることを示す。例えば、ユーザが操作インタフェースとして追加した外部機器の機能動作がある場合や、ユーザによりよく利用される外部機器の機能動作がある場合には、所定の操作インタフェースやユーザにより選択された操作インタフェースに対して、ユーザにより設定された操作インタフェースが対応づけられる。
 図15に示す通り、例えば、同じ外部機器230に含まれる異なる操作インタフェースごとに、車両100側の操作インタフェースが対応付けられている。こうすることにより、車両100側の操作インタフェースと外部機器230側の操作インタフェースとの通信経路を確立することができる。よって、擬似的な部屋環境を車内に再現することができる。
 またI/F管理部330Bは、外部サーバ(例えば、3rdParty)との通信を管理してもよい。例えば、I/F管理部330Bは、車両100から受信した情報(部屋リクエストや外部機器230に対する操作指示などを含む)に基づいて、外部サーバとの通信が必要か否かを判定する。外部サーバとの通信が必要である場合、I/F管理部330Bは、外部サーバと通信し、外部サーバから必要な情報を取得した後、取得した情報に基づいてインタフェース情報を保管してもよい。
 認証部330Cは、上述した認証部176と同様の処理を実行する。例えば、通信装置210を用いて車両100から受信した情報に基づいて、外部機器との対応関係を示す情報を参照し、車両100において特定された個人が外部機器230に制御するアクセス権を有するか否かを判定する。アクセス権が存在する場合、認証に成功したことを示す情報を再現データ取得部330AやI/F管理部330Bに出力する。再現データ取得部330Aは、認証部330Cによる認証が成功した場合、再現データを取得する。I/F管理部330Bは、認証部330Cによる認証が成功した場合、車両100と外部機器230との情報の転送を実行する。
 図6は、部屋情報322の一例を示す図である。部屋情報322は、使用許可が必要な部屋に関する情報であって、部屋IDに、部屋の種類、使用可能情報等を対応付けた情報である。部屋情報322は、例えば、家屋ごとに用意されるテーブルに格納される。部屋IDは、全ての使用可能な部屋のうち、各部屋を識別するための固有の情報である。使用可能情報は、各部屋に対して使用が許可されている利用者Uを示す情報であって、例えば利用者IDを含む。利用者IDは、各利用者Uを識別するための固有の情報である。
 部屋選択部330Dは、車両100から受信した部屋リクエストに基づいて、利用者により指定された部屋の部屋IDが部屋情報322に登録されているか否かを判定する。部屋情報322に登録されていない場合、部屋選択部330D、再現データDB321から部屋リクエストに応じた再現データを取得し、部屋リクエストを送信した車両100に送信する。一方、部屋情報322に登録されている場合、部屋選択部330Dは、使用が許可されている利用者として登録されているか否かを判定する。使用が許可されている利用者として登録されている場合、部屋選択部330Dは、指定された部屋の部屋設備200に対して、指定された部屋の映像データの送信を要求する。
 次に、図7を参照して、車両システム1による処理の一例について説明する。図7は、車両システム1による処理の一例を示すシーケンス図である。ここでは、利用者U1から、予め再現データが用意されている部屋の再現が要求された例について説明する。
 車両100において、制御部172は、例えば取得部173から入力される情報に基づいて、利用者U1についての利用者に関する情報を取得する(ステップS101)。利用者に関する情報には、車両100の車内にいる利用者の名前や属性(続柄、役職…)等が含まれる。なお、特定部175により利用者U1の個人が特定された場合、制御部172は、特定部175による特定結果から利用者に関する情報を取得してもよい。
 次いで、制御部172は、取得部173を用いて利用者U1から、再現する部屋の種類を受け付ける(ステップS102)。例えば、制御部172は、部屋の種類として、再現データが用意されている部屋の一つを受け付ける。そして、制御部172は、取得した利用者U1に関する情報、および部屋の種類等を含む部屋リクエストを作成し、通信装置120を用いて管理サーバ300に送信する(ステップS103)。
 管理サーバ300において、部屋選択部330Dは、車両100から受信した部屋リクエストに基づいて、記憶部320の部屋情報322を参照し、指定された部屋の部屋IDが部屋情報322に登録されているか否かを判定する(ステップS104)。この例では、指定された部屋が再現データの用意されている部屋の一つであるため、部屋IDが部屋情報322に登録されていない。よって、再現データ取得部330Aは、車両100から受信した部屋リクエストに基づいて、指定された部屋の再現データを記憶部320の再現データDB321から読み出し(ステップS105)、通信装置310を用いて車両100に送信する(ステップS106)。車両100において、制御部172は、通信装置120を用いて管理サーバ300から受信した再現データを、出力部171に出力する。出力部171は、入力した再現データに基づいて、指定された部屋の部屋環境を車両100の車内に再現する(ステップS107)。
 次に、図8を参照して、他の処理例について説明する。図8は、車両システム1による処理の一例を示すシーケンス図である。ここでは、利用者U2から、指定された部屋の現在の様子の再現が要求された例について説明する。
 車両100において、制御部172は、利用者U2についての利用者に関する情報を取得する(ステップS201)。制御部172は、例えば、特定部175による特定結果から利用者に関する情報を取得する。
 次いで、制御部172は、取得部173を用いて利用者U2から、再現する部屋の種類を受け付ける(ステップS202)。例えば、制御部172は、部屋の種類として、リアルタイムの映像を再現する部屋の一つを受け付ける。そして、認証部176は、ステップS201において取得した利用者に関する情報等に基づいて、管理サーバ300に対するアクセス権を有するか否かを判定する(ステップS203)。管理サーバ300に対するアクセス権を有する場合、制御部172は、ステップS201において取得した利用者に関する情報、およびステップS202において受け付けた部屋の種類等を含む部屋リクエストを作成し、通信装置120を用いて管理サーバ300に送信する(ステップS204)。
 管理サーバ300において、部屋選択部330Dは、車両100から受信した部屋リクエストに基づいて、記憶部320の部屋情報322を参照し、指定された部屋の部屋IDが部屋情報322に登録されているか否かを判定する(ステップS205)。この例では、指定された部屋が部屋設備200の設置された部屋であるため、部屋IDが部屋情報322に登録されている。よって、部屋選択部330Dは、部屋情報322において、部屋リクエストに含まれるユーザIDが、指定された部屋の部屋IDに対応する使用可能情報に含まれるか否かを判定する(ステップS206)。部屋リクエストに含まれるユーザIDが、指定された部屋の部屋IDに対応する使用可能情報に含まれる場合、再現データ取得部330Aは、指定された部屋に設置された部屋設備200に対して、指定された部屋の映像データを送信するよう要求する(ステップS207)。
 部屋設備200において、認証部240Bは、乗員(例えば、車両100において特定された個人)が指定した部屋を再現するためのアクセス権を有するか否かを判定する(ステップS208)。アクセス権が存在する場合、状態情報取得部240Cは、管理サーバ300から受信した要求に基づいて、指定された部屋に設置された検出部220から映像データを取得するとともに、外部機器230から制御状態を示す情報等を取得し(ステップS209)、通信装置210を用いて、管理サーバ300に送信する(ステップS210)。管理サーバ300において、I/F管理部330Bは、受信した制御状態を示す情報に基づいて、インタフェース情報323を生成し、記憶部320に格納する(ステップS211)。サーバ制御部330は、通信装置310を用いて、受信した映像データや制御状態を示す情報、生成したインタフェース情報等を車両100に送信する(ステップS212)。ここでサーバ制御部330は、上述したように外部機器230のイラスト画像等を映像データに合成した情報を車両100に送信してもよく、外部機器230が映り込んでいる映像データを車両100に送信してもよい。
 車両100において、環境提供部170は、受信した映像データ等に基づいて、指定された部屋の部屋環境を車内100に再現する(ステップS213)。つまり、環境提供部170は、受信した映像データ等に基づいて、出力部171を用いて、外部機器230の像と、外部機器230が存在する空間の像を、車内に出力させる。また、環境提供部170は、受信した制御状態を示す情報やインタフェース情報に基づいて、HMI132に所定の操作インタフェースを表示させたり、出力部171を用いて車内に所定の操作インタフェースを表示させる。
 次いで、環境提供部170は、車内に表示した外部機器の再現画像等に対する操作を利用者U2から受け付けた場合(ステップS214)、受け付けた操作内容を示す操作情報を、通信装置120を用いて管理サーバ300に送信する(ステップS215)。ここで、環境提供部170は、受け付けた操作内容が、認証部176によりアクセス権が存在すると判定された外部機器(使用可能機器)に対する操作内容であるか否かを判定し、使用可能機器に対する操作内容であると判定した場合に限り、操作情報を管理サーバ300に送信するようにしてもよい。なお、認証部176によりアクセス権が存在しないと判定された外部機器(使用不可能機器)の像が車内に出力されていない場合、操作インタフェースである取得部173は、この使用不可能機器に対する操作内容を受け付けることができない。このため、環境提供部170は、使用不可能機器に対する操作情報は管理サーバ300に送信しない。
 操作内容を示す操作情報には、指定された部屋の部屋ID、外部機器を示す情報、および操作内容等が含まれる。管理サーバ300は、部屋情報322において、受信した情報に含まれる部屋IDと対応付けられた部屋設備200に対して、受信した操作内容を示す情報を転送する(ステップS216)。部屋設備200において、認証部240Bは、受信した情報に基づいて、外部機器との対応関係を示す情報を参照し、乗員が指定した部屋に存在する外部機器ごとにアクセス権が存在するか否かを判定する(ステップS217)。受信した情報に、アクセス権が存在する外部機器に対する操作指示が含まれる場合、認証部240Bは、認証に成功したことを示す情報を制御信号生成部240Aに出力する。制御信号生成部240Aは、認証部240Bによる認証が成功した外部機器に対して、受信した情報に含まれる操作指示に応じた制御信号を生成し、対応する外部機器230に出力する(ステップS218)。こうすることにより、部屋設備200において、ゲートウェイ装置240は、受信した操作内容を示す情報に基づいて、外部機器230を制御することができる。このように、環境提供部170は、操作インタフェースを外部機器230と選択的に接続することで、外部機器230を遠隔操作することができる。
 次いで、制御信号生成部240Aは、ステップS218において生成した制御信号に基づいて、関連装置による並行処理が必要か否かを判定する。関連装置による並行処理とは、外部機器230を制御するために必要な関連装置における処理、外部機器230の制御と協調して動作される関連装置における処理、外部機器230を制御する上位(マスタ)の関連装置における処理などが含まれる。例えば、ある部屋の関連装置が、別の部屋の外部機器230に依存するとき、制御信号生成部240Aは、外部機器230を制御する際に、マスタ側の関連装置も並行して制御する。関連装置による並行処理が必要である場合、制御信号生成部240Aは、関連装置に対する制御信号を生成し、関連機器を制御する(ステップS219)。
 なお、関連機器が部屋装置200に含まれない場合、ゲートウェイ装置240は、関連機器に対する制御信号を、通信装置210を用いて管理サーバ300に送信する(ステップS220)。そして、管理サーバ300は、通信装置310を用いて、関連機器に対する制御信号を関連機器に送信する(ステップS221)。管理サーバ300は、関連機器を制御できた場合、その旨を部屋設備200に送信してもよい(ステップS222)。部屋設備200において、制御信号生成部240Aは、管理サーバ300から受信した情報に基づいて、外部機器230をさらに制御してもよい。
 管理サーバ300のサーバ制御部330は、外部機器230の状態を示す状態情報を部屋設備200から受信してもよい。この場合、サーバ制御部330は、受信した状態情報を、対応する車両100に転送する。また上述した通り、サーバ制御部330は、受信した状態情報に基づいて再現データを生成し、対応する車両100に送信してもよい。
 ステップS211においてインタフェース情報323が生成された場合、管理サーバ300は、インタフェース情報323において互いの操作インタフェースが対応づけられている外部機器230と環境提供部170とを通信を確立する。外部機器230と環境提供部170との通信が確率されることにより、車両100の車内において再現されている外部機器の状態が、指定された部屋における外部機器230の状態と同期する。例えば、通信が確率されることにより、管理サーバ300は、部屋設備200から受信する映像データを車両100側に連続して送信することができる。これにより、ほとんどリアルタイムに近い時間差で、指定された部屋の状況が車内に再現される。
 次に、図9~12を参照して、車両システム1により実現される部屋の一例について説明する。図9~12は、車両100の内部の一部を表した図である。図9~12は、車両100を前方あるいは後方からみた様子を、遠近法を用いて表したものである。車両100の内側には、床面501と、天井502と、側面503とが含まれる。なお、車両100内に設置可能なテーブルや椅子の図示は省略する。
 図9は、車両100内に再現される子供向けの部屋の一例を示す図である。図9に示す通り、乗員に子供が含まれる場合、環境提供部170は、通信装置120を用いて、子供向けの部屋を要求する部屋リクエストを管理サーバ300に送信し、子供向けの部屋の再現データを管理サーバ300から受信する。環境提供部170は、受信した再現データに基づいて、車両100の床面501、天井502、および側面503のうち少なくとも一部に、子供が喜ぶキャラクター511やアイテム512の画像を再現する。これにより、利用者は、車内での時間を楽しむことができる。また、乗車する子供の性別や年齢、嗜好等に応じて、部屋環境の雰囲気やアイテムを変更してもよい。また、環境提供部170は、車両100の座席を移動または収納させ、子供が遊ぶ空間を確保し、再現データに含まれる色情報に基づき座席の表面(表皮上)や車室内の表面を子供部屋の雰囲気を演出するように着色表示する。
 図10は、車両100内に再現されるカフェ風の部屋の一例示す図である。乗員に仕事帰りの利用者が含まれる場合、環境提供部170は、通信装置120を用いて、図10に示すようなカフェ風の部屋を要求する部屋リクエストを管理サーバ300に送信し、カフェ風の部屋の再現データを管理サーバ300から受信する。環境提供部170は、受信した再現データに基づいて、車両100の床面501、天井502、および側面503のうち少なくとも一部に、カフェ風の室内デザイン521や室内設備522等の画像を再現する。カフェ風の室内デザイン521には、例えば、素敵な写真を入れた額や、メニューを書いた黒板、コーヒーカップのイラストや写真等が含まれる。カフェ風の室内設備522には、おしゃれな照明やエスプレッソマシン等が含まれる。これにより、利用者は、目的地までの移動時間を利用して、カフェにいるような感覚でお茶の時間を楽しむことができる。また、環境提供部170は、飲みものや時間帯、季節等に応じて、部屋環境の雰囲気やアイテムを変更してもよい。また、環境提供部170は、車両100の座席を移動または収納させ、空間を確保したり、受信した再現データに合わせた位置へと各座席を配置させたりすると共に、再現データに含まれる色情報に基づき座席の表面(表皮上)や車室内の表面を着色表示することで、カフェの座席や、雰囲気を再現する。
 図11は、車両100内に再現される仕事向けの部屋の一例を示す図である。図11に示す通り、乗員に会社に出勤する利用者が含まれる場合、環境提供部170は、通信装置120を用いて、仕事向けの部屋を要求する部屋リクエストを管理サーバ300に送信し、仕事向けの部屋の再現データを管理サーバ300から受信する。環境提供部170は、受信した再現データに基づいて、車両100の床面501、天井502、および側面503のうち少なくとも一部に、オフィスに設置される機器やオフィスのような室内デザインの画像を再現する。オフィスに設置される機器には、例えば、プリンター531、パーソナルコンピューターの画面532やキーボード533、電話534、ホワイトボード535等が含まれる。これらは、外部機器の一例である。オフィスのような室内デザインは、職種に応じた複数の設定の中から利用者が選択可能であり、デスクワーク用にシンプルなデザインを再現してもよく、クリエイティブな発想が思い浮かぶように色々な写真をスライドで表示してもよく、ニュースや受信したメール内容等をスライドで表示してもよい。これにより、利用者は、目的地までの移動時間を利用して、気分を仕事モードに切り替えるとともに、仕事の一部を開始することもできる。なお、環境提供部170は、車両100内に再現された写真やニュース、メール内容等が利用者によりタッチされた場合、タッチされた対象を拡大表示したり、利用者の所持する端末装置に関連する情報を送信してもよい。
 また、図9~図11では、環境提供部170は、車両100の座席を移動または収納させ、空間を確保したり、受信した再現データに合わせた位置へと各座席を配置させたりすると共に、再現データに含まれる色情報に基づき座席の表面(表皮上)や車室内の表面を着色表示する。例えば、図11の例では、車両100の座席が移動または収納されたり、形状が変形されたりして、オフィスの椅子が再現され、オフィスを再現する再現データに含まれる色情報に基づき座席の表面(表皮上)や車室内の表面をオフィスの雰囲気を再現するように着色表示する。このような制御が行われることにより、車両100に設けられた設備を有効に活用することができる。また、例えば、再現する部屋の内容や形状と、車室内の内容や形状との違いを、上記の制御により吸収することにより、再現したい部屋を乗員は体感することができる。
 これ以外にも、環境提供部170が、リビングや子供部屋、木の部屋、寝室等を再現することにより、利用者は、リラックスした気持ちで移動時間を満喫することができる。また、環境提供部170が、自宅や職場と同じような部屋環境を再現することで、利用者は、さらにリラックスした気持ちになりやすい。
 図12は、車両100内に再現される利用者の自宅のリビングの一例を示す図である。図12に示す通り、環境提供部170は、通信装置120を用いて、利用者の自宅のリビングを要求する部屋リクエストを管理サーバ300に送信する。管理サーバ300は、指定された利用者の部屋設備200からリビングの映像データを取得し、環境提供部170に転送する。環境提供部170は、受信した映像データに基づいて、車両100の側面503に、利用者の自宅にあるテレビ541と、録画装置542と、エアコン543と、炊飯器544と、電子レンジ545と、防犯装置546等の外部機器の画像を再現する。録画装置542には、録画ボタン542a、および選択ボタン542bの画像が含まれる。炊飯器544には、スタートボタンや操作ボタン等を含む操作パネル544aの画像が含まれる。防犯装置546には、操作パネル546aの画像が含まれる。環境提供部170は、これら再現した外部機器の操作ボタン等が操作されたことを検出した場合、検出した操作内容を示す情報を、通信装置120を用いて、管理サーバ300に送信する。管理サーバ300は、受信した情報を、指定された部屋設備200に転送する。指定された部屋設備200の外部機器230は、管理サーバ300から転送された情報に基づいて、動作する。
 以下、具体的に説明する。管理サーバ300は、環境提供部170から受信した操作内容を示す情報と認証部176の認証情報に基づき、制御対象(利用者の自宅等にある物品)を特定すると共に、当該制御対象に対する制御信号を認証情報と合わせて生成した信号を、部屋設備200に送信する。部屋設備200のゲートウェイ装置240の認証部240Bは、管理サーバ300から受信した信号に基づき、制御対象の外部機器230へのアクセス権を確認し、アクセス権を有すると判定した場合、上記の外部機器230を制御する。例えば、認証部240Bは、受信した信号に含まれる認証情報に基づいて、上記の外部機器230を制御するアクセス権の有無を判定する。そして、認証部240Bが、上記の外部機器230を制御するアクセス権が存在すると判定した場合、制御信号生成部240Aが、受信した信号を、外部機器230を制御するための信号に変換して、変換した信号を制御対象の外部機器230に送信する。そして、外部機器230が制御される。
 これにより、利用者は、録画ボタン542aを操作することにより、車両100で移動しながら自宅のリビングにある録画装置を操作することができる。また、利用者は、操作パネル544aを操作することにより、帰宅する一時間前に自宅の炊飯器の電源をオンさせることができ、操作パネル546aを操作することにより、在宅時に忘れた自宅の防犯装置の電源をオンさせることができる。
 そして、ゲートウェイ装置240は、外部機器230から入力された状態情報を、通信装置210を介して車両100に送信する。例えば、車両100が、録画装置が録画中であることを示す状態情報を受信したとする。この場合、車両100の環境提供部170は、録画中であることを表す画像(文字やイラストなどを含む)等を、車両100の車内に出力されている録画装置の像に重畳して表示させる。
 なお、録画ボタン542a、選択ボタン542b、操作パネル544a、および操作パネル546aは、車両100内に設置された端末装置547により実現されてもよい。例えば、端末装置547は、環境提供部170から受信した情報に基づいて、車両100内に再現される機器の操作ボタン等に対応するボタンを表示させ、受け付けた操作内容を環境提供部170に送信する。これにより、利用者は、手元にある端末装置547を操作すればよく、操作性がよくなる。
 なお、車両100は、自宅等の現実の部屋と同様、実際の部屋の一部として利用されてもよい。図13は、車両100と部屋600とが結合して合体部屋領域700が出現した様子を上方から見た図である。図14は、車両100と部屋600とが分離した様子を上方から見た図である。
 部屋600には、例えば、シャッター装置601、ベッド602、冷蔵庫603、浴室604などが設置される。シャッター装置601は、部屋600に設置された外部機器230の一つである。車両100は、例えば、バックドア181を備え、ソファー182、テーブル183、テレビ184などが持ち込まれる。テーブル183の上面には、取得部173のタッチパネルが搭載されていてもよく、取得部173と通信するパーソナルコンピューターやタブレット端末等が載置されていてもよい。
 車両100において、GNSS受信機134が測位する自機の位置に基づいて、予め位置情報が登録されている部屋600への接近が検知されると、環境提供部170は、通信装置120を用いて、シャッター装置601を開けることを指示する信号(以下、シャッター開信号と記す)を部屋設備200に送信する。ゲートウェイ装置240は、シャッター装置601に制御信号を送信し、シャッターを開ける。シャッターが完全に開いた場合、ゲートウェイ装置240は、シャッターが開いたことを示す情報を、通信装置210を用いて、車両100に送信する。車両100において、シャッターが開いたことを示す情報を受信した場合、自動運転制御ユニット150は、予め決められた駐車位置に車両100を移動させ、停車させる。予め決められた駐車位置に車両100が駐車された場合、図13に示す通り、車両100と部屋600により構成される合体部屋領域700が出現する。これにより、利用者は、車両100を、部屋600の一部として利用することもできる。また、利用者は、車両100で外出する際、合体部屋領域700の一部を引き継いだまま移動することができる。
 なお、これに限られず、リモコンあるいはタッチパネルとしての取得部173が利用者により操作されることによって、シャッター開信号をシャッター装置601に送信してもよい。
 また、環境提供部170が、部屋600における設定を車両100内に反映させてもよく、ゲートウェイ装置240が、車両100における設定を部屋600に反映させてもよい。例えば、環境提供部170は、部屋600に設置された空調装置の温度や運転モード等の設定と同じ内容を、車両100の空調装置に設定してもよく、部屋600に設置されたテレビで再生されているプログラムや映像コンテンツを車両100の出力部171から出力してもよく、部屋600に設置されたオーディオ機器で再生されている音楽コンテンツを出力部171から出力してもよい。また、逆に、ゲートウェイ装置240は、車両100において設定されている空調温度、再生している映像コンテンツあるいは音楽コンテンツ等に基づいて、空調装置やテレビ、オーディオ機器等を制御してもよい。これにより、合体部屋領域700において、シームレスな環境を提供することができる。
 また、環境提供部170は、車両100が部屋600に到着したときに部屋600の設定温度が車両100内と同じ温度となるように、車両100が部屋600に到着する予定時刻よりも所定時間前から、部屋600に設置された空調設備を制御してもよい。また、環境提供部170は、合体部屋領域700において、映像コンテンツや音楽コンテンツが連続するように、車両100で再生されるコンテンツと部屋600で再生されるコンテンツを同期させてもよい。
 以上説明した実施形態によれば、車両100の自動運転を実行する自動運転制御ユニット150と、車両100の車内において、車両100の走行時または停止時に、疑似的な部屋環境を提供する環境提供部170と、を備えることにより、利用者のニーズに応じた部屋環境を提供することができる。
 また、利用者は、車両100に乗車しながら、使用可能な部屋に設置されている外部機器230を遠隔操作することができるため、自宅や職場でやるべきことを車両100に乗車しながらできるため、時間を有効活用することができる。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
 例えば、環境提供部170は、プロジェクタで投影する画像の位置や、ディスプレイに表示される画像の位置を、利用者の動きや車両100の振動に応じて調整してもよい。
 例えば、環境提供部170は、車両100の振動を検出するセンサを備え、センサの検出結果に基づいて、車両100の振動の方向や大きさ等を示す情報(以下、振動情報と記す)を取得する。環境提供部170は、取得した振動情報に基づいて、プロジェクタで投影する画像の位置や、ディスプレイに表示される画像の位置を調整してもよい。例えば、環境提供部170は、車両100の振動方向と反対方向に、車両100の振動の大きさだけ、再現データによる画像の位置を移動させてもよい。これにより、再現される画像において、車両の振動を相殺し、車酔いの防止に貢献することができる。
 また、環境提供部170は、取得部173が備えるカメラやセンサからの検出結果に基づいて、利用者の動きを検出してもよい。車両100内に再現された外部機器の操作ボタンの押し間違いをする動作を閾値以上の回数、検出した場合、環境提供部170は、振動情報と利用者の動きとに基づいて、振動分を差し引いた位置に、外部機器の操作ボタンを再現してもよい。これにより、押し間違いをしている場所に操作ボタンを表示することができる。
 また、環境提供部170は、車両100内に再現される一部について、上述のような画像の位置調整をしてもよい。例えば、環境提供部170は、取得部173が備えるカメラやセンサからの検出結果に基づいて、視線認識技術を利用して利用者の視野域を検出し、検出した視野域を中心とした周辺を含む一定範囲内の表示について、上述したような画像の位置調整を行ってもよい。また、環境提供部170は、車両100に再現された外部機器230の映像において、上述の画像の位置調整を行ってもよい。
 また、再現される擬似的な部屋環境は、現実の部屋の内装に限られず、例えば、海や山が目の前に広がる屋外の景色が壁に表現されている部屋環境や、漫画や小説等の物語の世界観を部屋デザインや部屋インテリアに表現した部屋環境等であってもよい。また、再現される擬似的な部屋環境には、自宅のリビングにいる子供やペットや、塾の教室にいる塾の先生等の人間や動物が含まれていてもよい。
 また、環境提供部170が、指定された現実の部屋の一部における変化を車両100内に反映させてもよく、ゲートウェイ装置240が、車両100内に再現された部屋における変化を指定された現実の部屋に反映させてもよい。例えば、現実の部屋に置かれたホワイトボードが車両100内にも再現されている場合、現実の部屋のホワイトボードに書かれた情報を電子的手法により読み取って車両100のホワイトボードに表示させ、その逆に、車両100のホワイトボードに書かれた情報を電子的手法により読み取って現実の部屋のホワイトボードに表示させてもよい。また、環境提供部170は、現実の部屋に置かれた外部機器230と、車両100に再現された外部機器230の映像において、両外部機器のディスプレイに表示されている画像をミラー表示してもよい。
 また、環境提供部170やサーバ制御部330が、車両100の内装に応じて、指定された現実の部屋のレイアウトを変更した再現データを作成してもよく、二以上の現実の部屋の一部を合成した再現データを作成してもよい。これにより、現実の部屋の形や広さが、車両100の形や広さと異なる場合であっても、似ている雰囲気や必要な外部機器を再現することができる。
 また、環境提供部170は、車両100内での利用者の行動に応じて、部屋の種類を選択し、選択した部屋の種類に基づいて部屋リクエストを作成してもよい。例えば、車両100の出力部171が映画を再生し、利用者が映画鑑賞をする場合、環境提供部170が、出力部171により出力されるコンテンツの内容に応じて、部屋の種類に映画館を選択してもよい。また、車両100の出力部171が音楽を再生し、利用者が音楽鑑賞をする場合、環境提供部170は、出力部171により出力されるコンテンツの内容に応じて、部屋の種類にオペラ座を選択してもよい。
 また、環境提供部170は、車両100内に乗車している利用者や、利用者の組み合わせに応じて、部屋の種類を選択してもよい。例えば、環境提供部170は、過去の利用者の指定履歴に基づいて、選択頻度が最も高い部屋の種類を指定してもよく、利用者が子供と親の組み合わせである場合、子供を優先して、子供向けの部屋を指定してもよく、利用者の組み合わせが会社のメンバーである場合、会議室を指定してもよい。
 また、環境提供部170は、車両100の目的地に応じた部屋を指定してもよい。例えば、目的地が海である場合、海の景色が部屋のデザインとなっている部屋を指定してもよく、目的地がテーマパークである場合、テーマパークのキャラクターが部屋のデザインとなっている部屋を指定してもよい。
 操作インタフェースは、API(Application Programming Interface)等の形式により実現されるものであってもよい。
 1…車両システム、100…車両、110…外界監視ユニット、120…通信装置、130…ナビゲーション装置、140…推奨車線決定装置、150…自動運転制御ユニット、160…駆動力出力装置、162…ブレーキ装置、164…ステアリング装置、170…環境提供部、171…出力部、172…制御部、173…取得部、174…記憶部、175…特定部、200…部屋設備、210…通信装置、220…検出部、230…外部機器、240…ゲートウェイ装置、300…管理サーバ、310…通信装置、320…記憶部、321…再現データDB、322…部屋情報、330…サーバ制御部

Claims (11)

  1.  車両の自動運転を実行する自動運転制御部と、
     前記車両の走行時または停止時に、前記車両外の外部機器であって、前記車両の車内における操作インタフェースを用いて操作可能な外部機器の状態を示す状態情報を、前記車内に提供する環境提供部と、
     を備える車両システム。
  2.  前記環境提供部は、
     前記外部機器の制御状態を示す情報、あるいは、前記外部機器外の検出部により検出された前記外部機器の外部状態のうち少なくとも一つを、前記車内に提供する、
     請求項1記載の車両システム。
  3.  前記環境提供部は、
     前記外部機器が有する全ての機能動作のうち遠隔操作可能な機能動作についての前記操作インタフェースを、前記車内に提供する、
     請求項1記載の車両システム。
  4.  前記環境提供部は、
     前記状態情報に基づいて、前記操作インタフェースが受け付ける操作内容を、前記外部機器の制御状態と同期させる、
     請求項3記載の車両システム。
  5.  前記車両内にいる個人を特定する特定部を更に備え、
     前記環境提供部は、前記特定部により特定された個人が使用可能な前記外部機器を特定し、特定した前記外部機器と接続する
     請求項1記載の車両システム。
  6.  前記環境提供部は、プロジェクタを含み、前記外部機器の状態情報を車内に表示させる、
     請求項1記載の車両システム。
  7.  前記外部機器と通信する通信部を更に備え、
     前記環境提供部は、前記車両内にいる人が前記操作インタフェースに対して行った操作を認識し、前記認識した操作に対応する制御信号を前記外部機器側に送信するように前記通信部を制御する、
     請求項1記載の車両システム。
  8.  前記環境提供部は、前記車両の走行状態に基づいて、前記操作インタフェースが受け付ける操作内容を変更する、
     請求項1記載の車両システム。
  9.  前記環境提供部は、前記外部機器が追加された場合、前記追加された外部機器の機能に応じた前記操作インタフェースを追加する、
     請求項1記載の車両システム。
  10.  前記環境提供部は、前記外部機器の種類と、前記外部機器の使用が許可されているか否かを示すアクセス権と、前記外部機器の状態とのうち少なくとも一つに基づいて、前記外部機器と接続される前記操作インタフェースを決定する、
     請求項1記載の車両システム。
  11.  車両の自動運転を実行する自動運転制御部と、
     前記車両の走行時または停止時に、前記車両外の外部機器であって、前記車両の車内における操作インタフェースを用いて制御可能な外部機器の状態を示す状態情報を、前記車内に提供する環境提供部と、
     前記自動運転制御部と前記環境提供部との間の通信を管理する管理装置と、
     を備える車両システム。
PCT/JP2018/022929 2017-06-16 2018-06-15 車両システム WO2018230709A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880039888.6A CN110740902A (zh) 2017-06-16 2018-06-15 车辆系统
US16/622,336 US20200169705A1 (en) 2017-06-16 2018-06-15 Vehicle system
JP2019525574A JPWO2018230709A1 (ja) 2017-06-16 2018-06-15 車両システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-118689 2017-06-16
JP2017118689 2017-06-16

Publications (1)

Publication Number Publication Date
WO2018230709A1 true WO2018230709A1 (ja) 2018-12-20

Family

ID=64660802

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022929 WO2018230709A1 (ja) 2017-06-16 2018-06-15 車両システム

Country Status (4)

Country Link
US (1) US20200169705A1 (ja)
JP (2) JPWO2018230709A1 (ja)
CN (1) CN110740902A (ja)
WO (1) WO2018230709A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200197791A1 (en) 2017-06-16 2020-06-25 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
JP2021003906A (ja) * 2019-06-25 2021-01-14 株式会社日立製作所 車両制御システム
US11069239B2 (en) 2017-06-16 2021-07-20 Honda Motor Co., Ltd. Event vehicle dispatch device, event vehicle dispatch method, program, and management system
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7287326B2 (ja) * 2020-03-30 2023-06-06 トヨタ自動車株式会社 運行管理装置、運行管理システム、運行管理方法、及び車両
CN112776710A (zh) * 2021-01-25 2021-05-11 上汽通用五菱汽车股份有限公司 音效调节方法、音效调节系统、车机系统及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308265A (ja) * 2002-04-18 2003-10-31 Fujitsu Ten Ltd インターネット端末装置および電子メール端末装置
JP2004194007A (ja) * 2002-12-11 2004-07-08 Sony Corp 情報処理装置
JP2007228551A (ja) * 2006-01-30 2007-09-06 Sharp Corp 投影機能付携帯通信端末、小型投影装置および投影方法
JP2008103828A (ja) * 2006-10-17 2008-05-01 Nec Corp 携帯端末の遠隔操作方法、携帯端末及びプログラム
JP2016090274A (ja) * 2014-10-30 2016-05-23 トヨタ自動車株式会社 警報装置、警報システム及び携帯端末

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002186055A (ja) 2000-12-18 2002-06-28 Mitsubishi Electric Corp 車両及び家屋間における無線通信システム及び無線通信方法
JP2008280813A (ja) * 2007-05-14 2008-11-20 Calsonic Kansei Corp 家屋のドア施錠状態表示装置
JP2009015760A (ja) * 2007-07-09 2009-01-22 Tokai Rika Co Ltd 操作入力装置
JP6244822B2 (ja) 2013-10-30 2017-12-13 トヨタ車体株式会社 車載用表示システム
JP2016040151A (ja) * 2014-08-12 2016-03-24 エイディシーテクノロジー株式会社 通信システム
US10509407B2 (en) 2016-07-01 2019-12-17 Samsung Electronics Co., Ltd. Apparatus and method for a vehicle platform

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308265A (ja) * 2002-04-18 2003-10-31 Fujitsu Ten Ltd インターネット端末装置および電子メール端末装置
JP2004194007A (ja) * 2002-12-11 2004-07-08 Sony Corp 情報処理装置
JP2007228551A (ja) * 2006-01-30 2007-09-06 Sharp Corp 投影機能付携帯通信端末、小型投影装置および投影方法
JP2008103828A (ja) * 2006-10-17 2008-05-01 Nec Corp 携帯端末の遠隔操作方法、携帯端末及びプログラム
JP2016090274A (ja) * 2014-10-30 2016-05-23 トヨタ自動車株式会社 警報装置、警報システム及び携帯端末

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200197791A1 (en) 2017-06-16 2020-06-25 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
US11069239B2 (en) 2017-06-16 2021-07-20 Honda Motor Co., Ltd. Event vehicle dispatch device, event vehicle dispatch method, program, and management system
US11691070B2 (en) 2017-06-16 2023-07-04 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle
JP2021003906A (ja) * 2019-06-25 2021-01-14 株式会社日立製作所 車両制御システム
JP7270481B2 (ja) 2019-06-25 2023-05-10 株式会社日立製作所 車両制御システム

Also Published As

Publication number Publication date
JPWO2018230709A1 (ja) 2020-03-19
JP7145897B2 (ja) 2022-10-03
CN110740902A (zh) 2020-01-31
JP2020079081A (ja) 2020-05-28
US20200169705A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
WO2018230709A1 (ja) 車両システム
JP7183204B2 (ja) 車両およびサービス管理装置
US20190049977A1 (en) System and methods for sensor integration in support of situational awareness for a motorized mobile system
EP3646998B1 (en) Mobile robot
WO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
CN107367841B (zh) 移动物体、系统和存储介质
KR102391914B1 (ko) 이동 로봇의 동작 방법
JP2010531267A (ja) 航空機用の対話型情報システム
CN111462334A (zh) 一种智能互动展馆系统
JP2023065685A (ja) 自動車及び自動車用プログラム
CN108475485A (zh) 显示装置和用于控制显示装置的方法
KR20200041877A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US20240118713A1 (en) System and method for navigation support for a motorized mobile system
JP2022505977A (ja) 特殊効果可視化手法
JP2024046018A (ja) 情報管理装置、情報管理方法、およびプログラム
US10882617B2 (en) Aircraft based augmented and virtual reality passenger social media interaction system and related method
WO2022196429A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
JP2024039760A (ja) 情報処理システム
JP2024046019A (ja) 情報管理装置、情報管理方法、およびプログラム
JP2024041343A (ja) 情報処理装置、情報処理システム、および情報処理方法
WO2024064400A1 (en) Techniques for managing a platform
JP2024039702A (ja) 情報処理システム
JP2024038605A (ja) 情報処理システム
KR20230108810A (ko) 차량 디스플레이 제어 시스템
KR20230108652A (ko) 차량 디스플레이 제어 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18816821

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019525574

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18816821

Country of ref document: EP

Kind code of ref document: A1