WO2018230678A1 - 車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置 - Google Patents

車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置 Download PDF

Info

Publication number
WO2018230678A1
WO2018230678A1 PCT/JP2018/022826 JP2018022826W WO2018230678A1 WO 2018230678 A1 WO2018230678 A1 WO 2018230678A1 JP 2018022826 W JP2018022826 W JP 2018022826W WO 2018230678 A1 WO2018230678 A1 WO 2018230678A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
vehicle
occupant
information
image
Prior art date
Application number
PCT/JP2018/022826
Other languages
English (en)
French (fr)
Inventor
瞬 岩▲崎▼
浅海 壽夫
賢太郎 石坂
いずみ 近藤
諭 小池
倫久 真鍋
伊藤 洋
佑樹 林
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to CN201880039177.9A priority Critical patent/CN110769905A/zh
Priority to JP2019525539A priority patent/JPWO2018230678A1/ja
Priority to US16/622,335 priority patent/US11691070B2/en
Publication of WO2018230678A1 publication Critical patent/WO2018230678A1/ja
Priority to US18/089,624 priority patent/US20230158397A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/164Infotainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays

Definitions

  • the present invention relates to an in-vehicle effect device, an in-vehicle effect system, an in-vehicle effect method, a program, and an instruction measuring device.
  • Patent Document 1 a technique for calculating a driving skill score of a vehicle driver is known (for example, Patent Document 1).
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide entertainment for the movement of a vehicle occupant.
  • the in-vehicle effect device, the in-vehicle effect system, the in-vehicle effect method and the program according to the present invention employ the following configurations.
  • One aspect of the present invention is an in-vehicle production device that produces a game performed by an occupant on a vehicle, the operation detecting unit (30) detecting the operation of the occupant unrelated to driving the vehicle, A display unit (60) for displaying an image that can be visually recognized by the occupant, and a response image corresponding to the occupant's motion based on the motion of the occupant detected by the motion detection unit. And a display control unit (18) for outputting a game result based on the rules.
  • the display control unit may superimpose the response image on an object in the surrounding environment of the vehicle and display it on the display unit.
  • (3) is the in-vehicle production device according to the aspect of (2), wherein the occupant's motion is an operation that indicates an object in the surrounding environment, and the motion detection unit is directed in a direction that the occupant indicates And the display control unit may cause the display unit to display the response image so as to overlap a specific object in the indicated direction based on the direction detected by the motion detection unit.
  • (4) is the in-vehicle effect device according to the aspect of (2) or (3), and the in-vehicle effect device calculates, as an effective score, the number of times that the motion detection unit has detected a motion indicating a specific object.
  • a score calculation unit (17) may be further provided, and the display control unit may display an image indicating the score calculated by the score calculation unit on the display unit at a predetermined timing.
  • (5) is an in-vehicle production device according to the aspect of (4), wherein the specific object is the specific road sign to the destination, and a destination for acquiring destination information indicating the destination
  • (6) is the in-vehicle production device according to the aspect of (5), wherein the specific object is another vehicle that travels in the vicinity of the vehicle, and the extraction unit includes: The other vehicle is extracted, and the score calculation unit calculates, as an effective score, the number of times the motion detection unit detects the movement of the occupant indicating the position corresponding to the other vehicle extracted by the extraction unit. May be.
  • (7) is an in-car presentation device according to the aspect of (5) or (6), wherein the specific object is a signboard of a store existing around the vehicle, and the extraction unit The signboard is extracted from the environmental image, and the score calculation unit calculates, as an effective score, the number of times the motion detection unit detects the movement of the occupant indicating the position corresponding to the signboard extracted by the extraction unit. May be.
  • (8) is the in-vehicle production device according to any one of (4) to (7), wherein the display control unit displays an image indicating the total of the scores calculated by the score calculation unit. May be displayed.
  • (9) is an in-vehicle effect system including a plurality of in-vehicle effect devices according to any one of (4) to (8), wherein the in-vehicle effect device is information indicating the score calculated by the score calculation unit And a receiving unit (80) for receiving the score information indicating the score calculated by the other in-vehicle effect device, and the display control unit includes:
  • the in-vehicle effect system displays an image indicating the score calculated by the score calculation unit and an image indicating the score of the score information received by the reception unit on the display unit.
  • (10) is the in-vehicle effect system according to the aspect of (9), wherein the display control unit indicates the score of the score information received from the in-vehicle effect device mounted on a vehicle belonging to the same team as the own device.
  • the image may be displayed on the display unit by comparing the image indicating the score of the score information received from the in-vehicle effect device mounted on the vehicle belonging to another team.
  • (11) is an in-vehicle production system according to the aspect of (9) or (10), wherein the display control unit is information indicating behavior of a vehicle equipped with the device itself and behavior of a vehicle equipped with another in-vehicle production device. An image that prompts movement may be displayed based on the information indicating.
  • (12) includes a display unit, and a computer that produces a game played by an occupant on the vehicle detects the operation of the occupant unrelated to driving the vehicle, displays an image that the occupant can visually recognize, and detects
  • This is an in-vehicle presentation method that displays a response image corresponding to the movement of the occupant and outputs a game result based on a predetermined rule based on the movement of the occupant.
  • (13) includes a display unit that causes a computer that produces a game played by a passenger on the vehicle to detect the movement of the passenger unrelated to driving of the vehicle, and to display an image that is visible to the passenger. On the basis of the movement of the occupant, a response image corresponding to the movement of the occupant is displayed and a game result based on a predetermined rule is output.
  • an operation detection unit that detects an operation of a vehicle occupant, a line-of-sight detection unit that detects a viewpoint position of the vehicle occupant, and an instruction operation of the vehicle occupant detected by the operation detection unit
  • a coordinate acquisition unit that acquires a three-dimensional point group in the real space in the direction indicated by the occupant's pointing operation based on the viewpoint position of the occupant detected by the line-of-sight detection unit;
  • An object information acquisition unit that acquires information indicating an object associated with the three-dimensional point group acquired by the coordinate acquisition unit from an interface that supplies information indicating an object existing in space; Service provision for identifying the service provider associated with the object indicated by the information acquired by the object information acquisition unit based on the servicer information indicating the service provider associated with
  • a history information generating unit that generates history information in which a specifying unit, the service provider specified by the service provider specifying unit, and a target indicated by information acquired by the target information acquiring unit are associated with each other; ,
  • An instruction measuring device that detects
  • the history information further associates the time when the instruction operation is performed with information indicating the occupant.
  • (16) is an indication measurement device according to the aspect of (14) or (15), based on the imaging unit that images the ambient environment and generates the ambient environment image, and the ambient environment image captured by the imaging unit.
  • An attribute specifying unit that specifies an attribute of the surrounding environment, and the coordinate acquisition unit is configured to indicate a direction of indication by an instruction operation of the occupant based on the attribute of the surrounding environment specified by the attribute specifying unit.
  • a three-dimensional point cloud in real space is acquired.
  • (17) is a notification unit that notifies the service provider indicated by the history information that the instruction operation has been performed in the instruction measurement device according to any one of (14) to (16). Are further provided.
  • (18) is the instruction measuring device of (17), wherein the notification unit notifies the occupant of the history information.
  • (19) is the indication measurement device according to any one of (14) to (18), further including an imaging unit that images the surrounding environment and generates a surrounding environment image, wherein the coordinate acquisition unit includes the surrounding environment Information indicating the three-dimensional point group based on the ambient environment image captured by the imaging unit is acquired from an interface that supplies the three-dimensional point group based on the image.
  • FIG. 1 is a diagram showing an outline of the in-vehicle performance device 1 according to the first embodiment.
  • the in-car presentation device 1 is a device that provides entertainment for an occupant (hereinafter referred to as an occupant PS) of the vehicle V that is moved by a vehicle (hereinafter referred to as a vehicle V).
  • the in-vehicle production device 1 produces, for example, a shooting game in which an object existing in the surrounding environment of the vehicle V is a shooting target while the vehicle V is moving.
  • the vehicle V travels by automatic driving.
  • the in-car direction device 1 is disposed in the vehicle V.
  • a sound detection unit 20, an operation detection unit 30, an imaging unit 40, an input unit 50, and a display 60 are arranged in the vehicle V.
  • the sound detection unit 20 detects the sound emitted by the occupant PS.
  • the sound detection unit 20 is a microphone, for example.
  • the motion detection unit 30 detects the motion of the occupant PS.
  • the motion detection unit 30 is, for example, a motion sensor.
  • the imaging unit 40 images the surrounding environment in which the vehicle V travels.
  • the input unit 50 includes an input device and receives an input operation of the occupant PS.
  • the input device includes a device for inputting character information such as a keyboard, a pointing device such as a mouse and a touch panel, a button, a dial, a joystick, a touch sensor, and a touch pad.
  • the display 60 displays various information based on the control of the in-vehicle performance device 1.
  • the display 60 is a transmissive display and is disposed in contact with the front window of the vehicle V.
  • the occupant PS can visually recognize the surrounding environment of the vehicle V and the image displayed on the display 60 from the front window.
  • the vehicle V may not include a front window.
  • the display 60 superimposes and displays the surrounding environment image of the vehicle V captured by the imaging unit 40 and the response image.
  • the display 60 may be a HUD (Head-Up Display).
  • the in-car presentation device 1 displays a response image corresponding to the operation of the occupant PS on the display 60 based on the detection results detected by the sound detection unit 20 and the operation detection unit 30 and the information input to the input unit 50. To do.
  • the in-car direction device 1 presents a response image or calculates a score associated with the shooting operation based on, for example, an operation in which the occupant PS shoots an object existing in the surrounding environment of the vehicle V (hereinafter referred to as a shooting operation). To do.
  • a shooting operation an operation in which the occupant PS shoots an object existing in the surrounding environment of the vehicle V
  • FIG. 2 is a functional configuration diagram illustrating an example of the configuration of the in-vehicle performance device 1 according to the first embodiment.
  • the in-car presentation device 1 includes a control unit 10, a sound detection unit 20, an operation detection unit 30, an imaging unit 40, an input unit 50, a display 60, and a storage unit 500.
  • the storage unit 500 stores information indicating a response image (hereinafter, response image information 500-1).
  • a processor such as a CPU (Central Processing Unit) executes a program stored in the storage unit 500, and an audio information acquisition unit 11, an operation information acquisition unit 12, an image information acquisition unit 13, The destination information acquisition part 14, the game management part 15, the extraction part 16, the score calculation part 17, and the display control part 18 are implement
  • These functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or by cooperation of software and hardware. May be.
  • the voice information acquisition unit 11 acquires voice information indicating the voice of the occupant PS detected by the sound detection unit 20.
  • the motion information acquisition unit 12 acquires motion information indicating the motion of the occupant PS detected by the motion detection unit 30.
  • the occupant PS performs an operation of emitting a sound imitating a shooting sound and instructing an object (shooting target) existing in the surrounding environment of the vehicle V with a finger as a shooting operation. Therefore, the sound information includes sound imitating shooting sound. “Ban!” Shown in FIG. 1 indicates the content of the sound that the occupant PS imitates the shooting sound.
  • the operation information includes an instruction operation for instructing a shooting target.
  • the voice information acquisition unit 11 outputs the acquired voice information to the display control unit 18 and the score calculation unit 17.
  • the motion information acquisition unit 12 outputs the acquired motion information to the display control unit 18 and the score calculation unit 17.
  • the image information acquisition unit 13 images the ambient environment in which the imaging unit 40 travels, and acquires information (hereinafter, image information) indicating the generated ambient environment image.
  • the image information acquisition unit 13 outputs the acquired image information to the extraction unit 16.
  • the destination information acquisition unit 14 acquires information indicating a destination indicated by an operation input to the input unit 50 (hereinafter referred to as destination information). For example, the vehicle V travels by automatic driving toward the destination indicated by the destination information acquired by the destination information acquisition unit 14. Further, the destination information acquisition unit 14 outputs the destination information to the display control unit 18.
  • the game management unit 15 manages the shooting game produced by the in-vehicle production device 1.
  • the game management unit 15 manages the start and end of a shooting game, for example. For example, when the operation input to the input unit 50 indicates the start of a shooting game, the game management unit 15 executes a process of starting the shooting game. Moreover, the game management part 15 performs the process which complete
  • the process for starting the shooting game is a process for permitting the extraction unit 16, the score calculation unit 17, and the display control unit 18 to execute various processes (hereinafter referred to as an enable process).
  • the process of ending the shooting game is a process that does not allow the extraction unit 16, the score calculation unit 17 and the display control unit 18 to execute various processes (hereinafter, disable process).
  • the extraction unit 16, the score calculation unit 17, and the display control unit 18 execute various processes when the game management unit 15 executes the enable process, and perform various processes when the game management unit 15 executes the disable process. do not do.
  • the game management unit 15 acquires information indicating the start and end of the shooting game based on the operation input to the input unit 50 .
  • the start and end of the shooting game may be instructed by the voice of the occupant PS.
  • the game management unit 15 may manage the start and end of the shooting game based on the detection result of the sound detection unit 20.
  • the game management unit 15 may be configured to determine the degree of excitement of the in-vehicle environment of the vehicle V based on the detection results of the sound detection unit 20 and the motion detection unit 30.
  • the game management unit 15 may automatically execute the enable process when the climax of the in-vehicle environment of the vehicle V is low.
  • the in-vehicle production device 1 can produce a shooting game when the inside of the vehicle is not raised, and can raise the inside of the vehicle.
  • the game management unit 15 may automatically execute the disable process when the climax of the in-vehicle environment of the vehicle V is low.
  • the vehicle interior rendering device 1 can end the shooting game when the interior of the vehicle is not raised by the rendered shooting game.
  • Extraction unit 16 receives image information from image information acquisition unit 13.
  • the extraction unit 16 performs image recognition processing on the surrounding environment image indicated by the image information, and extracts an object to be shot by the occupant PS.
  • the extraction unit 16 shoots an occupant PS on an object such as a front vehicle, a rear vehicle, a parallel running vehicle, an oncoming vehicle, an oncoming vehicle, a store signboard, or a road sign existing around the vehicle V, for example. Extract as target. Further, the extraction unit 16 matches the position of the actual object existing around the vehicle V with the position of the extracted object (shooting target) based on the surrounding environment image, and displays information indicating the position of the shooting target.
  • the score is output to the score calculation unit 17.
  • the extraction unit 16 performs image recognition processing on the surrounding environment image, and recognizes positions of various objects captured in the surrounding environment image on the surrounding environment image. Further, the extraction unit 16 matches the position on the front window when the surrounding environment image is presented in full size on the front window and the position of the extracted object (shooting target) on the surrounding environment image. The extraction unit 16 outputs the position of the front window to the score calculation unit 17 and the display control unit 18 as virtual position information indicating the virtual position of the shooting target.
  • the score calculation unit 17 operates the occupant PS based on the audio information input from the audio information acquisition unit 11, the operation information acquired by the operation information acquisition unit 12, and the virtual position information input from the extraction unit 16.
  • the score for is calculated. For example, when the voice information indicates a voice imitating a shooting sound and the indication direction of the indication action indicated by the action information is the direction of the shooting target position indicated by the virtual position information, the score calculation unit 17 Calculate a high score for the action. Further, when the voice information indicates a voice imitating the shooting sound and the indication direction of the indication action indicated by the action information is not the direction of the target position indicated by the virtual position information, the score calculating unit 17 Calculate a low score for the action.
  • the score calculation unit 17 outputs score information indicating the calculated score to the display control unit 18.
  • the display control unit 18 includes audio information input from the audio information acquisition unit 11, operation information input from the operation information acquisition unit 12, destination information input from the destination information acquisition unit 14, and an extraction unit 16.
  • a response image is displayed on the display 60 based on the virtual position information input from the score information and the score information input from the score calculation unit 17.
  • the display control unit 18 will be described.
  • FIG. 3 is a diagram illustrating an example of a response image GP1A indicating that a shooting operation has been detected.
  • the display control unit 18 displays on the display 60 a response image (response image GP1A shown in the figure) indicating that the shooting operation is detected when the audio information indicates a sound imitating the shooting sound and the operation information indicates an instruction operation. To do.
  • the response image GP1A is an image indicating that, for example, the shooting hit the shooting target.
  • the display control unit 18 presents the response image GP1A and clearly indicates that the shooting operation is detected to the occupant PS.
  • FIG. 4 is a diagram illustrating an example of a response image GP1B indicating that a shot has been made.
  • the display control unit 18 displays on the display 60 response images GP1B (response images GP1B-1 to GP1B-4 shown in the drawing) indicating that the shot has been made.
  • the response image GP1B is an image in which, for example, ink is applied to a predetermined area.
  • the display control unit 18 presents the response image GP1B in the indicated direction indicated by the operation information, and clearly indicates that the shooting operation has been performed on the occupant PS.
  • the display control unit 18 may display the response image GP1B so as to be superimposed on the shooting target.
  • the display control unit 18 may display a response image (response image GP1B-1 illustrated) so as to be superimposed on the oncoming vehicle. Further, the display control unit 18 may display a response image (response image GP1B-2 shown in the figure) so as to be superimposed on the road sign. Further, the display control unit 18 may display a response image (response image GP1B-3 shown in the drawing) so as to be superimposed on a signboard of a store existing around the vehicle V. Further, when there is no shooting target in the direction indicated by the instruction operation, the display control unit 18 may display a response image (the response image GP1B-4 illustrated) on the road surface in the direction.
  • the display control unit 18 may be configured to display a predetermined area indicated by the response image GP1B in an enlarged or reduced manner as the shooting target approaches or separates as the vehicle V moves. Specifically, the display control unit 18 may be configured to enlarge or reduce a predetermined region indicated by the response image GP1B so as to indicate a predetermined area.
  • FIG. 5 is a diagram illustrating an example of a response image GP1C indicating the score of the score information.
  • the display control unit 18 displays on the display 60 a response image (the illustrated response image GP1C) indicating the score indicated by the score information and calculated based on the movement of the occupant PS.
  • the response image GP1C is an image in which a score is indicated by a numerical value, for example.
  • the display control unit 18 presents the response image GP1C and clearly indicates to the occupant PS the evaluation of the shooting operation of the occupant PS.
  • the response image GP1C may be an image indicating the score by level. Specifically, the response image GP1C presents an image indicating the level of the occupant PS according to the score (for example, “beginner”, “one person”, “gener”, “master”, “master”, etc.). May be.
  • FIG. 6 is a flowchart showing an example of the operation of the in-vehicle performance device 1 according to the first embodiment.
  • the voice information acquisition unit 11 acquires the voice information from the sound detection unit 20 constantly or at predetermined time intervals (step S110).
  • the motion information acquisition unit 12 acquires motion information from the motion detection unit 30 constantly or at predetermined time intervals (step S120).
  • the image information acquisition unit 13 acquires image information from the imaging unit 40 constantly or at predetermined time intervals (step S130).
  • the destination information acquisition unit 14 acquires destination information indicated by the operation input to the input unit 50 (step S140). The occupant PS inputs destination information through the input unit 50 when starting the traveling of the vehicle V, for example.
  • the game management unit 15 manages the start and end of the game (step S145). Game management part 15 advances processing to Step S150, when operation inputted into input part 50 shows the start of a shooting game. Moreover, the game management part 15 complete
  • the extraction unit 16 performs image processing on the surrounding environment image indicated by the image information acquired by the motion information acquisition unit 12, extracts a shooting target, and generates virtual position information (step S150). For example, the extraction unit 16 extracts a shooting target every time the image information acquisition unit 13 acquires image information, and generates virtual position information.
  • the score calculation unit 17 determines whether or not the occupant PS has performed a shooting operation based on the audio information acquired by the audio information acquisition unit 11 and the operation information acquired by the operation information acquisition unit 12 (step S160). . When the score calculation unit 17 determines that the occupant PS has performed a shooting operation, the operation of the occupant PS is based on the operation information, the image information acquired by the image information acquisition unit 13 and the virtual position information generated by the extraction unit 16.
  • the score for is calculated (step S170). If the score calculation unit 17 determines that the occupant PS is not performing a shooting operation, the score calculation unit 17 does not calculate a score for the operation of the occupant PS, and the process proceeds to step S180.
  • the display control unit 18 displays a response image on the display 60 based on the audio information, the operation information, the destination information, and the virtual position information (Step S180).
  • the shooting operation is an operation of emitting a sound imitating the shooting sound and instructing a shooting target existing in the surrounding environment of the vehicle V with a finger
  • the shooting operation may be, for example, any one of an operation that emits a sound imitating a shooting sound and an operation that instructs a shooting target that exists in the surrounding environment of the vehicle V.
  • the vehicle interior rendering device 1 may not include a detection unit (sound detection unit 20 or motion detection unit 30) that detects information that is not used as a shooting operation.
  • the in-car direction device 1 of the present embodiment is based on the motion detection unit 30 that detects the motion of the occupant PS of the vehicle V and the motion of the occupant PS detected by the motion detection unit 30. And a display control unit 18 that controls the display of a response image corresponding to the operation (in this example, the response image GP1A-1). Therefore, the vehicle interior rendering device 1 of the present embodiment can provide entertainment for the occupant PS moving by the vehicle V.
  • the display control unit 18 superimposes response images (in this example, response images GP1B-1 to GP1B-3) on an object (shooting target) in the environment around the vehicle V. To display. Further, in the in-car direction device 1 of the present embodiment, the shooting target is an operation that indicates an object in the surrounding environment, and the operation detection unit 30 indicates a direction (operation information in this example) indicated by the occupant PS. Then, the display control unit 18 displays response images (in this example, response images GP1B-1 to GP1B-4) based on the operation information detected by the operation detection unit 30.
  • the in-vehicle production device 1 of the present embodiment further includes a score calculation unit 17 that calculates a score based on the motion information and the virtual position information, and the display control unit 18 calculates the score calculation unit 17.
  • a response image indicating the score (in this example, response image GP1C) is further displayed.
  • presentation apparatus 1 of this embodiment can display a response image on the display 60 by a more entertaining production
  • the score calculation unit 17 may be configured to calculate a score in accordance with the rules of a shooting game produced by the in-vehicle performance device 1.
  • the rules of the shooting game include, for example, a rule that targets a road sign in the destination direction indicated by the destination information, a rule that targets a vehicle of a specific vehicle type, a rule that targets a store signboard, etc. It is. In the case of this rule, among the shooting targets extracted by the extraction unit 16, a high score is calculated for a shooting operation that instructs a shooting target in accordance with the rule.
  • the score calculation unit 17 may be configured to calculate the score based on the area where the response image GP1B (an image in which ink is applied to a predetermined region) is displayed.
  • a rule for calculating a score based on an area where the response image GP1B is displayed is referred to as a territory area rule.
  • the score calculation unit 17 calculates a score according to the area of the ink indicated by the response image GP1B.
  • the extraction unit 16, the score calculation unit 17, and the display control unit 18 do not execute various processes.
  • the present invention is not limited to this.
  • the display control unit 18 may not perform various processes. In this case, various functional units execute processing, but various images are not displayed on the display 60.
  • FIG. 7 is a functional configuration diagram illustrating an example of the configuration of the in-vehicle performance device 2 according to the second embodiment.
  • the in-car presentation device 2 includes a control unit 10A, a sound detection unit 20, an operation detection unit 30, an imaging unit 40, an input unit 50, a display 60, a position detection unit 70, a communication unit 80, and a storage unit. 500.
  • the position detection unit 70 detects the position where the vehicle V travels.
  • the position detection unit 70 is, for example, a method using a global navigation satellite system (Global Navigation System (GN)) such as GPS (Global Positioning System), a quasi-zenith satellite (QZS), or the like.
  • the position of the vehicle V is detected by a method using a regional satellite positioning system (RNSS).
  • the position detection unit 70 outputs position information indicating the position of the vehicle V to the control unit 10A.
  • GN global navigation satellite system
  • RNSS regional satellite positioning system
  • the communication unit 80 communicates by wireless communication with a server (not shown) that collects information used for processing of the in-vehicle production device 2.
  • the wireless communication is, for example, short-range wireless communication using Wi-Fi (registered trademark) or wireless communication via a mobile communication network such as LTE (Long Term Evolution).
  • LTE Long Term Evolution
  • direct communication between the vehicles V may be performed.
  • communication between the vehicles V is performed using an ad hoc network such as DSRC (Dedicated Short Range Communications).
  • control parts run the program memorize
  • the score calculation part 17, the display control part 18, and the position information acquisition part 19 are implement
  • the position information acquisition unit 19 acquires position information from the position detection unit 70.
  • the position information acquisition unit 19 acquires position information at all times or at predetermined time intervals.
  • the position information acquisition unit 19 outputs the acquired position information to the display control unit 18 and the communication unit 80.
  • the display control unit 18 of the present embodiment outputs a response image to be displayed on the display 60 to the communication unit 80 at all times or at a predetermined time interval.
  • the communication unit 80 associates the position information input from the position information acquisition unit 19 with the response image input from the display control unit 18 and transmits the associated information to the server.
  • position image information information in which position information is associated with a response image
  • the communication part 80 receives the position image information which the other in-vehicle production
  • the communication unit 80 receives position image information associated with the position information based on the position information input from the position information acquisition unit 19.
  • the communication unit 80 receives position image information associated with position information indicating the current position of the vehicle V from the server.
  • the communication unit 80 outputs the received position image information to the display control unit 18.
  • the display control unit 18 of this embodiment receives position image information from the communication unit 80.
  • the display control unit 18 displays a response image of position image information associated with position information that matches the position information input from the position information acquisition unit 19 on the display 60. That is, the display control unit 18 causes the display 60 to display response images that the other in-vehicle effect device 2 has displayed in the past at the current position of the vehicle V.
  • FIG. 8 is a diagram illustrating an example of a response image displayed by the other in-vehicle performance device 2 according to the second embodiment.
  • the display control unit 18 responds based on the processing of its own device (response images GP1B-1 to GP1B-3 shown in the drawing) and response images (response shown in the drawing) displayed in the past by the other in-vehicle performance devices 2 at the current position. Images GP2-1 to GP2-3 and response images GP3-1 to GP3-2) are displayed.
  • the illustrated response images GP2-1 to GP2-3 are response images previously displayed by the other in-vehicle performance device 2 at the current position of the vehicle V.
  • the response images GP3-1 to GP3-2 shown in the figure are response images previously displayed by another in-vehicle performance device 2 at the current position of the vehicle V.
  • the position detection unit 70 detects the position of the vehicle V
  • the communication unit 80 transmits and receives position image information
  • the display control unit 18 The response images (response images GP1B-1 to GP1B-3 shown in the figure) based on the above process and the response images (response images GP2-1 shown in the drawings) displayed in the past by the other in-vehicle effect devices 2 at the current position of the vehicle V.
  • To GP2-3 and response images GP3-1 to GP3-2) are displayed.
  • the in-vehicle production device 2 of the present embodiment displays a response image in which a shooting game is played by a person other than the occupant PS on the display 60, improves the competitiveness of the occupant PS, and improves the motivation for the shooting operation. be able to.
  • the shooting game produced by the in-vehicle production device 2 may have a configuration in which a territory area rule is confronted between the occupant PS and another person based on the position image information.
  • the score calculation unit 17 sets the area of the response images of others (response images GP2-1 to GP2-3 and response images GP3-1 to GP3-2 shown in FIG. 8) indicated in the position image information. Based on this, a score is calculated.
  • the score calculation unit 17 calculates the score based on the area of response images (response images GP1B-1 to GP1B-3 shown in FIG. 8) to be displayed based on the processing of the own device.
  • the in-vehicle effect device 2 determines the occupant PS of the in-vehicle effect device 2 (vehicle V) displaying the high-score response image as a winner.
  • the structure which performs the shooting game by a territory area rule by team battle may be sufficient.
  • a structure in which a shooting game based on a territory area rule is played by a plurality of teams may be used.
  • the score calculation unit 17 determines the response image to be displayed based on the area of the response image of the color that matches the ink color of the response image of the own device among the response images of the position image information and the processing of the own device. The sum with the area is calculated as the score of the team.
  • the in-car direction device 2 determines a team with a high score as a winner.
  • the in-car presentation device 2 may perform a shooting game of the territory area rule based on the area of the route traveled by the vehicle V based on the position information acquired by the position information acquisition unit 19.
  • the display control unit 18 calculates an area by multiplying the route traveled by the vehicle V on which the device is mounted and a predetermined value indicating the route width, and calculates a score corresponding to the area.
  • the communication unit 80 receives travel route information indicating a route on which a vehicle on which the other in-vehicle performance device 2 is mounted has traveled.
  • the score calculation unit 17 calculates an area by multiplying a route traveled by another vehicle indicated by the received travel route information and a predetermined value indicating the route width, and calculates a score corresponding to the area.
  • the in-car direction device 2 determines the occupant PS of the vehicle V having a high score as a winner.
  • the display control unit 18 may be configured to display on the display 60 an image indicating the area of the route traveled by the vehicle V and an image indicating the area of the route indicated by the received travel route information.
  • FIG. 9 is a diagram illustrating an example of a result of a shooting game based on a territory area rule based on a travel route.
  • the display control unit 18 generates an image (image P ⁇ b> 1 shown in the figure) indicating the route on which the vehicle V has traveled based on the position information acquisition unit 19.
  • the communication unit 80 receives travel route information indicating a route on which the vehicle V on which the other in-vehicle performance device 2 is mounted traveled.
  • the display control unit 18 generates images (image P2 and image P3 shown) indicating the travel route information received by the communication unit 80.
  • the display control unit 18 arranges the generated images P1 to P3 so as to be superimposed on an image (image P5 shown) showing a map in a predetermined range, and displays it on the display 60.
  • the in-vehicle performance device 2 of the present embodiment displays a route on which the other person other than the occupant PS has moved on the display 60, improves the competitiveness of the occupant PS, and improves the willingness to move by the vehicle V. it can.
  • the automatic driving function of the vehicle V may control the traveling of the vehicle V so that the vehicle V is moved to the destination indicated by the destination information or is moved so as not to stay in the range for a long time.
  • FIG. 10 is a diagram illustrating an example of winning or losing in the shooting game based on the territory area rule.
  • the display control unit 18 calculates the area of the own team and the area of the other team based on the position information and the travel route information.
  • the display control unit 18 displays an image showing the ratio between the area of the own team and the area of the other team in the range where the shooting game of the territory area rule based on the travel route is performed (shown throughout Japan).
  • the illustrated image P6) is generated and displayed on the display 60.
  • the display control unit 18 is configured to generate and display the image P6 in a predetermined range (for example, the Kanto Koshinetsu range) in the range where the shooting game of the territory area rule based on the travel route is performed. May be.
  • a predetermined range for example, the Kanto Koshinetsu range
  • the in-vehicle direction device 2 of the present embodiment can improve the competitiveness of the occupant PS and improve the willingness to move by the vehicle V.
  • the in-vehicle production device 2 may be configured to provide services, contents, and the like to the occupant PS based on the score calculated by the score calculation unit 17 and the result of the territory area rule. For example, when the occupant PS performs a shooting operation on a signboard of a store existing around the vehicle V, the in-car direction device 2 transmits information indicating that the shooting operation has been performed to the server device of the store. The server device of the store gives a coupon that can be used when purchasing a product of the store to the occupant PS.
  • the in-car direction device 2 transmits the score calculated by the score calculation unit 17 to the server device of the provider that provides the service.
  • the server device of the business operator gives a coupon that can be used at the next car sharing service to the occupant PS that has obtained a high score.
  • crew PS which belongs to a winning team may be sufficient.
  • the in-car direction device 2 may perform a process of prompting movement to a certain shooting target based on information indicating the behavior of each vehicle V (hereinafter, behavior information).
  • the action information is, for example, position image information, position information, travel route information, and the like acquired by each in-vehicle effect device 2.
  • the in-vehicle direction device 2 acquires the action information acquired from the other in-vehicle direction device 2 from a server that stores the action information (hereinafter referred to as “behavior information server”).
  • the in-car presentation device 2 is configured to highlight and display a shooting target on which many others have performed a shooting operation, a shooting target to which a store coupon is given, and the like based on the acquired behavior information. Also good.
  • the in-vehicle performance device 2 may be configured to display an emphasized image so as to be superimposed on the position of the shooting target in the display 60.
  • the structure which the imaging part mounted in the vehicle V of others displays the image which imaged the said shooting target in the past on the display 60 may be sufficient as the in-vehicle production
  • the structure which displays the image which shows the moving direction which moves to the position of the said shooting object on the display 60 may be sufficient as the in-vehicle production
  • the occupant PS may move the vehicle V in the direction of the emphasized shooting target, the shooting target on which many others performed shooting operations, and the shooting target to which the coupon of the store is given. Therefore, the in-car direction device 2 can prompt the in-car direction device 2 (vehicle V) to move to a certain shooting target based on the behavior information.
  • the in-vehicle effect device 2 detects the congestion state based on, for example, a position where another in-vehicle effect device 2 (vehicle V) indicated by the action information exists.
  • the in-car presentation device 2 can move the vehicle V so as to avoid congestion by urging the target to shoot at a position different from the position so as not to move to a crowded position (direction). it can.
  • the behavior information server performs the process of prompting the movement to the certain shooting target based on the behavior information. It may be a configuration. In this case, based on the behavior information acquired from each in-vehicle effect device 2, the behavior information server transmits to the in-vehicle effect device 2 an image that prompts movement of the in-vehicle effect device 2 (vehicle V) and information that prompts the movement. .
  • the in-car presentation device 2 causes the display 60 to display an image acquired from the behavior information server, for example.
  • an index indicating the frequency of the shooting operation may be attached to the shooting target based on the line information acquired from each in-vehicle performance device 2.
  • the in-vehicle direction device 2 or the behavior information server calculates an index on which the shooting operation is performed based on the behavior information acquired from each in-vehicle direction device 2.
  • the in-vehicle performance device 2 may be configured to perform display that emphasizes the response image or the shooting target based on the index.
  • the in-vehicle direction device 2 determines, for example, that the shooting target with a high index has a lot of in-vehicle direction devices 2 (vehicles V) around them, that is, is crowded. In this case, the in-vehicle performance device 2 may perform a process of not emphasizing the shooting target or not considering the shooting target as a shooting target (filtering). In addition, when the shooting target with a high index is a shooting target to which a coupon for the store is given, the in-car direction device 2 (or behavior information server) has a low index among the affiliated stores of the shooting target store. You may perform the process which gives the function which provides a coupon to the store etc. of the shooting object (signboard) to which is attached.
  • the in-vehicle effect device 2 determines that the shooting target to which the low index is attached does not have many in-vehicle effect devices 2 (vehicles V) around them, that is, is not congested.
  • the in-vehicle performance device 2 may perform a process of emphasizing the shooting target. Through these processes, the in-car direction device 2 can prompt the in-car direction device 2 (vehicle V) to move to a certain shooting target based on the behavior information (index).
  • the display control unit 18 outputs the result of the shooting game by displaying various images.
  • the display control unit 18 is not limited thereto. May be output.
  • the vehicle V may include a speaker, and the display control unit 18 may be configured to display a response image and output a shooting sound from the speaker.
  • the display control unit 18 is configured to display the shooting game result or win / loss indicated by the image P5 or the image P6 on the display 60, and to output sound from the speaker informing the shooting game result or win / loss. Also good.
  • the occupant PS on the vehicle may use a head mount device.
  • the head mount device superimposes and displays the surrounding environment image of the vehicle captured by the imaging unit 40 and the response image.
  • the vehicle V may be configured to include a display 60 on the side window in addition to the front window.
  • the extraction unit 16 performs image recognition processing on the ambient environment image, and recognizes positions of various objects captured in the ambient environment image on the ambient environment image.
  • the extraction unit 16 matches the position on the side window when the surrounding environment image is presented in full size on the side window with the position of the extracted object (shooting target) on the surrounding environment image.
  • the extraction unit 16 outputs the position of the front window to the score calculation unit 17 and the display control unit 18 as virtual position information indicating the virtual position of the shooting target.
  • the target of the shooting operation performed from the side window is a shooting target with a large volume or area, that is, a shooting operation that is easy to perform in a small area (side window) It is preferable to be a subject.
  • the in-vehicle effect device 1 and the in-vehicle effect device 2 may have a configuration for detecting the state of the vehicle V.
  • the vehicle interior rendering device includes a vehicle state acquisition unit.
  • the vehicle state acquisition unit acquires motion parameters such as the speed, rudder angle, and pitch / roll angle of the vehicle V.
  • the display control unit 18 displays various images based on the motion parameters acquired by the vehicle state acquisition unit. Specifically, the display control unit 18 performs a refresh process for an image displayed on the display 60 based on the speed of the vehicle V. More specifically, based on the speed of the vehicle V, the display control unit 18 performs a refresh operation of an image displayed on the display 60 at a time interval sufficiently faster than a change in the surrounding environment accompanying the movement of the vehicle V.
  • the display control unit 18 displays an image corresponding to the traveling direction side of the vehicle V on the display 60 based on the rudder angle and pitch / roll angle of the vehicle V among the acquired motion parameters.
  • the vehicle V may turn (turn right or left) in a direction other than straight ahead based on the control.
  • the occupant PS may turn his eyes to the traveling direction, that is, the turning direction, instead of the front of the vehicle V.
  • the display control unit 18 can display an image corresponding to the line of sight of the occupant PS by displaying an image corresponding to the traveling direction side of the vehicle V on the display 60 based on the motion parameter.
  • the display control unit 18 may be configured to display various images on the display 60 based on the vibration on the vehicle V. For example, according to the vibration applied to the vehicle V, the display control unit 18 displays various images at a distance and a direction opposite to the distance and the direction in which the vehicle V moves with the vibration. Thereby, the in-vehicle performance device 2 can suppress the image displayed on the display 60 from shaking with vibration. Therefore, the in-vehicle performance device 2 can suppress the passenger sickness from being caused by the occupant PS visually recognizing the image on the display 60.
  • the display control unit 18 may be configured to display various images on the display 60 based on the relative movement distance and direction between the vibration applied to the vehicle V and the vibration applied to the occupant PS.
  • the in-vehicle production device 3 that specifies an instruction target based on a three-dimensional point group in the real space in the direction indicated by the instruction operation of the occupant PS and generates a history of the instruction operation of the occupant PS will be described. To do.
  • symbol is attached
  • the in-vehicle performance device 3 is an example of an “instruction measurement device”.
  • FIG. 11 is a functional configuration diagram illustrating an example of a configuration of the in-vehicle performance device 3 according to the third embodiment.
  • the in-vehicle presentation device 3 (communication unit 80) of the present embodiment transmits and receives information to and from the service provider terminal (hereinafter referred to as service provider terminal device TM) and the interface device 800 via the network NW.
  • service provider terminal device TM service provider terminal device
  • the interface device 800 includes a control unit 810 and a storage unit 820.
  • the storage unit 820 stores object information 820-1 and servicer information 820-2.
  • the object information 820-1 is information in which information indicating an object existing in the real space indicated by the three-dimensional point group is associated with information indicating the three-dimensional point group.
  • the servicer information 820-2 is information in which information indicating a target object is associated with information indicating a service provider related to the target object.
  • the control unit 810 searches the object information 820-1 and the servicer information 820-2 based on the information received from the in-vehicle effect device 3, and obtains information indicating the object and information indicating the service provider. 3 to send.
  • the in-car presentation device 3 includes a sound detection unit 20, an operation detection unit 30, an imaging unit 40, an input unit 50, a display 60, a position detection unit 70, a communication unit 80, and a line-of-sight detection unit 90. .
  • the in-vehicle performance device 3 includes a control unit 10B instead of (or in addition to) the control unit 10 or the control unit 10A, and includes a storage unit 500A instead of (or in addition to) the storage unit 500.
  • the storage unit 500A stores response image information 500-1, history information 500-2, and service provider information 500-3. Details of each information will be described later.
  • the control unit 10B executes the program stored in the storage unit 500A, and the audio information acquisition unit 11, the operation information acquisition unit 12, the image information acquisition unit 13, the display control unit 18, and the position information acquisition unit 19
  • the specifying unit 118 is realized as its function unit.
  • the occupant PS inputs information (hereinafter referred to as occupant ID) that can identify the occupant to the input unit 50, and the occupant information acquisition unit 111 acquires the occupant ID input to the input unit 50. For example, when the occupant PS gets on the vehicle V, the occupant PS inputs the occupant ID to the input unit 50.
  • occupant ID information that can identify the occupant to the input unit 50
  • the occupant information acquisition unit 111 acquires the occupant ID input to the input unit 50. For example, when the occupant PS gets on the vehicle V, the occupant PS inputs the occupant ID to the input unit 50.
  • the line-of-sight detection unit 90 detects, for example, a position in real space (hereinafter referred to as a viewpoint position) visually recognized by an occupant PS imaged by an imaging unit (not shown) that images the inside of the vehicle V.
  • the line-of-sight information acquisition unit 112 acquires information indicating the viewpoint position of the occupant PS detected by the line-of-sight detection unit 90.
  • the coordinate acquisition unit 113 is based on the surrounding environment image of the vehicle V imaged by the imaging unit 40, and the occupant PS instruction operation acquired by the operation information acquisition unit 12 and the occupant PS acquired by the line-of-sight information acquisition unit 112. Based on the viewpoint position, a three-dimensional point group in the real space in the indicated direction by the instruction operation of the occupant PS is acquired.
  • the coordinate acquisition unit 113 detects, for example, the feature points of an object that is shown in the surrounding environment image of the vehicle V captured by the imaging unit 40 and exists in the real space in the indicated direction, and the detected feature points The set is acquired as a three-dimensional point group in the real space in the indicated direction.
  • the imaging unit 40 is a stereo camera.
  • the object information acquisition unit 114 acquires information indicating the object existing in the real space based on the information indicating the three-dimensional point group in the real space in the indicated direction specified by the coordinate acquisition unit 113.
  • the object information acquisition unit 114 transmits, for example, information indicating the three-dimensional point group in the real space in the indicated direction specified by the coordinate acquisition unit 113 to the interface device 800 via the network NW.
  • the control unit 810 of the interface device 800 receives information indicating the three-dimensional point group from the in-vehicle effect device 3
  • the control unit 810 searches the object information 820-1 using the information as a search key, and the three-dimensional point group indicated by the information. An object associated with is identified.
  • the control unit 810 transmits information indicating the identified object to the in-vehicle effect device 3 via the network NW.
  • the object information acquisition unit 114 acquires information indicating the object received from the interface device 800.
  • the service provider identifying unit 115 identifies the service provider associated with the object acquired by the object information acquiring unit 114. For example, the service provider specifying unit 115 transmits information indicating the object acquired by the object information acquiring unit 114 to the interface device 800 via the network NW.
  • the control unit 810 of the interface device 800 acquires information indicating an object from the in-vehicle effect device 3
  • the controller 810 searches the servicer information 820-2 using the information as a search key, and associates the information with the object indicated by the information. Identify service providers.
  • the control unit 810 transmits information indicating the identified object to the in-vehicle effect device 3 via the network NW.
  • the service provider specifying unit 115 acquires information indicating the service provider received from the interface device 800.
  • the history information generation unit 116 generates history information 500-2 indicating the history of the instruction target designated by the occupant PS through the instruction operation.
  • FIG. 12 is a diagram showing an example of the contents of the history information 500-2.
  • the history information 500-2 includes an occupant ID, a date and time when the occupant PS performed an instruction operation (hereinafter referred to as an instruction date and time), an instruction object instructed by the instruction operation of the occupant PS, and an instruction object.
  • the history information generation unit 116 is, for example, an indication date and time when the instruction operation of the occupant PS is acquired by the operation information acquisition unit 12 and an object indicated by the information acquired by the object information acquisition unit 114.
  • the instructed object is a service provider indicated by the information acquired by the service provider specifying unit 115, the service object corresponding to the instructed object is associated with the occupant ID of the occupant PS, History information 500-2 is generated and stored in the storage unit 500A.
  • a target object and a service provider it can set arbitrarily, for example, it is not essential that a target object is a property of a service provider.
  • a non-business object for example, a sign or a signal in the first embodiment
  • the notification unit 117 notifies the service provider associated with the object instructed by the occupant PS that the instruction target has been instructed by the occupant PS.
  • FIG. 13 is a diagram showing an example of the contents of the service provider information 500-3.
  • the service provider information 500-3 is information in which information indicating a service provider (a service provider name illustrated) and a notification destination are associated with each other.
  • the notification unit 117 searches the service provider information 500-3 using the service provider specified by the service provider specifying unit 115 as a search key, and the occupant PS instructs the notification destination associated with the service provider.
  • the operation is performed, that is, the occupant PS notifies that the service provider is interested in the object associated with the service provider.
  • the address of the service provider terminal device TM (for example, a server device) is indicated in the notification destination.
  • the notification unit 117 may notify the service provider every time the occupant PS performs an instruction operation.
  • the notification unit 117 extracts the history information 500-2 for a predetermined period for each associated service provider.
  • the service provider may be notified.
  • the notification unit 117 may notify the occupant PS in addition to notifying the history information 500-2 to the service provider.
  • the occupant PS can use the history information 500-2 as information indicating his / her interest.
  • the occupant PS can acquire information related to the service provider who has performed the instruction operation by referring to the notified history information 500-2.
  • the in-vehicle performance device 3 of the present embodiment includes the motion detection unit 30 that detects the motion of the occupant PS of the vehicle V, the line-of-sight detection unit 90 that detects the viewpoint position of the occupant PS, and the motion detection unit 30.
  • An object associated with the 3D point group acquired by the coordinate acquisition unit 113 is obtained from the acquisition unit 112 and the interface device 800 that supplies information indicating the object existing in the real space indicated by the 3D point group.
  • the object information acquisition unit 114 that acquires information and the servicer information 820-2 that indicates the service provider associated with the object are acquired by the object information acquisition unit.
  • a service provider specifying unit 115 for specifying a service provider associated with the object indicated by the broadcast A history information generating unit that generates 800-2 in which the service provider specified by the service provider specifying unit 115 is associated with the object indicated by the information acquired by the object information acquiring unit 114; By acquiring the history of the instruction operation performed by the occupant PS, information related to the interest of the occupant PS can be collected. In addition, according to the in-car presentation device 3 of the present embodiment, it is possible to notify the service provider associated with the object for which the instruction operation has been performed that the instruction operation has been performed.
  • the coordinate acquisition unit 113 may be configured to select and transmit a three-dimensional point group to be transmitted to the interface device 800 from the acquired three-dimensional point group based on the attribute of the surrounding environment of the vehicle V. .
  • the attribute specifying unit 118 specifies the attribute of the surrounding environment of the vehicle V based on the surrounding environment image of the vehicle V imaged by the imaging unit 40.
  • This attribute is, for example, the nature (feature) of the surrounding environment of the vehicle V, such as an expressway or a crowded area of stores.
  • the attribute specifying unit 118 analyzes, for example, whether a highway traffic road sign is captured in the surrounding environment image of the vehicle V captured by the image capturing unit 40 or a large number of store signs are captured, and the vehicle V Identify the surrounding environment attributes.
  • the attribute the property (feature) of the surrounding environment is mentioned, but it is not limited to this.
  • a part or all of the attributes of the identifiable object may be specified in a form enumerated with respect to coordinates, directions, and the like.
  • the attribute specifying unit 118 transmits an ambient environment image of the vehicle V captured by the imaging unit 40 to the interface device 800 via the network NW, and the interface device 800 specifies an attribute of the ambient environment of the vehicle V. There may be. In this case, the attribute specifying unit 118 transmits the ambient environment image of the vehicle V captured by the imaging unit 40 via the network NW, and acquires information indicating the attribute of the ambient environment of the vehicle V from the interface device 800. Identify attributes.
  • the attribute specifying unit 118 may be configured to specify the attribute of the surrounding environment of the vehicle V based on the position attribute information in which the position information and the attribute are associated, for example.
  • the position attribute information may be stored in the storage unit 500A or may be stored in the storage unit 820.
  • the attribute specifying unit 118 transmits information indicating the current position of the vehicle V via the network NW, and receives information indicating the surrounding environment of the vehicle V from the interface device 800. By acquiring, specify the attribute.
  • the coordinate acquisition unit 113 transmits information indicating the three-dimensional point group to the interface device 800 based on the attribute specified by the attribute specifying unit 118.
  • the coordinate acquisition unit 113 is a range instructed by the instruction operation, and the range for acquiring the three-dimensional point group is made narrower than usual. The amount of data transmitted to 800 can be reduced.
  • the in-vehicle performance device 3 can generate the history information 500-2 enriched with information. That is, as described in the first embodiment, various displays and effects are given to the occupant based on the instruction operation including the occupant's operation irrelevant to the driving, which is measured by the instruction measurement device as one aspect of the invention. On the other hand, by appropriately recording and holding the instruction operation and its history, information can be reused and utilized for other purposes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

車内演出装置は、車両上の乗員が行うゲームを演出する車内演出装置であって、車両の運転とは無関係な前記乗員の動作を検出する動作検出部と、前記乗員が視認可能な画像を表示する表示部と、前記動作検出部が検出した前記乗員の動作に基づいて、前記乗員の動作に応じた応答画像を前記表示部に表示するとともに、所定の規則に基づくゲームの結果を出力する表示制御部と、を備える。

Description

車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置
 本発明は、車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置に関する。
 本願は、2017年6月16日に、日本に出願された特願2017‐119025号に基づき優先権を主張し、その内容をここに援用する。
 従来、車両の運転者の運転技術の得点を算出する技術が知られている(例えば、特許文献1)。
特開2015-90676号公報
 従来の技術は、車両の乗員に対して娯楽性を提供するものではなかった。本発明は、上記問題に鑑みて為されたものであり、車両の乗員に対して車両による移動に娯楽性を提供することを目的とする。
 この発明に係る車内演出装置、車内演出システム、車内演出方法およびプログラムは、以下の構成を採用した。
 (1)この発明の一態様は、車両上の乗員が行うゲームを演出する車内演出装置であって、車両の運転とは無関係な前記乗員の動作を検出する動作検出部(30)と、前記乗員が視認可能な画像を表示する表示部(60)と、前記動作検出部が検出した前記乗員の動作に基づいて、前記乗員の動作に応じた応答画像を前記表示部に表示するとともに、所定の規則に基づくゲームの結果を出力する表示制御部(18)と、を備える車内演出装置である。
 (2)は、(1)の態様の車内演出装置であって、前記表示制御部は、前記車両の周囲環境の物体に前記応答画像を重畳させて前記表示部に表示させてもよい。
 (3)は、(2)の態様の車内演出装置であって、前記乗員の動作とは、前記周囲環境の物体を指示する動作であって、前記動作検出部は、前記乗員が指示する方向を検出し、前記表示制御部は、前記動作検出部が検出した方向に基づいて、指示する方向の特定の物体と重なるように前記応答画像を前記表示部に表示させてもよい。
 (4)は、(2)又は(3)の態様の車内演出装置であって、の車内演出装置は、前記動作検出部が特定の物体を指示する動作を検出した回数を有効得点として算出する得点算出部(17)を更に備え、前記表示制御部は、所定のタイミングにおいて、前記得点算出部が算出した前記得点を示す画像を前記表示部に表示させてもよい。
 (5)は、(4)の態様の車内演出装置であって、前記特定の物体とは、目的地までの前記特定の道路標識であって、目的地を示す目的地情報を取得する目的地情報取得部(14)と、前記周囲環境を撮像し、周囲環境画像を生成する撮像部(40)と、前記周囲環境画像のうち、前記目的地情報が示す前記目的地までの前記特定の道路標識を抽出する抽出部(16)と、を更に備え、前記得点算出部は、前記抽出部が抽出した前記道路標識に対応する位置を指示する前記乗員の動作を前記動作検出部が検出した回数を有効得点として算出してもよい。
 (6)は、(5)の態様の車内演出装置であって、前記特定の物体とは、車両の近傍を走行する他の車両であって、前記抽出部は、前記周囲環境画像のうち、前記他の車両を抽出し、前記得点算出部は、前記抽出部が抽出した前記他の車両に対応する位置を指示する前記乗員の動作を前記動作検出部が検出した回数を有効得点として算出してもよい。
 (7)は、(5)又は(6)の態様の車内演出装置であって、前記特定の物体とは、前記車両の周囲に存在する店舗の看板であって、前記抽出部は、前記周囲環境画像のうち、前記看板を抽出し、前記得点算出部は、前記抽出部が抽出した前記看板に対応する位置を指示する前記乗員の動作を前記動作検出部が検出した回数を有効得点として算出してもよい。
 (8)は、(4)から(7)のいずれか1つの態様の車内演出装置であって、前記表示制御部は、前記得点算出部が算出した前記得点の合計を示す画像を前記表示部に表示させてもよい。
 (9)は、(4)から(8)のいずれか1つの態様の車内演出装置を複数備える車内演出システムであって、前記車内演出装置は、前記得点算出部が算出した前記得点を示す情報を他の車内演出装置に送信する送信部(80)と、前記他の車内演出装置が算出した前記得点を示す得点情報を受信する受信部(80)と、を備え、前記表示制御部は、前記得点算出部が算出した前記得点を示す画像と、前記受信部が受信した前記得点情報の前記得点を示す画像とを前記表示部に表示させる、車内演出システムである。
 (10)は、(9)の態様の車内演出システムにおいて、前記表示制御部は、自装置と同一のチームに属する車両に搭載される前記車内演出装置から受信した前記得点情報の前記得点を示す画像と、他のチームに属する車両に搭載される前記車内演出装置から受信した前記得点情報の前記得点を示す画像とを比較して前記表示部に表示させてもよい。
 (11)は、(9)又は(10)の態様の車内演出システムにおいて、前記表示制御部は、自装置を搭載する車両の行動を示す情報、及び他の車内演出装置を搭載する車両の行動を示す情報に基づいて、移動を促す画像を表示させてもよい。
 (12)は、表示部を備え、車両上の乗員が行うゲームを演出するコンピュータが、車両の運転とは無関係な前記乗員の動作を検出し、前記乗員が視認可能な画像を表示し、検出した前記乗員の動作に基づいて、前記乗員の動作に応じた応答画像を表示するとともに、所定の規則に基づくゲームの結果を出力する、車内演出方法である。
 (13)は、表示部を備え、車両上の乗員が行うゲームを演出するコンピュータに、車両の運転とは無関係な前記乗員の動作を検出させ、前記乗員が視認可能な画像を表示させ、検出した前記乗員の動作に基づいて、前記乗員の動作に応じた応答画像を表示させるとともに、所定の規則に基づくゲームの結果を出力させる、プログラムである。
 (14)この発明の一態様は、車両の乗員の動作を検出する動作検出部と、前記乗員の視点位置を検出する視線検出部と、前記動作検出部によって検出された前記乗員の指示動作と、前記視線検出部によって検出された前記乗員の視点位置とに基づいて、前記乗員の指示動作による指示方向の実空間の三次元点群を取得する座標取得部と、三次元点群が示す実空間に存在する対象物を示す情報を供給するインタフェースから、前記座標取得部によって取得された前記三次元点群に対応付けられた対象物を示す情報を取得する対象物情報取得部と、対象物に対応付けられるサービス提供者を示すサービサー情報に基づいて、前記対象物情報取得部によって取得された情報が示す対象物に対応付けられるサービス提供者を特定するサービス提供者特定部と、前記サービス提供者特定部によって特定された前記サービス提供者と、前記対象物情報取得部によって取得された情報が示す対象物とを対応付けた履歴情報を生成する履歴情報生成部と、を備える指示計測装置である。
 (15)は、(14)の態様の指示計測装置において、前記履歴情報には、前記指示動作が行われた時期と、前記乗員を示す情報とが更に対応付けられるものである。
 (16)は、(14)または(15)の態様の指示計測装置において、周囲環境を撮像し、周囲環境画像を生成する撮像部と、前記撮像部によって撮像された前記周囲環境画像に基づいて、前記周囲環境の属性を特定する属性特定部と、を更に備え、前記座標取得部は、前記属性特定部によって特定された前記周囲環境の属性に基づいて、前記乗員の指示動作による指示方向の実空間の三次元点群を取得するものである。
 (17)は、(14)から(16)のいずれか1つの態様の指示計測装置において、前記履歴情報に示される前記サービス提供者に対し、前記指示動作が行われたことを通知する通知部、を更に備えるものである。
 (18)は、(17)の指示計測装置において、前記通知部は、前記履歴情報を前記乗員に通知するものである。
 (19)は、(14)から(18)のいずれか1つの態様の指示計測装置において、周囲環境を撮像し、周囲環境画像を生成する撮像部を更に備え、前記座標取得部は、周囲環境画像に基づいて三次元点群を供給するインタフェースから、前記撮像部によって撮像された前記周囲環境画像に基づく三次元点群を示す情報を取得するものである。
 上述した(1)~(19)の態様によれば、車両の乗員に対して車両による移動に娯楽性を提供することができる。
第1の実施形態に係る車内演出装置の概要を示す図である。 第1の実施形態に係る車内演出装置の構成の一例を示す機能構成図である。 射撃動作を検出したことを示す応答画像の一例を示す図である。 射撃したことを示す応答画像の一例を示す図である。 得点情報の得点を示す応答画像の一例を示す図である。 第1の実施形態に係る車内演出装置の動作の一例を示す流れ図である。 第2の実施形態に係る車内演出装置の構成の一例を示す機能構成図である。 第2の実施形態に係る他の車内演出装置が表示した応答画像の表示の一例を示す図である。 走行経路に基づくテリトリー面積ルールによる射撃ゲームの結果の一例を示す図である。 テリトリー面積ルールによる射撃ゲームの勝敗の一例を示す図である。 第3の実施形態に係る車内演出装置の構成の一例を示す機能構成図である。 履歴情報の内容の一例を示す図である。 サービス提供者情報の内容の一例を示す図である。
[第1の実施形態]
 以下、図を参照して本発明の第1の実施形態について説明する。図1は、第1の実施形態に係る車内演出装置1の概要を示す図である。車内演出装置1は、車両(以下、車両V)によって移動する当該車両Vの乗員(以下、乗員PS)に対して、娯楽を提供する装置である。車内演出装置1は、例えば、車両Vの移動中に、車両Vの周囲環境に存在する物体を射撃対象とする射撃ゲームを演出する。本実施形態の一例において、車両Vは、自動運転によって走行する。車内演出装置1は、車両V内に配置される。また、車両Vには、音検出部20、動作検出部30、撮像部40、入力部50およびディスプレイ60が配置される。
 音検出部20は、乗員PSが発する音声を検出する。音検出部20とは、例えば、マイクロフォンである。動作検出部30は、乗員PSの動作を検出する。動作検出部30とは、例えば、モーションセンサである。撮像部40は、車両Vが走行する周囲環境を撮像する。入力部50は、入力デバイスを備え、乗員PSの入力操作を受け付ける。この入力デバイスには、キーボード等の文字情報を入力するデバイス、マウス、タッチパネル等のポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等が含まれる。ディスプレイ60は、車内演出装置1の制御に基づいて、各種情報を表示する。本実施形態の一例において、ディスプレイ60は、透過型ディスプレイであって、車両Vのフロントウィンドウに接して配置される。乗員PSは、フロントウィンドウから車両Vの周囲環境と、ディスプレイ60が表示する画像とを視認可能である。なお、車両Vは、フロントウィンドウを備えていなくてもよい。この場合、ディスプレイ60は、撮像部40が撮像する車両Vの周囲環境画像と、応答画像とを重畳して表示する。なお、ディスプレイ60は、HUD(Head-Up Display)であってもよい。
 車内演出装置1は、音検出部20および動作検出部30が検出した検出結果と、入力部50に入力された情報とに基づいて、乗員PSの動作に応じた応答画像を、ディスプレイ60に表示する。車内演出装置1は、例えば、乗員PSが、車両Vの周囲環境に存在する物体を射撃する動作(以下、射撃動作)に基づいて、応答画像を提示したり、当該射撃動作に伴う得点を算出したりする。以下、車内演出装置1の具体的な構成について説明する。
[車内演出装置の機能構成について]
 図2は、第1の実施形態に係る車内演出装置1の構成の一例を示す機能構成図である。
車内演出装置1は、制御部10と、音検出部20と、動作検出部30と、撮像部40と、入力部50と、ディスプレイ60と、記憶部500とを備える。記憶部500には、応答画像を示す情報(以下、応答画像情報500-1)が記憶される。
 制御部10は、例えば、CPU(Central Processing Unit)などのプロセッサが記憶部500に記憶されたプログラムを実行し、音声情報取得部11と、動作情報取得部12と、画像情報取得部13と、目的地情報取得部14と、ゲーム管理部15と、抽出部16と、得点算出部17と、表示制御部18とをその機能部として実現する。これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 音声情報取得部11は、音検出部20が検出した乗員PSの音声を示す音声情報を取得する。動作情報取得部12は、動作検出部30が検出した乗員PSの動作を示す動作情報を取得する。本実施形態の一例において、乗員PSは、射撃音を模倣する音声を発し、かつ車両Vの周囲環境に存在する物体(射撃対象)を指で指示する動作を、射撃動作として行う。したがって、音声情報には、射撃音を模倣する音声が含まれる。図1に示す「バン!」は、乗員PSが射撃音を模倣する音声の内容を示している。また、動作情報には、射撃対象を指示する指示動作が含まれる。音声情報取得部11は、取得した音声情報を表示制御部18と、得点算出部17とに出力する。また、動作情報取得部12は、取得した動作情報を表示制御部18と、得点算出部17とに出力する。
 画像情報取得部13は、撮像部40が車両Vの走行する周囲環境を撮像し、生成した周囲環境画像を示す情報(以下、画像情報)を取得する。画像情報取得部13は、取得した画像情報を抽出部16に出力する。目的地情報取得部14は、入力部50に入力された操作によって示される目的地を示す情報(以下、目的地情報)を取得する。車両Vは、例えば、目的地情報取得部14が取得した目的地情報が示す目的地に向かって、自動運転によって走行する。また、目的地情報取得部14は、目的地情報を表示制御部18に出力する。
 ゲーム管理部15は、車内演出装置1が演出する射撃ゲームを管理する。ゲーム管理部15は、例えば、射撃ゲームの開始および終了を管理する。ゲーム管理部15は、例えば、入力部50に入力された操作が射撃ゲームの開始を示す場合、射撃ゲームを開始させる処理を実行する。また、ゲーム管理部15は、入力部50に入力された操作が射撃ゲームの終了を示す場合、射撃ゲームを終了させる処理を実行する。射撃ゲームを開始させる処理とは、抽出部16、得点算出部17および表示制御部18に各種処理の実行を許可する処理(以下、イネーブル処理)である。また、射撃ゲームを終了させる処理とは、抽出部16、得点算出部17および表示制御部18に各種処理の実行を許可しない処理(以下、ディスエイブル処理)である。抽出部16、得点算出部17および表示制御部18は、ゲーム管理部15がイネーブル処理を実行する場合、各種処理を実行し、ゲーム管理部15がディスエイブル処理を実行する場合、各種処理を実行しない。
 なお、上述では、ゲーム管理部15が、入力部50に入力された操作に基づいて、射撃ゲームの開始および終了を示す情報を取得する場合について説明したが、これに限られない。射撃ゲームの開始および終了は、乗員PSの音声によって指示されてもよい。この場合、ゲーム管理部15は、音検出部20の検出結果に基づいて、射撃ゲームの開始および終了を管理してもよい。また、ゲーム管理部15は、音検出部20や動作検出部30の検出結果に基づいて、車両Vの車内環境の盛り上がり度を判定する構成であってもよい。ゲーム管理部15は、車両Vの車内環境の盛り上がり度が低い場合、自動的にイネーブル処理を実行してもよい。この場合、車内演出装置1は、車内が盛り上がっていない時に射撃ゲームを演出し、車内を盛り上げることができる。また、ゲーム管理部15は、車両Vの車内環境の盛り上がり度が低い場合、自動的にディセエイブル処理を実行してもよい。この場合、車内演出装置1は、演出した射撃ゲームによって車内が盛り上がっていない時に射撃ゲームを終了することができる。
 抽出部16は、画像情報取得部13から画像情報が入力される。抽出部16は、画像情報が示す周囲環境画像に対して画像認識処理を行い、乗員PSの射撃対象の物体を抽出する。抽出部16は、例えば、車両Vの近傍を走行する前方車両、後方車両、並走車両および対向車両や、車両Vの周囲に存在する店舗の看板や、道路標識等の物体を乗員PSの射撃対象として抽出する。また、抽出部16は、周囲環境画像に基づいて、車両Vの周囲に存在する実際の物体の位置と、抽出した物体(射撃対象)の位置とをマッチングし、射撃対象の位置を示す情報を得点算出部17に出力する。
 具体的には、抽出部16は、周囲環境画像に対して画像認識処理を行い、周囲環境画像に撮像される各種物体の当該周囲環境画像上における位置を認識する。また、抽出部16は、フロントウィンドウに周囲環境画像を実物大に提示した場合のフロントウィンドウ上の位置と、抽出した物体(射撃対象)の周囲環境画像上における位置とをマッチングする。抽出部16は、フロントウィンドウの位置を、射撃対象の仮想的な位置を示す仮想位置情報として、得点算出部17と、表示制御部18とに出力する。
 得点算出部17は、音声情報取得部11から入力された音声情報と、動作情報取得部12が取得した動作情報と、抽出部16から入力された仮想位置情報とに基づいて、乗員PSの動作に対する得点を算出する。例えば、音声情報が射撃音を模倣する音声を示し、かつ動作情報が示す指示動作の指示方向が、仮想位置情報が示す射撃対象の位置の方向である場合、得点算出部17は、乗員PSの動作に対して高い得点を算出する。また、音声情報が射撃音を模倣する音声を示し、かつ動作情報が示す指示動作の指示方向が、仮想位置情報が示す射撃対象の位置の方向ではない場合、得点算出部17は、乗員PSの動作に対して低い得点を算出する。得点算出部17は、算出した得点を示す得点情報を表示制御部18に出力する。
 表示制御部18は、音声情報取得部11から入力された音声情報と、動作情報取得部12から入力された動作情報と、目的地情報取得部14から入力された目的地情報と、抽出部16から入力された仮想位置情報と、得点算出部17から入力された得点情報とに基づいて、応答画像をディスプレイ60に表示する。以下、表示制御部18がディスプレイ60に表示する応答画像の具体例について説明する。
[射撃動作を検出したことを示す応答画像の例]
 図3は、射撃動作を検出したことを示す応答画像GP1Aの一例を示す図である。表示制御部18は、音声情報が射撃音を模倣する音声を示し、かつ動作情報が指示動作を示す場合、射撃動作を検出したことを示す応答画像(図示する応答画像GP1A)をディスプレイ60に表示する。図3に示す通り、応答画像GP1Aとは、例えば、射撃が射撃対象に命中したことを示す画像である。表示制御部18は、応答画像GP1Aを提示し、乗員PSに対して、射撃動作を検出したことを明示する。
[射撃したことを示す応答画像の例]
 図4は、射撃したことを示す応答画像GP1Bの一例を示す図である。表示制御部18は、射撃したことを示す応答画像GP1B(図示する応答画像GP1B-1~GP1B-4)をディスプレイ60に表示する。図4に示す通り、応答画像GP1Bとは、例えば、所定の領域にインクが塗布されたような画像である。表示制御部18は、動作情報が示す指示方向に応答画像GP1Bを提示し、乗員PSに対して射撃動作が行われたことを明示する。また、表示制御部18は、射撃対象に重畳するように応答画像GP1Bを表示してもよい。具体的には、表示制御部18は、対向車両に重畳するように応答画像(図示する応答画像GP1B-1)を表示してもよい。また、表示制御部18は、道路標識に重畳するように応答画像(図示する応答画像GP1B-2)を表示してもよい。また、表示制御部18は、車両Vの周辺に存在する店舗の看板に重畳するように応答画像(図示する応答画像GP1B-3)を表示してもよい。また、表示制御部18は、指示動作が示す方向に射撃対象が存在しない場合、当該方向の路面上に応答画像(図示する応答画像GP1B-4)を表示してもよい。
 なお、表示制御部18は、車両Vの移動に伴い、射撃対象が接近又は離隔することに応じて、応答画像GP1Bが示す所定の領域を拡大又は縮小して表示する構成であってもよい。具体的には、表示制御部18は、応答画像GP1Bが示す所定の領域が、所定の面積を示すように拡大又は縮小する構成であってもよい。
[得点を示す応答画像の例]
 図5は、得点情報の得点を示す応答画像GP1Cの一例を示す図である。表示制御部18は、得点情報が示す得点であって、乗員PSの動作に基づいて算出された得点を示す応答画像(図示する応答画像GP1C)をディスプレイ60に表示する。図5に示す通り、応答画像GP1Cとは、例えば、得点を数値によって示す画像である。表示制御部18は、応答画像GP1Cを提示し、乗員PSに対して当該乗員PSの射撃動作に対する評価を明示する。なお、応答画像GP1Cは、得点をレベルによって示す画像であってもよい。
具体的には、応答画像GP1Cは、得点に応じて乗員PSのレベルを示す画像(例えば、「初心者」、「一人前」、「玄人」、「名人」、「達人」」等)を提示してもよい。
[車内演出装置の動作について]
 図6は、第1の実施形態に係る車内演出装置1の動作の一例を示す流れ図である。音声情報取得部11は、音検出部20から音声情報を常時、又は所定の時間間隔において取得する(ステップS110)。動作情報取得部12は、動作検出部30から動作情報を常時、又は所定の時間間隔において取得する(ステップS120)。画像情報取得部13は、撮像部40から画像情報を常時、又は所定の時間間隔において取得する(ステップS130)。目的地情報取得部14は、入力部50に入力された操作によって示される目的地情報を取得する(ステップS140)。乗員PSは、例えば、車両Vの走行を開始させる際等に、入力部50によって目的地情報を入力する。
 ゲーム管理部15は、ゲームの開始および終了を管理する(ステップS145)。ゲーム管理部15は、入力部50に入力された操作が射撃ゲームの開始を示す場合、処理をステップS150に進める。また、ゲーム管理部15は、入力部50に入力された操作が射撃ゲームの開始を示さない場合および、既に開始された射撃ゲームの終了を示す場合、処理を終了する。
 抽出部16は、動作情報取得部12が取得した画像情報が示す周囲環境画像に対して画像処理を行い、射撃対象を抽出し、仮想位置情報を生成する(ステップS150)。抽出部16は、例えば、画像情報取得部13が画像情報を取得する毎に射撃対象を抽出し、仮想位置情報を生成する。得点算出部17は、音声情報取得部11が取得した音声情報と、動作情報取得部12が取得した動作情報とに基づいて、乗員PSが射撃動作を行ったか否かを判定する(ステップS160)。得点算出部17は、乗員PSが射撃動作を行ったと判定する場合、動作情報と、画像情報取得部13が取得した画像情報および抽出部16が生成した仮想位置情報に基づいて、乗員PSの動作に対する得点を算出する(ステップS170)。また、得点算出部17は、乗員PSが射撃動作を行っていないと判定する場合、乗員PSの動作に対する得点を算出せず、処理をステップS180に進める。表示制御部18は、音声情報、動作情報、目的地情報および仮想位置情報に基づいて、応答画像をディスプレイ60に表示する(ステップS180)。
 なお、上述では、射撃動作が、射撃音を模倣する音声を発し、かつ車両Vの周囲環境に存在する射撃対象を指で指示する動作である場合について説明したが、これに限られない。射撃動作は、例えば、射撃音を模倣する音声を発する動作、又は車両Vの周囲環境に存在する射撃対象を指示する動作のいずれか一方であってもよい。この場合、車内演出装置1は、射撃動作として用いない情報を検出する検出部(音検出部20、又は動作検出部30)を備えていなくてもよい。
[第1の実施形態のまとめ]
 以上説明したように、本実施形態の車内演出装置1は、車両Vの乗員PSの動作を検出する動作検出部30と、動作検出部30が検出した乗員PSの動作に基づいて、乗員PSの動作に応じた応答画像(この一例では、応答画像GP1A-1)の表示を制御する表示制御部18とを備える。したがって、本実施形態の車内演出装置1は、車両Vによって移動する乗員PSに対して、娯楽を提供することができる。
 また、本実施形態の車内演出装置1は、表示制御部18が、車両Vの周囲環境の物体(射撃対象)に応答画像(この一例では、応答画像GP1B-1~GP1B-3)を重畳して表示する。また、本実施形態の車内演出装置1において、射撃対象とは、周囲環境の物体を指示する動作であって、動作検出部30は、乗員PSが指示する方向(この一例では、動作情報)を検出し、表示制御部18は、動作検出部30が検出した動作情報に基づいて、応答画像(この一例では、応答画像GP1B-1~GP1B-4)を表示する。また、本実実施形態の車内演出装置1は、動作情報と、仮想位置情報とに基づいて、得点を算出する得点算出部17を更に備え、表示制御部18は、得点算出部17が算出した得点を示す応答画像(この一例では、応答画像GP1C)を更に表示する。これにより、本実施形態の車内演出装置1は、応答画像をより娯楽性の高い演出によってディスプレイ60に表示し、乗員PSの射撃動作に対する意欲を向上させることができる。
[射撃ゲームのルールと得点について]
 なお、上述では、得点算出部17が、動作情報が示す指示動作の方向と、射撃対象の位置とに基づいて、得点を算出する構成について説明したが、これに限られない。得点算出部17は、車内演出装置1が演出する射撃ゲームのルールに則して得点を算出する構成であってもよい。射撃ゲームのルールとは、例えば、目的地情報が示す目的地方向の道路標識を射撃対象とするルール、ある特定の車種の車両を射撃対象とするルール、店舗の看板を射撃対象とするルール等である。このルールの場合、抽出部16が抽出した射撃対象のうち、ルールに則した射撃対象を指示する射撃動作に対して、高得点を算出する。
 また、得点算出部17は、応答画像GP1B(所定の領域にインクが塗布されたような画像)が表示される面積に基づいて、得点を算出する構成であってもよい。以降の説明において、応答画像GP1Bが表示される面積に基づいて得点を算出するルールを、テリトリー面積ルールと記載する。テリトリー面積ルールにおいて、得点算出部17は、応答画像GP1Bによって示されるインクの面積に応じて得点を算出する。これにより、本実施形態の車内演出装置1は、応答画像をより娯楽性の高い演出によってディスプレイ60に表示し、乗員PSの射撃動作に対する意欲を向上させることができる。
 なお、上述では、ゲーム管理部15がディスエイブル処理を行う場合、抽出部16、得点算出部17および表示制御部18が各種処理を実行しない場合について説明したが、これに限られない。例えば、ゲーム管理部15がディスエイブル処理を行う場合、表示制御部18のみが各種処理を実行しない構成であってもよい。この場合、各種機能部は処理を実行するが、ディスプレイ60には、各種画像が表示されない。
[第2の実施形態]
 以下、図を参照して本発明の第2の実施形態について説明する。第2の実施形態では、車両Vの位置に応じて画像を表示する車内演出装置2について説明する。また、他の車両Vに搭載される車内演出装置2が表示する画像を、自装置のディスプレイ60に表示する車内演出装置2について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。
 図7は、第2の実施形態に係る車内演出装置2の構成の一例を示す機能構成図である。車内演出装置2は、制御部10Aと、音検出部20と、動作検出部30と、撮像部40と、入力部50と、ディスプレイ60と、位置検出部70と、通信部80と、記憶部500とを備える。
 位置検出部70は、車両Vが走行する位置を検出する。位置検出部70は、例えば、GPS(Global Positioning System)などの全地球航法衛星システム(Global Navigation Satellite System(s):GNSS)を利用した方法や、準天頂衛星(quasi-zenith satellites:QZS)などの地域的衛星測位システム(Regional Navigation Satellite System:RNSS)を利用した方法によって車両Vの位置を検出する。位置検出部70は、車両Vの位置を示す位置情報を制御部10Aに出力する。
 通信部80は、車内演出装置2の処理に用いられる情報を集約するサーバ(不図示)と無線通信によって通信する。無線通信とは、例えば、Wi-Fi(登録商標)による近距離無線通信や、LTE(Long Term Evolution)などの移動体通信網を介した無線通信等である。なお、車両V間で直接通信を行ってもよい。この場合、車両V間は、DSRC(Dedicated Short Range Communications)等のアドホックネットワークを用いて通信を行う。
 制御部10Aは、記憶部500に記憶されたプログラムを実行し、音声情報取得部11と、動作情報取得部12と、画像情報取得部13と、目的地情報取得部14と、ゲーム管理部15と、抽出部16と、得点算出部17と、表示制御部18と、位置情報取得部19とをその機能部として実現する。
 位置情報取得部19は、位置検出部70から位置情報を取得する。位置情報取得部19は、常時、又は所定の時間間隔において位置情報を取得する。位置情報取得部19は、取得した位置情報を表示制御部18と、通信部80とに出力する。また、本実施形態の表示制御部18は、ディスプレイ60に表示させる応答画像を常時、又は所定の時間間隔において通信部80に出力する。
 通信部80は、位置情報取得部19から入力された位置情報と、表示制御部18から入力された応答画像とを対応付けて、サーバに送信する。以降の説明において、位置情報と、応答画像とが対応付けられた情報を位置画像情報と記載する。また、通信部80は、他の車内演出装置2がサーバに送信した位置画像情報を受信する。具体的には、通信部80は、位置情報取得部19から入力される位置情報に基づいて、当該位置情報が対応付けられた位置画像情報を受信する。換言すると、通信部80は、車両Vの現在の位置を示す位置情報が対応付けられた位置画像情報をサーバから受信する。通信部80は、受信した位置画像情報を表示制御部18に出力する。
 本実施形態の表示制御部18は、通信部80から位置画像情報が入力される。表示制御部18は、位置情報取得部19から入力された位置情報と合致する位置情報が対応付けられた位置画像情報の応答画像を、ディスプレイ60に表示する。つまり、表示制御部18は、他の車内演出装置2が現在の車両Vの位置において過去に表示した応答画像を、ディスプレイ60に表示させる。
[他の車内演出装置が表示した応答画像の表示の例]
 図8は、第2の実施形態に係る他の車内演出装置2が表示した応答画像の表示の一例を示す図である。表示制御部18は、自装置の処理に基づく応答画像(図示する応答画像GP1B-1~GP1B-3)と、他の車内演出装置2が現在の位置で過去に表示した応答画像(図示する応答画像GP2-1~GP2-3および応答画像GP3-1~GP3-2)とを表示する。図示する応答画像GP2-1~GP2-3は、他の車内演出装置2が、現在の車両Vの位置において過去に表示した応答画像である。また、図示する応答画像GP3-1~GP3-2は、さらに他の車内演出装置2が、現在の車両Vの位置において過去に表示した応答画像である。
[第2の実施形態のまとめ]
 以上説明したように、本実施形態の車内演出装置2は、位置検出部70が車両Vの位置を検出し、通信部80は、位置画像情報の送受信を行い、表示制御部18は、自装置の処理に基づく応答画像(図示する応答画像GP1B-1~GP1B-3)と、他の車内演出装置2が、現在の車両Vの位置において過去に表示した応答画像(図示する応答画像GP2-1~GP2-3および応答画像GP3-1~GP3-2)を表示する。これにより、本実施形態の車内演出装置2は、乗員PS以外の他者が射撃ゲームを行った応答画像をディスプレイ60に表示し、乗員PSの競争心を向上させ、射撃動作に対する意欲を向上させることができる。
[テリトリー面積ルールによる対決]
 なお、車内演出装置2が演出する射撃ゲームは、位置画像情報に基づいて、乗員PSと、他者との間においてテリトリー面積ルールによる対決を行う構成であってもよい。具体的には、得点算出部17は、位置画像情報に示される他者の応答画像(図8に示す応答画像GP2-1~GP2-3および応答画像GP3-1~GP3-2)の面積に基づいて、得点を算出する。また、得点算出部17は、自装置の処理に基づいて表示する応答画像(図8に示す応答画像GP1B-1~GP1B-3)の面積に基づいて、得点を算出する。
車内演出装置2は、高い得点の応答画像を表示した車内演出装置2(車両V)の乗員PSを勝者として判定する。
[テリトリー面積ルールによる対決:チーム戦]
 また、テリトリー面積ルールによる射撃ゲームをチーム戦によって行う構成であってもよい。例えば、テリトリー面積ルールによる射撃ゲームが複数チーム(赤チーム、青チームおよび黄チーム等)によって行われる構成であってもよい。この場合、得点算出部17は、位置画像情報の応答画像のうち、自装置の応答画像のインクの色と合致する色の応答画像の面積と、自装置の処理に基づいて表示する応答画像の面積との和を、自チームの得点として算出する。また、車内演出装置2は、得点の高いチームを勝者として判定する。
[走行経路に基づくテリトリー面積ルール]
 また、上述では、乗員PSの射撃動作に応じた応答画像の面積に基づいて、テリトリー面積ルールの射撃ゲームを行う場合について説明したが、これに限られない。車内演出装置2は、位置情報取得部19が取得する位置情報に基づいて、車両Vが走行した経路の面積に基づいて、テリトリー面積ルールの射撃ゲームを行ってもよい。この場合、表示制御部18は、自装置を搭載する車両Vが走行した経路と、経路幅を示す所定の値とを乗じて面積を算出し、当該面積に応じた得点を算出する。また、通信部80は、他の車内演出装置2を搭載する車両が走行した経路を示す走行経路情報を受信する。得点算出部17は、受信した走行経路情報が示す他の車両が走行した経路と、経路幅を示す所定の値とを乗じて面積を算出し、当該面積に応じた得点を算出する。車内演出装置2は、得点が高い車両Vの乗員PSを勝者として判定する。
[走行経路に基づくテリトリー面積ルールの表示]
 また、表示制御部18は、車両Vが走行した経路の面積を示す画像および受信した走行経路情報が示す経路の面積を示す画像をディスプレイ60に表示する構成であってもよい。図9は、走行経路に基づくテリトリー面積ルールによる射撃ゲームの結果の一例を示す図である。この場合、表示制御部18は、位置情報取得部19に基づいて、車両Vが走行した経路を示す画像(図示する画像P1)を生成する。また、通信部80は、他の車内演出装置2を搭載する車両Vが走行した経路を示す走行経路情報を受信する。表示制御部18は、通信部80が受信した走行経路情報を示す画像(図示する画像P2および画像P3)を生成する。表示制御部18は、生成した画像P1~画像P3を、所定の範囲の地図を示す画像(図示する画像P5)に重畳して配置し、ディスプレイ60に表示する。これにより、本実施形態の車内演出装置2は、乗員PS以外の他者が移動した経路をディスプレイ60に表示し、乗員PSの競争心を向上させ、車両Vによる移動の意欲を向上させることができる。
 なお、テリトリー面積ルールに勝利することを目的として、乗員PSが車両Vを所定の範囲内において長時間移動させる場合、当該範囲内において交通渋滞が生じる可能性がある。この場合、車両Vの自動運転機能は、目的地情報が示す目的地に移動させる、又は長時間当該範囲に滞在しないように移動させるように車両Vの走行を制御してもよい。
[テリトリー面積ルールによる射撃ゲームの勝敗を示す画像]
 また、表示制御部18は、走行経路に基づくテリトリー面積ルールの射撃ゲームがチーム戦によって行われる場合、当該ゲームの勝敗を示す画像をディスプレイ60に表示してもよい。図10は、テリトリー面積ルールによる射撃ゲームの勝敗の一例を示す図である。表示制御部18は、位置情報および走行経路情報に基づいて、自チームの面積と、他チームの面積とを算出する。また、表示制御部18は、走行経路に基づくテリトリー面積ルールの射撃ゲームが行われている範囲(図示する、日本全国)において、自チームの面積と、他チームの面積との割合を示す画像(図示する画像P6)を生成し、ディスプレイ60に表示する。なお、表示制御部18は、走行経路に基づくテリトリー面積ルールの射撃ゲームが行われている範囲のうち、所定の範囲(例えば、関東甲信越の範囲)において画像P6を生成し、表示する構成であってもよい。これにより、本実施形態の車内演出装置2は、乗員PSの競争心を向上させ、車両Vによる移動の意欲を向上させることができる。
[射撃ゲームと現実との関連について]
 また、車内演出装置2は、得点算出部17が算出した得点や、テリトリー面積ルールの結果に基づいて、乗員PSにサービスやコンテンツ等を提供する構成であってもよい。例えば、乗員PSが車両Vの周囲に存在する店舗の看板に射撃動作を行った場合、車内演出装置2は、当該店舗のサーバ装置に射撃動作が行われたことを示す情報を送信する。店舗のサーバ装置は、乗員PSに対して当該店舗の商品を購入する際に使用可能なクーポンを付与する。また、車両Vがカーシェアリングサービスによって利用される車両である場合、車内演出装置2は、得点算出部17が算出した得点を、当該サービスを提供する事業者のサーバ装置に送信する。事業者のサーバ装置は、高い得点を獲得した乗員PSに対して、次回のカーシェアリングサービス時に使用可能なクーポンを付与する。また、テリトリー面積ルールに勝利した乗員PSまたは勝利チームに所属する乗員PSに対して、各種クーポンを付与する構成であってもよい。
 また、車内演出装置2は、各車両Vの行動を示す情報(以下、行動情報)に基づいて、ある射撃対象への移動を促すような処理を行ってもよい。この場合、行動情報とは、例えば、各車内演出装置2が取得した位置画像情報、位置情報および走行経路情報等である。
車内演出装置2は、行動情報を記憶するサーバ(以下、行動情報サーバ)から他の車内演出装置2から取得した行動情報を取得する。車内演出装置2は、例えば、取得した行動情報に基づいて、多くの他者が射撃動作を行った射撃対象や、店舗のクーポンが付与される射撃対象等を強調して表示する構成であってもよい。具体的には、車内演出装置2は、ディスプレイ60のうち、当該射撃対象の位置に重畳するように強調画像を表示する構成であってもよい。また、車内演出装置2は、他者の車両Vに搭載されている撮像部が、当該射撃対象を過去に撮像した画像をディスプレイ60に表示する構成であってもよい。また、車内演出装置2は、当該射撃対象の位置に移動する移動方向を示す画像をディスプレイ60に表示する構成であってもよい。
 ここで、乗員PSは、強調された射撃対象、多くの他者が射撃動作を行った射撃対象および店舗のクーポンが付与される射撃対象の方向に車両Vを移動させる場合がある。したがって、車内演出装置2は、行動情報に基づいて、車内演出装置2(車両V)をある射撃対象への移動を促すことができる。車内演出装置2は、例えば、行動情報が示す他の車内演出装置2(車両V)が存在する位置に基づいて、混雑状態を検出する。車内演出装置2は、混雑している位置(方向)に移動しないように、当該位置とは異なる位置の射撃対象への移動を促すことにより、混雑を回避するように車両Vを移動させることができる。
 なお、車内演出装置2が、行動情報に基づいてある射撃対象への移動を促す処理を行う構成に代えて、行動情報サーバが、行動情報に基づいてある射撃対象への移動を促す処理を行う構成であってもよい。この場合、行動情報サーバは、各車内演出装置2から取得した行動情報に基づいて、車内演出装置2(車両V)の移動を促す画像や、移動を促す情報を当該車内演出装置2に送信する。車内演出装置2は、例えば、行動情報サーバから取得した画像をディスプレイ60に表示させる。
 また、射撃対象には、各車内演出装置2から取得した行情報に基づいて、射撃動作が行われた頻度を示す指標が付されてもよい。車内演出装置2、又は行動情報サーバは、例えば、各車内演出装置2から取得した行動情報に基づいて、射撃動作が行われた指標を算出する。車内演出装置2は、指標に基づいて、応答画像や射撃対象を強調する表示を行う構成であってもよい。
 車内演出装置2は、例えば、高い指標が付された射撃対象は、周囲に車内演出装置2(車両V)が多く存在する、つまり混雑していると判定する。この場合、車内演出装置2は、当該射撃対象を強調しない、又は当該射撃対象を射撃対象とみなさない(フィルタリング)処理を行ってもよい。また、車内演出装置2(又は行動情報サーバ)は、高い指標が付された射撃対象が、店舗のクーポンが付与される射撃対象である場合、当該射撃対象の店舗の系列店のうち、低い指標が付された射撃対象(看板)の店舗等にクーポンを付与する機能を持たせる処理を行ってもよい。また、車内演出装置2は、低い指標が付された射撃対象は、周囲に車内演出装置2(車両V)が多く存在しない、つまり混雑していないと判定する。この場合、車内演出装置2は、当該射撃対象を強調する処理を行ってもよい。
これらの処理により、車内演出装置2は、行動情報(指標)に基づいて、車内演出装置2(車両V)をある射撃対象への移動を促すことができる。
[画像以外の出力方法について]
 また、上述では、表示制御部18が、各種画像を表示することにより、射撃ゲームの結果を出力する場合について説明したが、これに限られない、表示制御部18は、例えば、音によって射撃ゲームの結果を出力してもよい。具体的には、車両Vは、スピーカを備え、表示制御部18は、応答画像を表示しつつ、かつ射撃音を当該スピーカから出力する構成であってもよい。また、表示制御部18は、画像P5や画像P6によって示される射撃ゲームの結果や勝敗を、ディスプレイ60に表示しつつ、かつ射撃ゲームの結果や勝敗を知らせる音声をスピーカから出力する構成であってもよい。
[ディスプレイ以外の画像の表示方法について]
 また、上述では、ディスプレイ60に各種画像を表示する場合について説明したが、これに限られない。例えば、オープンカーや、フロントウィンドウを有していない車両の場合、車両上の乗員PSがヘッドマウント装置を用いる構成であってもよい。この場合、ヘッドマウント装置は、撮像部40が撮像する車両の周囲環境画像と、応答画像とを重畳して表示する。また、車両Vは、フロントウィンドウの他、サイドウィンドウにディスプレイ60を備える構成であってもよい。この場合、抽出部16は、周囲環境画像に対して画像認識処理を行い、周囲環境画像に撮像される各種物体の当該周囲環境画像上における位置を認識する。また、抽出部16は、サイドウィンドウに周囲環境画像を実物大に提示した場合のサイドウィンドウ上の位置と、抽出した物体(射撃対象)の周囲環境画像上における位置とをマッチングする。抽出部16は、フロントウィンドウの位置を、射撃対象の仮想的な位置を示す仮想位置情報として、得点算出部17と、表示制御部18とに出力する。なお、フロントウィンドウと比較してサイドウィンドウの大きさが小さい場合、サイドウィンドウから行われる射撃動作の対象は、体積や面積が大きい射撃対象、つまり小さい領域(サイドウィンドウ)において射撃動作がしやすい射撃対象であることが好ましい。
[車両の情報に基づく画像の表示方法について]
 また、車内演出装置1および車内演出装置2(以下、単に「車内演出装置」と記載する。)は、車両Vの状態を検出する構成を有していていもよい。この場合、車内演出装置は、車両状態取得部を備える。車両状態取得部は、車両Vの速度、舵角、ピッチ・ロール角等の運動パラメータを取得する。表示制御部18は、例えば、車両状態取得部が取得した運動パラメータに基づいて、各種画像を表示する。具体的には、表示制御部18は、車両Vの速度に基づいて、ディスプレイ60に表示する画像のリフレッシュ処理を行う。より具体的には、表示制御部18は、車両Vの速度に基づいて、車両Vの移動に伴う周囲環境の変化より十分に速い時間間隔においてディスプレイ60に表示する画像のリフレッシュ操作を行う。
 また、表示制御部18は、取得した運動パラメータのうち、車両Vの舵角およびピッチ・ロール角等に基づいて、車両Vの進行方向側に応じた画像をディスプレイ60に表示する。ここで、車両Vは、制御に基づいて、直進以外の方向に旋回(右折や左折)する場合がある。この場合、乗員PSは、車両Vの正面ではなく、進行方向、つまり回頭方向に目線を向ける場合がある。表示制御部18は、運動パラメータに基づいて、車両Vの進行方向側に応じた画像をディスプレイ60に表示することにより、乗員PSの目線に応じた画像を表示することができる。
 また、表示制御部18は、車両Vに振動に基づいて、ディスプレイ60に各種画像を表示する構成であってもよい。表示制御部18は、例えば、車両Vに与えられた振動に応じて、振動に伴って車両Vが移動する距離および方向とは逆の距離および方向に各種画像を表示する。これにより、車内演出装置2は、ディスプレイ60に表示される画像が振動に伴って揺れることを抑制することができる。したがって、車内演出装置2は、乗員PSがディスプレイ60の画像を視認することによって車酔いになることを抑制することができる。なお、表示制御部18は、車両Vに与えられる振動と、乗員PSに与えられる振動との相対的な移動距離および方向に基づいて、ディスプレイ60に各種画像を表示する構成であってもよい。
[第3の実施形態]
 以下、図を参照して本発明の第3の実施形態について説明する。第3の実施形態では、乗員PSの指示動作によって指示される方向の実空間の三次元点群に基づいて指示対象を特定し、乗員PSの指示動作の履歴を生成する車内演出装置3について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。ここで、車内演出装置3とは、「指示計測装置」の一例である。
 図11は、第3の実施形態に係る車内演出装置3の構成の一例を示す機能構成図である。本実施形態の車内演出装置3(通信部80)は、サービス提供者の端末(以下、サービス提供者端末装置TM)、及びインタフェース装置800と、ネットワークNWを介して、情報を送受信する。
 インタフェース装置800は、制御部810と、記憶部820とを備える。記憶部820には、対象物情報820-1と、サービサー情報820-2とが記憶される。対象物情報820-1は、三次元点群が示す実空間に存在する対象物を示す情報と、三次元点群を示す情報とが対応付けられた情報である。サービサー情報820-2は、対象物を示す情報と、対象物に関連するサービス提供者を示す情報とが対応付けられた情報である。
 制御部810は、車内演出装置3から受信した情報に基づいて、対象物情報820-1やサービサー情報820-2を検索し、対象物を示す情報や、サービス提供者を示す情報を車内演出装置3に送信する。
 車内演出装置3は、音検出部20と、動作検出部30と、撮像部40と、入力部50と、ディスプレイ60と、位置検出部70と、通信部80と、視線検出部90とを備える。また、車内演出装置3は、制御部10、或いは制御部10Aに代えて(、或いは加えて)制御部10Bを備え、記憶部500に代えて(、或いは加えて)記憶部500Aを備える。記憶部500Aには、応答画像情報500-1と、履歴情報500-2と、サービス提供者情報500-3とが記憶される。各情報の詳細については、後述する。
 制御部10Bは、記憶部500Aに記憶されたプログラムを実行し、音声情報取得部11と、動作情報取得部12と、画像情報取得部13と、表示制御部18と、位置情報取得部19と、乗員情報取得部111と、視線情報取得部112と、座標取得部113と、対象物情報取得部114と、サービス提供者特定部115と、履歴情報生成部116と、通知部117と、属性特定部118とをその機能部として実現する。
 乗員PSは、入力部50に乗員を識別可能な情報(以下、乗員ID)を入力し、乗員情報取得部111は、入力部50に入力された乗員IDを取得する。乗員PSは、例えば、車両Vに乗車した際に、入力部50に乗員IDを入力する。
 視線検出部90は、例えば、車両Vの内部を撮像する撮像部(不図示)によって撮像された乗員PSが視認する実空間上の位置(以下、視点位置)を検出する。視線情報取得部112は、視線検出部90によって検出された乗員PSの視点位置を示す情報を取得する。
 座標取得部113は、撮像部40が撮像する車両Vの周囲環境画像に基づいて、動作情報取得部12によって取得された乗員PSの指示動作と、視線情報取得部112によって取得された乗員PSの視点位置とに基づいて、乗員PSの指示動作による指示方向の実空間の三次元点群を取得する。座標取得部113は、例えば、撮像部40が撮像する車両Vの周囲環境画像に示される物体であって、指示方向の実空間に存在する物体の特徴点を検出し、検出された特徴点の集合を指示方向の実空間の三次元点群として取得する。なお、この場合、撮像部40は、ステレオカメラである。
 対象物情報取得部114は、座標取得部113によって特定された指示方向の実空間の三次元点群を示す情報に基づいて、当該実空間に存在する対象物を示す情報を取得する。対象物情報取得部114は、例えば、座標取得部113によって特定された指示方向の実空間の三次元点群を示す情報を、ネットワークNWを介してインタフェース装置800に送信する。インタフェース装置800の制御部810は、車内演出装置3から三次元点群を示す情報を受信した場合、当該情報を検索キーとして対象物情報820-1を検索し、当該情報が示す三次元点群が対応付けられた対象物を特定する。制御部810は、特定した対象物を示す情報を、ネットワークNWを介して車内演出装置3に送信する。対象物情報取得部114は、インタフェース装置800から受信した対象物を示す情報を取得する。
 サービス提供者特定部115は、対象物情報取得部114によって取得された対象物に対応付けられたサービス提供者を特定する。サービス提供者特定部115は、例えば、対象物情報取得部114によって取得された対象物を示す情報を、ネットワークNWを介してインタフェース装置800に送信する。インタフェース装置800の制御部810は、車内演出装置3から対象物を示す情報を取得した場合、当該情報を検索キーとしてサービサー情報820-2を検索し、当該情報が示す対象物に対応付けられたサービス提供者を特定する。制御部810は、特定した対象物を示す情報を、ネットワークNWを介して車内演出装置3に送信する。サービス提供者特定部115は、インタフェース装置800から受信したサービス提供者を示す情報を取得する。
 履歴情報生成部116は、乗員PSが指示動作によって指示した指示対象の履歴を示す履歴情報500-2を生成する。
 図12は、履歴情報500-2の内容の一例を示す図である。図12に示される通り、履歴情報500-2は、乗員IDと、乗員PSが指示動作を行った日時(以下、指示日時)と、乗員PSの指示動作によって指示された指示対象と、指示対象に対応するサービス提供者とが乗員ID毎に互いに対応付けられた情報である。履歴情報生成部116は、例えば、動作情報取得部12によって乗員PSの指示動作が取得された指示日時と、対象物情報取得部114によって取得された情報が示す対象物であり、当該指示動作によって指示された対象物と、サービス提供者特定部115によって取得された情報が示すサービス提供者であり、指示された対象物に対応するサービス対象者と、当該乗員PSの乗員IDとを対応付け、履歴情報500-2を生成し、記憶部500Aに記憶させる。なお、対象物と、サービス提供者との関係性については、任意に設定することができ、例えば、対象物がサービス提供者の所有物であることは、必須でない。また、事業性のない対象物(例えば、第1の実施例における標識や信号など)を、サービス提供者と関連する対象物として定義してもよい。
 通知部117は、乗員PSによって指示された対象物に対応付けられたサービス提供者に、指示対象が乗員PSによって指示されたことを通知する。
 図13は、サービス提供者情報500-3の内容の一例を示す図である。図13に示される通り、サービス提供者情報500-3は、サービス提供者を示す情報(図示するサービス提供者名)と、通知先とが互いに対応付けられた情報である。通知部117は、サービス提供者特定部115によって特定されたサービス提供者を検索キーとしてサービス提供者情報500-3を検索し、当該サービス提供者が対応付けられた通知先に、乗員PSが指示動作を行ったこと、つまり、乗員PSが、サービス提供者が対応付けられた対象物に対して興味関心があることを通知する。通知先には、例えば、サービス提供者端末装置TM(例えば、サーバ装置)のアドレスが示される。
 通知部117は、例えば、乗員PSが指示動作を行う度にサービス提供者に通知してもよく、所定の期間の履歴情報500-2のうち、対応付けられているサービス提供者毎に抽出し、当該サービス提供者に通知してもよい。また、通知部117は、履歴情報500-2をサービス提供者に通知する他、乗員PSに通知してもよい。これにより、乗員PSは、自身の興味関心を示す情報として履歴情報500-2を用いることができる。また、乗員PSは、通知された履歴情報500-2を参照することにより、指示動作を行ったサービス提供者に関する情報を取得することができる。
[第3の実施形態のまとめ]
 以上説明したように、本実施形態の車内演出装置3は、車両Vの乗員PSの動作を検出する動作検出部30と、乗員PSの視点位置を検出する視線検出部90と、動作検出部30によって検出された乗員PSの指示動作と、視線検出部90によって検出された乗員PSの視点位置とに基づいて、乗員PSの指示動作による指示方向の実空間の三次元点群を取得する視線情報取得部112と、三次元点群が示す実空間に存在する対象物を示す情報を供給するインタフェース装置800から、座標取得部113によって取得された三次元点群に対応付けられた対象物を示す情報を取得する対象物情報取得部114と、対象物に対応付けられるサービス提供者を示すサービサー情報820-2に基づいて、前記対象物情報取得部によって取得された情報が示す対象物に対応付けられるサービス提供者を特定するサービス提供者特定部115と、
 サービス提供者特定部115によって特定されたサービス提供者と、対象物情報取得部114によって取得された情報が示す対象物とを対応付けた800-2を生成する履歴情報生成部116と、を備え、乗員PSが指示動作を行った履歴を取得することにより、乗員PSの興味関心に関する情報を収集することができる。また、本実施形態の車内演出装置3によれば、指示動作が行われた対象物に対応付けられたサービス提供者に対して、指示動作が行われたことを通知することができる。
[インタフェース装置800に送信する三次元点群について]
 なお、上述では、座標取得部113によって取得された三次元点群を示す情報を、いずれもインタフェース装置800に送信する場合について説明したが、これに限られない。座標取得部113は、例えば、車両Vの周囲環境の属性に基づいて、取得した三次元点群のうち、インタフェース装置800に送信する三次元点群を選択し、送信する構成であってもよい。
 この場合、属性特定部118は、撮像部40が撮像する車両Vの周囲環境画像に基づいて、車両Vの周囲環境の属性を特定する。この属性は、例えば、高速道路や、店舗密集地域等の、車両Vの周囲環境の性質(特徴)である。属性特定部118は、例えば、撮像部40が撮像する車両Vの周囲環境画像に高速道路の交通道路標識が撮像されているか、或いは店舗の看板が多数撮像されているか等を解析し、車両Vの周囲環境の属性を特定する。ここで、「属性」の一例として、周囲環境の性質(特徴)を挙げたが、これに限られるものではない。「属性」は、識別可能な対象物の属性の一部あるいは全部を、座標や方向等に対し列挙した形式で複数特定するようにしても良い。
 なお、属性特定部118は、撮像部40が撮像する車両Vの周囲環境画像を、ネットワークNWを介してインタフェース装置800に送信し、インタフェース装置800が車両Vの周囲環境の属性を特定する構成であってもよい。この場合、属性特定部118は、ネットワークNWを介して撮像部40が撮像する車両Vの周囲環境画像を送信し、インタフェース装置800から車両Vの周囲環境の属性を示す情報を取得することにより、属性を特定する。
 また、属性特定部118は、例えば、位置情報と、属性とが対応付けられた位置属性情報に基づいて、車両Vの周囲環境の属性を特定する構成であってもよい。この場合、位置属性情報は、記憶部500Aに記憶されていてもよく、記憶部820に記憶されていてもよい。位置属性情報が記憶部820に記憶されている場合、属性特定部118は、ネットワークNWを介して車両Vの現在位置を示す情報を送信し、インタフェース装置800から車両Vの周囲環境を示す情報を取得することにより、属性を特定する。
 座標取得部113は、属性特定部118によって特定された属性に基づいて、三次元点群を示す情報をインタフェース装置800に送信する。ここで、車両Vが「高速道路」を高速で移動する場合、指示動作中に取得される三次元点群のデータ量が増える可能性がある。このため、座標取得部113は、例えば、特定された属性が「高速道路」である場合、指示動作によって指示された範囲であり、三次元点群を取得する範囲を通常より狭くし、インタフェース装置800に送信するデータ量を抑えることができる。
 また、車両Vが「店舗密集地域」を移動する場合、指示動作によって指示される対象物(つまり、看板)が複数存在する場合がある。このため、座標取得部113は、例えば、特定された属性が「店舗密集地域」である場合、指示動作によって指示された範囲であり、三次元点群を取得する範囲を通常より広くし、インタフェース装置800から対象物を示す情報を多く取得することができる。これにより、車内演出装置3は、情報が充実した履歴情報500-2を生成することができる。すなわち、発明の一側面として指示計測装置の計測した、運転とは無関係な乗員の動作を含む指示動作をもとに、第1の実施例において説明した如く、乗員に対し多様な表示・演出を行うことができる一方、指示動作およびその履歴を適切に記録、保持することで、情報の再利用および別用途での活用を図ることができる。
 以上、本発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態に記載の構成を組み合わせてもよい。

Claims (19)

  1.  車両上の乗員が行うゲームを演出する車内演出装置であって、
     車両の運転とは無関係な前記乗員の動作を検出する動作検出部と、
     前記乗員が視認可能な画像を表示する表示部と、
     前記動作検出部が検出した前記乗員の動作に基づいて、前記乗員の動作に応じた応答画像を前記表示部に表示するとともに、所定の規則に基づくゲームの結果を出力する表示制御部と、
     を備える車内演出装置。
  2.  前記表示制御部は、
     前記車両の周囲環境の物体に前記応答画像を重畳させて前記表示部に表示させる、
     請求項1に記載の車内演出装置。
  3.  前記乗員の動作とは、前記周囲環境の物体を指示する動作であって、
     前記動作検出部は、前記乗員が指示する方向を検出し、
     前記表示制御部は、
     前記動作検出部が検出した方向に基づいて、指示する方向の特定の物体と重なるように前記応答画像を前記表示部に表示させる、
     請求項2に記載の車内演出装置。
  4.  前記動作検出部が特定の物体を指示する動作を検出した回数を有効得点として算出する得点算出部
     を更に備え、
     前記表示制御部は、
     所定のタイミングにおいて、前記得点算出部が算出した前記得点を示す画像を前記表示部に表示させる、
     請求項2又は請求項3のいずれか一項に記載の車内演出装置。
  5.  前記特定の物体とは、目的地までの前記特定の道路標識であって、
     目的地を示す目的地情報を取得する目的地情報取得部と、
     前記周囲環境を撮像し、周囲環境画像を生成する撮像部と、
     前記周囲環境画像のうち、前記目的地情報が示す前記目的地までの前記特定の道路標識を抽出する抽出部と、
     を更に備え、
     前記得点算出部は、
     前記抽出部が抽出した前記道路標識に対応する位置を指示する前記乗員の動作を前記動作検出部が検出した回数を有効得点として算出する、
     請求項4に記載の車内演出装置。
  6.  前記特定の物体とは、車両の近傍を走行する他の車両であって、
     前記抽出部は、
     前記周囲環境画像のうち、前記他の車両を抽出し、
     前記得点算出部は、
     前記抽出部が抽出した前記他の車両に対応する位置を指示する前記乗員の動作を前記動作検出部が検出した回数を有効得点として算出し、
     請求項5に記載の車内演出装置。
  7.  前記特定の物体とは、前記車両の周囲に存在する店舗の看板であって、
     前記抽出部は、
     前記周囲環境画像のうち、前記看板を抽出し、
     前記得点算出部は、
     前記抽出部が抽出した前記看板に対応する位置を指示する前記乗員の動作を前記動作検出部が検出した回数を有効得点として算出する、
     請求項5又は請求項6に記載の車内演出装置。
  8.  前記表示制御部は、
     前記得点算出部が算出した前記得点の合計を示す画像を前記表示部に表示させる、
     請求項4から請求項7のいずれか一項に記載の車内演出装置。
  9.  請求項4から請求項8のいずれかに記載の車内演出装置を複数備える車内演出システムであって、
     前記車内演出装置は、
     前記得点算出部が算出した前記得点を示す情報を他の車内演出装置に送信する送信部と、
     前記他の車内演出装置が算出した前記得点を示す得点情報を受信する受信部と、
     を備え、
     前記表示制御部は、
     前記得点算出部が算出した前記得点を示す画像と、前記受信部が受信した前記得点情報の前記得点を示す画像とを前記表示部に表示させる、
     車内演出システム。
  10.  前記表示制御部は、
     自装置と同一のチームに属する車両に搭載される前記車内演出装置から受信した前記得点情報の前記得点を示す画像と、他のチームに属する車両に搭載される前記車内演出装置から受信した前記得点情報の前記得点を示す画像とを比較して前記表示部に表示させる、
     請求項9に記載の車内演出システム。
  11.  前記表示制御部は、
     自装置を搭載する車両の行動を示す情報、及び他の車内演出装置を搭載する車両の行動を示す情報に基づいて、移動を促す画像を表示させる。
     請求項9又は請求項10に記載の車内演出システム。
  12.  表示部を備え、車両上の乗員が行うゲームを演出するコンピュータが、
     車両の運転とは無関係な前記乗員の動作を検出し、
     前記乗員が視認可能な画像を表示し、
     検出した前記乗員の動作に基づいて、前記乗員の動作に応じた応答画像を表示するとともに、所定の規則に基づくゲームの結果を出力する、
     車内演出方法。
  13.  表示部を備え、車両上の乗員が行うゲームを演出するコンピュータに、
     車両の運転とは無関係な前記乗員の動作を検出させ、
     前記乗員が視認可能な画像を表示させ、
     検出した前記乗員の動作に基づいて、前記乗員の動作に応じた応答画像を表示させるとともに、所定の規則に基づくゲームの結果を出力させる、
     プログラム。
  14.  車両の乗員の動作を検出する動作検出部と、
     前記乗員の視点位置を検出する視線検出部と、
     前記動作検出部によって検出された前記乗員の指示動作と、前記視線検出部によって検出された前記乗員の視点位置とに基づいて、前記乗員の指示動作による指示方向の実空間の三次元点群を取得する座標取得部と、
     三次元点群が示す実空間に存在する対象物を示す情報を供給するインタフェースから、前記座標取得部によって取得された前記三次元点群に対応付けられた対象物を示す情報を取得する対象物情報取得部と、
     対象物に対応付けられるサービス提供者を示すサービサー情報に基づいて、前記対象物情報取得部によって取得された情報が示す対象物に対応付けられるサービス提供者を特定するサービス提供者特定部と、
     前記サービス提供者特定部によって特定された前記サービス提供者と、前記対象物情報取得部によって取得された情報が示す対象物とを対応付けた履歴情報を生成する履歴情報生成部と、
     を備える指示計測装置。
  15.  前記履歴情報には、前記指示動作が行われた時期と、前記乗員を示す情報とが更に対応付けられる、
     請求項14に記載の指示計測装置。
  16.  周囲環境を撮像し、周囲環境画像を生成する撮像部と、
     前記撮像部によって撮像された前記周囲環境画像に基づいて、前記周囲環境の属性を特定する属性特定部と、を更に備え、
     前記座標取得部は、
     前記属性特定部によって特定された前記周囲環境の属性に基づいて、前記乗員の指示動作による指示方向の実空間の三次元点群を取得する、
     請求項14又は請求項15に記載の指示計測装置。
  17.  前記履歴情報に示される前記サービス提供者に対し、前記指示動作が行われたことを通知する通知部、
     を更に備える請求項14から請求項16のいずれか一項に記載の指示計測装置。
  18.  前記通知部は、前記履歴情報を前記乗員に通知する、
     請求項17に記載の指示計測装置。
  19.  周囲環境を撮像し、周囲環境画像を生成する撮像部を更に備え、
     前記座標取得部は、
     周囲環境画像に基づいて三次元点群を供給するインタフェースから、前記撮像部によって撮像された前記周囲環境画像に基づく三次元点群を示す情報を取得する、
     請求項14から請求項18のいずれか一項に記載の指示計測装置。
PCT/JP2018/022826 2017-06-16 2018-06-15 車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置 WO2018230678A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880039177.9A CN110769905A (zh) 2017-06-16 2018-06-15 车内演出装置、车内演出系统、车内演出方法、程序及指示计测装置
JP2019525539A JPWO2018230678A1 (ja) 2017-06-16 2018-06-15 車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置
US16/622,335 US11691070B2 (en) 2017-06-16 2018-06-15 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
US18/089,624 US20230158397A1 (en) 2017-06-16 2022-12-28 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-119025 2017-06-16
JP2017119025 2017-06-16

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/622,335 A-371-Of-International US11691070B2 (en) 2017-06-16 2018-06-15 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
US18/089,624 Continuation US20230158397A1 (en) 2017-06-16 2022-12-28 In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device

Publications (1)

Publication Number Publication Date
WO2018230678A1 true WO2018230678A1 (ja) 2018-12-20

Family

ID=64659762

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022826 WO2018230678A1 (ja) 2017-06-16 2018-06-15 車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置

Country Status (4)

Country Link
US (2) US11691070B2 (ja)
JP (2) JPWO2018230678A1 (ja)
CN (1) CN110769905A (ja)
WO (1) WO2018230678A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015382A (ja) * 2019-07-10 2021-02-12 トヨタ自動車株式会社 情報処理装置、情報処理装置の制御方法、及び情報処理システム
US11069239B2 (en) 2017-06-16 2021-07-20 Honda Motor Co., Ltd. Event vehicle dispatch device, event vehicle dispatch method, program, and management system
JP2021151504A (ja) * 2019-11-28 2021-09-30 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム
JP2022515689A (ja) * 2019-10-02 2022-02-22 ケイシーク カンパニー リミテッド 使用者ゲーム連携自律走行方法及びシステム
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle
JP7434995B2 (ja) 2019-09-26 2024-02-21 株式会社セガ ゲーム装置およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11691070B2 (en) * 2017-06-16 2023-07-04 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
US11571622B2 (en) * 2020-08-12 2023-02-07 GM Global Technology Operations LLC In-vehicle gaming systems and methods
JP2022184350A (ja) * 2021-06-01 2022-12-13 マツダ株式会社 ヘッドアップディスプレイ装置
CN113986165B (zh) * 2021-10-09 2024-04-26 上海瑾盛通信科技有限公司 显示控制方法、电子装置及可读存储介质
CN115300899A (zh) * 2022-06-29 2022-11-08 中国第一汽车股份有限公司 车载游戏控制方法、装置、计算机可读存储介质和车辆

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000035337A (ja) * 1998-07-17 2000-02-02 Sanyo Electric Co Ltd ナビゲーション装置
JP2003259354A (ja) * 2002-03-01 2003-09-12 Nissan Motor Co Ltd 車両用画像処理装置および車両用画像処理方法
JP2004061285A (ja) * 2002-07-29 2004-02-26 Mazda Motor Corp 情報記録装置、情報記録方法及び情報記録用プログラム
JP2007080060A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd 対象物特定装置
JP2007172378A (ja) * 2005-12-22 2007-07-05 Toyota Motor Corp 注視対象物体特定装置
JP2013109469A (ja) * 2011-11-18 2013-06-06 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置、方法、及びプログラム
JP2015093078A (ja) * 2013-11-12 2015-05-18 株式会社バンダイナムコゲームス プログラム、ゲーム装置およびサーバシステム

Family Cites Families (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0344800A (ja) 1989-07-13 1991-02-26 Matsushita Electric Ind Co Ltd 車載通信装置
JPH09153098A (ja) 1995-11-30 1997-06-10 Omron Corp 車両需要予測システム
JPH10254946A (ja) 1997-03-06 1998-09-25 Oki Electric Ind Co Ltd 移動体の配置数決定方法およびその配置数決定装置ならびにその編成システム
JP4178577B2 (ja) 1998-02-17 2008-11-12 株式会社明電舎 自動ビークル及び自動ビークルの運行システム
US6060993A (en) 1998-11-03 2000-05-09 Adapt Media, Inc. Mobile display system
US6236330B1 (en) 1998-11-03 2001-05-22 Adapt Media, Inc. Mobile display system
JP3632533B2 (ja) 1999-11-26 2005-03-23 トヨタ自動車株式会社 車両の自動走行制御方法および自動走行制御装置
US6545596B1 (en) 2000-06-30 2003-04-08 Cisco Technology, Inc. Presenting information to mobile targets
JP2002099961A (ja) 2000-09-22 2002-04-05 Casio Comput Co Ltd ナビゲーション装置、カーレンタルシステム及びナビゲーションレンタルシステム
JP2002187577A (ja) 2000-12-18 2002-07-02 Japan Science & Technology Corp 電気自動車のシャーシフレーム
JP2002186055A (ja) 2000-12-18 2002-06-28 Mitsubishi Electric Corp 車両及び家屋間における無線通信システム及び無線通信方法
JP4657478B2 (ja) 2001-03-23 2011-03-23 シャープ株式会社 移動体による情報表示の管理システム、プログラムおよび記録媒体
US20020198747A1 (en) 2001-06-26 2002-12-26 Boyer Stanley Gene Event driven airport
US6898517B1 (en) 2001-07-24 2005-05-24 Trimble Navigation Limited Vehicle-based dynamic advertising
JP2003063301A (ja) 2001-08-29 2003-03-05 Tenryu Ind Co Ltd 移動可能施設
JP4005355B2 (ja) 2001-12-27 2007-11-07 日本電信電話株式会社 航空機の乗客向けビデオ・オン・デマンド・サービス提供システム
JP2003308265A (ja) 2002-04-18 2003-10-31 Fujitsu Ten Ltd インターネット端末装置および電子メール端末装置
JP4078398B2 (ja) 2002-12-11 2008-04-23 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 情報処理装置
JP2004192366A (ja) 2002-12-12 2004-07-08 Hitachi Kokusai Electric Inc 配車システム
JP4282333B2 (ja) 2003-01-31 2009-06-17 パナソニック株式会社 バス運行管理方法
JP2004362064A (ja) 2003-06-02 2004-12-24 Denso Corp 信号機情報伝達システム及び車載機
JP4115888B2 (ja) 2003-06-11 2008-07-09 富士通テン株式会社 端末装置、及び駐車場情報提供システム
JP2005032066A (ja) 2003-07-08 2005-02-03 Nissan Motor Co Ltd 送迎サービス支援装置及びこれを用いた送迎支援システム
US7154383B2 (en) 2003-07-09 2006-12-26 Steven Earl Berquist Dynamic mobile advertising system
JP2005056134A (ja) 2003-08-04 2005-03-03 Nissan Motor Co Ltd 配車/巡回計画作成システム及び配車/巡回計画作成方法
JP2005066745A (ja) 2003-08-22 2005-03-17 Oki Electric Ind Co Ltd 案内ロボットシステム
US6857889B1 (en) 2003-09-26 2005-02-22 General Motors Corporation Vehicle body to chassis connection and method
US20050096974A1 (en) 2003-10-30 2005-05-05 International Business Machines Corporation Method and apparatus for optimizing parking situations
JP2006018570A (ja) 2004-07-01 2006-01-19 Nissan Motor Co Ltd 送迎サービス支援装置及びこれを用いた送迎支援システム、並びに送迎支援システムを実現するための送迎支援プログラム
CA2613906A1 (en) 2004-12-29 2006-07-06 Bernard Trest Dynamic information system
EP1875950A4 (en) 2005-03-30 2010-01-27 Ruslandov Aleksandr Semenovich DESIGNER OF VEHICLES (VARIANTS)
WO2007066877A1 (en) 2005-12-06 2007-06-14 Key-Chang Khim System for parking management
JP2007228551A (ja) 2006-01-30 2007-09-06 Sharp Corp 投影機能付携帯通信端末、小型投影装置および投影方法
JP4894449B2 (ja) 2006-10-17 2012-03-14 日本電気株式会社 携帯端末の遠隔操作方法、携帯端末及びプログラム
JP2008280813A (ja) 2007-05-14 2008-11-20 Calsonic Kansei Corp 家屋のドア施錠状態表示装置
JP2009015760A (ja) 2007-07-09 2009-01-22 Tokai Rika Co Ltd 操作入力装置
JP4698653B2 (ja) 2007-10-25 2011-06-08 三菱電機株式会社 コンテンツ配信システムおよびコンテンツ配信システムのコンテンツ配信方法
US8024111B1 (en) 2008-04-02 2011-09-20 Strategic Design Federation W, Inc. Travel route system and method
US8626565B2 (en) 2008-06-30 2014-01-07 Autonomous Solutions, Inc. Vehicle dispatching method and system
FR2939733B1 (fr) 2008-12-16 2010-12-17 Envision Vehicle Engineering Novasio Technology Event Module pour chassis modulaire de vehicule portuaire
JP2010204708A (ja) 2009-02-27 2010-09-16 Ntt Docomo Inc 配車管理装置、配車システム、配車方法及びプログラム
JP5280267B2 (ja) 2009-03-27 2013-09-04 株式会社日本総合研究所 製造方法および車両
JP5085598B2 (ja) 2009-03-31 2012-11-28 株式会社デンソーアイティーラボラトリ 広告表示装置、システム、方法及びプログラム
US8977489B2 (en) 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
US20110101646A1 (en) 2009-10-30 2011-05-05 Masami Sakita Vehicle equipped with coupler
JP5631602B2 (ja) 2010-02-04 2014-11-26 中国電力株式会社 配車決定装置及び方法
US8612273B2 (en) 2010-04-01 2013-12-17 The Crawford Group, Inc. Method and system for managing vehicle travel
GB2535926B (en) 2010-05-10 2016-10-12 Park Assist Llc Method and system for managing a parking lot based on intelligent imaging
WO2012020409A1 (en) * 2010-08-09 2012-02-16 Metal Compass Ltd. Mobile gaming platform system and method
KR101219904B1 (ko) 2010-11-12 2013-01-08 현대자동차주식회사 홈 네트워크와 연동되는 차량 네트워크 시스템
JP2012108599A (ja) 2010-11-15 2012-06-07 Clarion Co Ltd 駐車場案内装置
US20120142415A1 (en) * 2010-12-03 2012-06-07 Lindsay L Jon Video Show Combining Real Reality and Virtual Reality
DE102011115854A1 (de) 2011-10-13 2013-04-18 Audi Ag Fahrzeug und Verfahren zum Steuern eines Fahrzeugs
EP2608153A1 (en) * 2011-12-21 2013-06-26 Harman Becker Automotive Systems GmbH Method and system for playing an augmented reality game in a motor vehicle
US20140309876A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Universal vehicle voice command system
FR2988493B1 (fr) 2012-03-26 2014-11-21 Valeo Vision Lunettes adaptatives pour conducteur ou passager de vehicule automobile
JP5891910B2 (ja) 2012-03-30 2016-03-23 富士通株式会社 料金算出方法、料金算出プログラム及び料金算出装置
JP5924733B2 (ja) 2012-03-30 2016-05-25 株式会社Jsol 対話型車内コンテンツ提供システム及びコンテンツ提供方法
JP5744966B2 (ja) 2012-05-30 2015-07-08 治 増田 タクシーの最適配置システム
US8958943B2 (en) 2012-06-12 2015-02-17 Bosch Automotive Service Solutions Llc Method and apparatus for tracking, scheduling, and reminding about maintenance status
US20140081764A1 (en) 2012-09-14 2014-03-20 Frias Transportation Infrastructure Llc Dynamically changing display on for-hire vehicles
US9656690B2 (en) 2012-10-30 2017-05-23 Robert Bosch Gmbh System and method for using gestures in autonomous parking
US20140365250A1 (en) 2013-06-05 2014-12-11 Fujitsu Limited Transportation service reservation method and apparatus
US20150046187A1 (en) 2013-08-08 2015-02-12 Tcn Technologies, Llc Clinical trial participant transportation system
US20150066282A1 (en) 2013-09-05 2015-03-05 Ford Global Technologeis, Llc Autonomous driving in areas for non-drivers
US9216745B2 (en) 2013-09-16 2015-12-22 Disney Enterprises, Inc. Shared control of semi-autonomous vehicles including collision avoidance in multi-agent scenarios
JP6284121B2 (ja) 2013-09-30 2018-02-28 株式会社日本総合研究所 外出スケジュール自動作成装置及びその方法
US20150112800A1 (en) 2013-10-18 2015-04-23 State Farm Mutual Automobile Insurance Company Targeted advertising using vehicle information
JP6244822B2 (ja) 2013-10-30 2017-12-13 トヨタ車体株式会社 車載用表示システム
JP6103383B2 (ja) 2013-11-07 2017-03-29 株式会社デンソー 車両運転評価システム
US20150161526A1 (en) 2013-12-09 2015-06-11 Amadeus S.A.S. Generation of offers with limited time frame guaranteed availability and pricing for travel itineraries
US20150220991A1 (en) 2014-02-05 2015-08-06 Harman International Industries, Incorporated External messaging in the automotive environment
US20150227888A1 (en) 2014-02-13 2015-08-13 Dragontail Systems Ltd. Method and system for managing preparation and delivery of goods
JP6296447B2 (ja) 2014-03-19 2018-03-20 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム、撮影情報管理装置及び撮影情報共有方法
JP6030084B2 (ja) 2014-03-20 2016-11-24 ヤフー株式会社 配信装置、配信方法及び配信プログラム
JP2015184885A (ja) 2014-03-24 2015-10-22 株式会社ビジテラス 送迎ルート算出システム
JP6361220B2 (ja) 2014-03-27 2018-07-25 株式会社ニコン 自律走行車両
US20150293509A1 (en) 2014-04-15 2015-10-15 Ford Global Technologies, Llc In-vehicle home automation integration
JP6311429B2 (ja) 2014-04-18 2018-04-18 株式会社デンソー 自動運転計画表示装置および自動運転計画表示装置用のプログラム
WO2015182795A1 (en) 2014-05-26 2015-12-03 Maramoja Transport Limited System and method for arranging services
US9810444B2 (en) 2014-05-29 2017-11-07 Panasonic Intellectual Property Corporation Of America Method for controlling terminal apparatus that remotely controls air conditioner, non-transitory recording medium storing program executed by terminal apparatus, recommend method executed by terminal apparatus, and terminal apparatus
JP2016040151A (ja) 2014-08-12 2016-03-24 エイディシーテクノロジー株式会社 通信システム
US20170278023A1 (en) 2014-08-27 2017-09-28 Sparkcity.Com Ltd. Regional and individual parking system and method
JP2016065938A (ja) 2014-09-24 2016-04-28 エイディシーテクノロジー株式会社 広告表示装置
US10238979B2 (en) * 2014-09-26 2019-03-26 Universal City Sudios LLC Video game ride
JP2016090274A (ja) 2014-10-30 2016-05-23 トヨタ自動車株式会社 警報装置、警報システム及び携帯端末
JP6539092B2 (ja) 2015-04-15 2019-07-03 パーク二四株式会社 レコメンド情報管理サーバおよびコンピュータプログラム
JP2017033480A (ja) 2015-08-06 2017-02-09 株式会社日立製作所 自律移動車の運用システム及び自律移動車の運用方法
US20170061561A1 (en) 2015-08-25 2017-03-02 Steve Cha Mobile ride-sharing social networking e-commerce platform
WO2017033172A1 (en) 2015-08-27 2017-03-02 Sparkcity.Com.Ltd. A system and method of creating a modular parking spot
US20170075366A1 (en) 2015-09-11 2017-03-16 Ford Global Technologies, Llc Methods and Systems to Synchronize Vehicle Settings Via a Home Network Connection
CN108290075B (zh) 2015-09-22 2021-04-06 特拉克赛卡斯公司 马达操作的模型交通工具
JP2017061168A (ja) 2015-09-23 2017-03-30 トヨタテクニカルディベロップメント株式会社 車両の自動運転装置
US10309790B2 (en) 2015-10-28 2019-06-04 Honda Motor Co., Ltd. Automatic driving system
US9791861B2 (en) 2015-11-12 2017-10-17 International Business Machines Corporation Autonomously servicing self-driving vehicles
JP6646314B2 (ja) 2016-04-11 2020-02-14 みこらった株式会社 自動車及び自動車用プログラム
US10509407B2 (en) 2016-07-01 2019-12-17 Samsung Electronics Co., Ltd. Apparatus and method for a vehicle platform
US10607192B2 (en) 2016-08-25 2020-03-31 Ford Global Technologies, Llc Methods and apparatus for autonomous vehicle scheduling
US9967172B2 (en) 2016-10-11 2018-05-08 Panasonic Avionics Corporation Methods and systems for content loading and offloading to and from a transportation vehicle
US10589679B1 (en) * 2016-10-28 2020-03-17 Zoox, Inc. Providing visual references to prevent motion sickness in vehicles
US11087423B2 (en) 2016-12-21 2021-08-10 Hitch Health, Inc. Systems and methods for transportation coordination in healthcare and other settings
US10972544B2 (en) 2017-02-06 2021-04-06 Nissan North America, Inc. Autonomous vehicle communication system and method
US10082793B1 (en) 2017-03-21 2018-09-25 GM Global Technology Operations LLC Multi-mode transportation planning and scheduling
US10737737B2 (en) 2017-05-31 2020-08-11 Zoox, Inc. Vehicle with interchangeable drive modules
US11691070B2 (en) * 2017-06-16 2023-07-04 Honda Motor Co., Ltd. In-vehicle performance device, in-vehicle performance system, in-vehicle performance method, storage medium, and command measurement device
CN110740923A (zh) 2017-06-16 2020-01-31 本田技研工业株式会社 自动驾驶车辆
WO2018230698A1 (ja) 2017-06-16 2018-12-20 本田技研工業株式会社 イベント配車装置、イベント配車方法、プログラム、および管理システム
JPWO2018230679A1 (ja) 2017-06-16 2020-05-21 本田技研工業株式会社 送迎管理装置、送迎管理方法、およびプログラム
CN110809791A (zh) 2017-06-16 2020-02-18 本田技研工业株式会社 车辆系统、自动驾驶车辆、车辆控制方法及程序
CN110753948A (zh) 2017-06-16 2020-02-04 本田技研工业株式会社 服务管理装置、服务提供系统、服务管理方法及程序
WO2018230685A1 (ja) 2017-06-16 2018-12-20 本田技研工業株式会社 自動運転車両、および車両システム
WO2018230704A1 (ja) 2017-06-16 2018-12-20 本田技研工業株式会社 車両制御システム、車両制御方法、プログラム、および車両管理システム
CN110740902A (zh) 2017-06-16 2020-01-31 本田技研工业株式会社 车辆系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000035337A (ja) * 1998-07-17 2000-02-02 Sanyo Electric Co Ltd ナビゲーション装置
JP2003259354A (ja) * 2002-03-01 2003-09-12 Nissan Motor Co Ltd 車両用画像処理装置および車両用画像処理方法
JP2004061285A (ja) * 2002-07-29 2004-02-26 Mazda Motor Corp 情報記録装置、情報記録方法及び情報記録用プログラム
JP2007080060A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd 対象物特定装置
JP2007172378A (ja) * 2005-12-22 2007-07-05 Toyota Motor Corp 注視対象物体特定装置
JP2013109469A (ja) * 2011-11-18 2013-06-06 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置、方法、及びプログラム
JP2015093078A (ja) * 2013-11-12 2015-05-18 株式会社バンダイナムコゲームス プログラム、ゲーム装置およびサーバシステム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Carcade In-Car Gaming, OH GIZMO!", 8 October 2008 (2008-10-08), XP055564879, Retrieved from the Internet <URL:http://www.ohgizmo.com/2008/10/08/carcade-in-car-gaming> [retrieved on 20180904] *
GIZMODO, AR WORLD (VIDEO CLIP) OF ''CARCADE'' IN WHICH GREY COLORED CAR WINDOW BECOMES ARCADE GAME, 10 October 2008 (2008-10-10), Retrieved from the Internet <URL:https://www.gizmodo.jp/2008/10/carcadear.html> [retrieved on 20180904] *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11069239B2 (en) 2017-06-16 2021-07-20 Honda Motor Co., Ltd. Event vehicle dispatch device, event vehicle dispatch method, program, and management system
US11794816B2 (en) 2017-06-16 2023-10-24 Honda Motor Co., Ltd. Automated driving vehicle
US11656087B2 (en) 2019-07-10 2023-05-23 Toyota Jidosha Kabushiki Kaisha Information processing apparatus, control method of information processing apparatus, and information processing system
JP2021015382A (ja) * 2019-07-10 2021-02-12 トヨタ自動車株式会社 情報処理装置、情報処理装置の制御方法、及び情報処理システム
JP7159988B2 (ja) 2019-07-10 2022-10-25 トヨタ自動車株式会社 情報処理装置、情報処理装置の制御方法、及び情報処理システム
JP7434995B2 (ja) 2019-09-26 2024-02-21 株式会社セガ ゲーム装置およびプログラム
JP2022515689A (ja) * 2019-10-02 2022-02-22 ケイシーク カンパニー リミテッド 使用者ゲーム連携自律走行方法及びシステム
JP7409671B2 (ja) 2019-10-02 2024-01-09 ケイシーク カンパニー リミテッド 使用者ゲーム連携自律走行方法及びシステム
JP2021151505A (ja) * 2019-11-28 2021-09-30 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム
JP7231857B2 (ja) 2019-11-28 2023-03-02 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム
JP7231856B2 (ja) 2019-11-28 2023-03-02 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム
JP2021151504A (ja) * 2019-11-28 2021-09-30 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム
JP7440776B2 (ja) 2019-11-28 2024-02-29 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム

Also Published As

Publication number Publication date
JP7216033B2 (ja) 2023-01-31
CN110769905A (zh) 2020-02-07
US20230158397A1 (en) 2023-05-25
US20200197791A1 (en) 2020-06-25
US11691070B2 (en) 2023-07-04
JPWO2018230678A1 (ja) 2020-06-25
JP2020089744A (ja) 2020-06-11

Similar Documents

Publication Publication Date Title
JP7216033B2 (ja) 車内演出装置、車内演出システム、車内演出方法、およびプログラム
US10222225B2 (en) Navigation systems and associated methods
CN110199325B (zh) 仿真系统、处理方法以及信息存储介质
US10843686B2 (en) Augmented reality (AR) visualization of advanced driver-assistance system
KR101480994B1 (ko) 차량의 디스플레이를 이용한 증강 현실 발생 방법 및 시스템
US10585471B2 (en) Systems and methods to provide an interactive space based on predicted events
US10410418B2 (en) Computer-readable non-transitory storage medium having stored therein information processing program, information processing system, information processing apparatus, and information processing method for controlling movement of a virtual camera in a game space
JP5962594B2 (ja) 車載表示装置およびプログラム
JP5333860B2 (ja) 風景画像認識を用いた自車位置検出システム
US20180184014A1 (en) Systems, methods, and computer-readable media for using a video capture device to alleviate motion sickness via an augmented display for a passenger
US20140089862A1 (en) Destination routing in a virtual world
JP2014219814A (ja) 運転支援装置及びプログラム
JP2011197526A (ja) 情報通信システム、遊戯装置、画像表示方法、及びプログラム
JP7422029B2 (ja) 通信システム、情報処理装置、情報処理方法、移動体、移動体の制御方法、及びプログラム
US7980950B2 (en) Game machine and method with changing game field
CN115379883A (zh) 游戏程序、游戏方法以及终端装置
JP2010142300A (ja) 運転シミュレーション用端末装置、運転シミュレーション実行方法及びそのプログラム
JP7219792B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6903806B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP2019117434A (ja) 画像生成装置
JP2013170875A (ja) 地図表示装置
KR101618943B1 (ko) 경쟁 게임 제공 방법 및 시스템, 게이머 스마트 기기
CN117968721A (zh) 一种导航方法、装置和电子设备
KR20220157444A (ko) 게임 프로그램, 게임 방법, 및 단말 장치
JP2010284258A (ja) ゲーム装置、ゲームプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18818322

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019525539

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18818322

Country of ref document: EP

Kind code of ref document: A1