WO2022201836A1 - 画像表示装置、画像表示方法、およびプログラム - Google Patents

画像表示装置、画像表示方法、およびプログラム Download PDF

Info

Publication number
WO2022201836A1
WO2022201836A1 PCT/JP2022/002925 JP2022002925W WO2022201836A1 WO 2022201836 A1 WO2022201836 A1 WO 2022201836A1 JP 2022002925 W JP2022002925 W JP 2022002925W WO 2022201836 A1 WO2022201836 A1 WO 2022201836A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
driver
display
vehicle
display device
Prior art date
Application number
PCT/JP2022/002925
Other languages
English (en)
French (fr)
Inventor
虎喜 岩丸
慎太郎 松田
崚 武智
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Publication of WO2022201836A1 publication Critical patent/WO2022201836A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J45/00Electrical equipment arrangements specially adapted for use as accessories on cycles, not otherwise provided for
    • B62J45/40Sensor arrangements; Mounting thereof
    • B62J45/41Sensor arrangements; Mounting thereof characterised by the type of sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J50/00Arrangements specially adapted for use on cycles not provided for in main groups B62J1/00 - B62J45/00
    • B62J50/20Information-providing devices
    • B62J50/21Information-providing devices intended to provide information to rider or passenger
    • B62J50/22Information-providing devices intended to provide information to rider or passenger electronic, e.g. displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to image display technology for straddle-type vehicles.
  • Patent Document 1 proposes a technique of displaying an image obtained by a camera placed in the front of the vehicle on a display screen installed in a position facing the line of sight of the rider in a motorcycle.
  • an object of the present invention is to provide an advantageous technique for improving the comfort of rear seat occupants in a straddle-type vehicle.
  • an image display device as one aspect of the present invention is an image display device for a straddle-type vehicle having a camera that captures an image of the surroundings, and acquires an image captured by the camera.
  • display means disposed between a driver seated in the driver's seat of the straddle-type vehicle and an occupant seated in the rear seat of the straddle-type vehicle; and control means for displaying, as a display image, a region in front of the driver in the acquired photographed image on the display means.
  • FIG. 4 is a diagram schematically showing a configuration example of a display unit;
  • FIG. 4 is a diagram schematically showing a configuration example of a display unit;
  • FIG. 4 is a diagram schematically showing a configuration example of a display unit;
  • FIG. 4 is a diagram schematically showing a configuration example of a display unit;
  • FIG. 4 is a diagram schematically showing a configuration example of a display unit;
  • FIG. 4 is a diagram schematically showing a configuration example of a display unit;
  • FIG. 4 is a diagram schematically showing a configuration example of a display unit;
  • FIG. 4 is a diagram schematically showing a configuration example of a display unit; Flowchart showing image display processing Conceptual diagram for explaining an example of determining a display image from a captured image Conceptual diagram for explaining an example of determining a display image from a captured image Conceptual diagram for explaining an example of determining a display image from a captured image Conceptual diagram for explaining an example of determining a display image from a captured image
  • the image display device of the present embodiment is applied to a saddle type vehicle having a driver's seat and a rear seat, and an image (video) captured in front of the driver sitting in the driver's seat is displayed while the driver is seated in the rear seat. It is a device provided to the occupants who are In the following embodiments, a motorcycle will be exemplified as a straddle-type vehicle, but the image display device according to the present invention can also be applied to other types of straddle-type vehicles such as tricycles.
  • FIG. 1 shows an example of a straddle-type vehicle V to which the image display device 20 of this embodiment is applied.
  • the arrow FR indicates the front-rear direction of the straddle-type vehicle V
  • FT indicates the front
  • RR indicates the rear.
  • a driver D is seated in the driver's seat 1 and an occupant T (sometimes called a tandem rider) is seated in the rear seat 2 .
  • the saddle-ride type vehicle V includes a steering wheel 3 held by the driver D for steering the saddle-ride type vehicle V, a meter visor 4 on which various meters are mounted, and a steering wheel in front of the driver D to prevent running wind. and a screen 5 positioned in the .
  • the straddle-type vehicle V may be simply referred to as a vehicle V hereinafter.
  • FIG. 2 is a block diagram showing a configuration example of the system 100 including the image display device 20 of this embodiment.
  • a system 100 of the present embodiment can include an in-vehicle device 10 and an image display device 20 .
  • the in-vehicle device 10 and the image display device 20 can be connected so as to be able to communicate with each other using a communication method such as Bluetooth (registered trademark) or Wi-Fi (registered trademark), but they can also communicate with each other via the Internet. may be connected to
  • the in-vehicle device 10 is a device mounted on the straddle-type vehicle V, and includes, for example, a processing unit 11, a storage unit 12, an imaging unit 13, and a state detection sensor 14, which are communicably connected to each other via a system bus 16. , and a communication unit 15 .
  • the processing unit 11 is, for example, an ECU (Electronic Control Unit), and may include a processor typified by a CPU, a storage device such as a semiconductor memory, an interface with an external device, and the like.
  • the storage unit 12 stores programs executed by the processor, data used by the processor for processing, and the like. be able to.
  • the photographing unit 13 includes, for example, a camera, and is provided in the vehicle V so as to obtain an image (video) by photographing a portion of the vehicle V (driver) and/or the surroundings of the vehicle V.
  • the imaging unit 13 may perform imaging so as to obtain still images repeatedly (for example, periodically), or may perform imaging so as to obtain moving images.
  • the imaging unit 13 of this embodiment can include a plurality of cameras 13a to 13f arranged on the vehicle V as shown in FIG.
  • FIG. 3 is a diagram schematically showing the top surface of the vehicle V, and shows an example of arrangement of the photographing unit 13 (cameras 13a to 13f) in the vehicle V.
  • the fan-shaped dashed lines represent the shooting direction (shooting range, shooting field) of each camera, "FT" indicates the front of the vehicle V, and "RR" indicates the rear of the vehicle.
  • the cameras 13a to 13b are cameras (first photographing units) arranged in the vehicle V so as to photograph a driver D and/or an occupant T riding in the vehicle.
  • the camera 13a is provided in the vehicle V so as to acquire an image of the rear portion of the vehicle V, and photographs the front of the driver D in the driver's seat 1 and/or the passenger T in the rear seat 2.
  • the camera 13b is provided in the vehicle V so as to acquire an image of the front portion of the vehicle V, and photographs the back of the driver D in the driver's seat 1 and/or the passenger T in the rear seat 2.
  • the cameras 13c to 13f are cameras (second photographing units) arranged on the vehicle V so as to photograph the surroundings of the vehicle.
  • the camera 13c can photograph the front of the vehicle V
  • the camera 13d can photograph the rear of the vehicle V
  • the camera 13e can photograph the left side of the vehicle V
  • the camera 13f can photograph the right side of the vehicle V, respectively.
  • By processing the images (video) obtained by the cameras 13c to 13f it is possible to obtain an image (video) as if the entire 360-degree surroundings of the vehicle V were photographed.
  • an image obtained using part of the cameras 13c to 13f may be used as the photographed image.
  • images obtained by the camera 13c that captures the front of the vehicle V, the camera 13e that captures the left side of the vehicle V, and the camera 13f that captures the right side of the vehicle V may be used as the captured images.
  • the state detection sensor 14 is a sensor that detects various states of the vehicle V.
  • the state detection sensor 14 includes a position sensor (GPS sensor) that detects the current position of the vehicle V, a speed sensor that detects the speed of the vehicle V, an acceleration sensor that detects the acceleration of the vehicle V, and an attitude (inclination) of the vehicle V. It may include an orientation sensor (tilt sensor) that detects the Further, the state detection sensor 14 is a sensor that detects the state (eg, position and/or posture) of the driver D on the vehicle V, and a sensor that detects the state (eg, position and/or posture) of the passenger T on the vehicle V. A sensor that detects the positional relationship between the vehicle V (image capturing unit 13), the driver D, and the passenger T may also be included.
  • the communication unit 15 communicates with the image display device 20 using a communication method such as Bluetooth (registered trademark) or Wi-Fi (registered trademark).
  • the communication unit 15 can have a function as a transmission unit that transmits information to the image display device 20 and a function as a reception unit that receives information from the image display device 20 .
  • the image display device 20 is a device (device) capable of transmitting and receiving information to and from the in-vehicle device 10 of the vehicle V.
  • the processing unit 21, the storage unit 22, A display unit 23 (display), a first detection unit 24 , a second detection unit 25 and a communication unit 26 may be included.
  • the image display device 20 can be provided on the clothes 31 of the driver D, the helmet 32 worn by the driver D, and the helmet 33 worn by the passenger T. FIG.
  • the processing unit 21 includes a processor represented by a CPU, a storage device such as a semiconductor memory, an interface with an external device, and the like.
  • the storage unit 22 stores programs executed by the processor and data used by the processor for processing.
  • the processing unit 21 reads the programs stored in the storage unit 22 to a storage device such as a memory and executes them. be able to.
  • a storage device such as a memory
  • an area captured in front of the driver D is displayed as a display image on the display unit 23 (display).
  • the processing unit 21 can read the image display program stored in the storage unit 22 to a storage device such as a memory and execute it. . That is, the processing unit 21 can be a computer that executes an image display program.
  • the processing unit 21 of the present embodiment may be provided with an acquisition unit 21a and a control unit 21b.
  • the acquisition unit 21 a acquires (receives) information from the in-vehicle device 10 via the communication unit 26 .
  • the acquisition unit 21a acquires from the vehicle-mounted device 10 the photographed image obtained by the photographing unit 13 (at least part of the cameras 13c to 13f) of the vehicle-mounted device 10.
  • FIG. The acquisition unit 21 a may also acquire from the in-vehicle device 10 information about various states detected by various sensors of the state detection sensor 14 of the in-vehicle device 10 .
  • the acquisition unit 21a obtains vehicle information indicating the state (posture, tilt) of the vehicle V, driver information indicating the state of the driver D, and information about the various states detected by the state detection sensor 14.
  • the occupant information indicating the state and the positional relationship information indicating the positional relationship among the vehicle V, the driver D, and the occupant T can be acquired from the in-vehicle device 10 .
  • driver information may be understood to include information about the position and/or orientation of the driver D relative to the vehicle V (on the vehicle V).
  • Occupant information may also be understood to include information about the position and/or orientation of the occupant T relative to the vehicle V (on the vehicle V).
  • the control unit 21b displays, as a display image, at least part of an area in front of the driver in the captured image acquired by the acquisition unit 21a on the display unit 23 (display).
  • the control unit 21b can display, as a display image, an area in front of the vehicle V (for example, an area obtained by the camera 13c) in the captured image obtained by the obtaining unit 21a on the display unit 23.
  • the control unit 21b selects an area (hereinafter referred to as a blind spot area) that is estimated to include scenery that the driver D cannot see from the occupant T as a blind spot from the occupant T, based on the captured image acquired by the acquisition unit 21a. ) can be extracted (determined, selected) and displayed on the display unit 23 as a display image.
  • the display unit 23 is a flexible display composed of, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence), and displays a display image determined by the control unit 21b.
  • the display unit 23 is arranged between the driver D sitting in the driver's seat 1 and the passenger T sitting in the rear seat 2 . Specifically, as indicated by area R in FIG. It may be provided on the visor 33a of the helmet 33 of the occupant T. That is, the display unit 23 can be arranged between the driver D and the passenger T so that the passenger T can see it.
  • the first detection unit 24 detects the position and/or orientation of the display unit 23.
  • the first detection unit 24 detects the position and/or posture of the driver D as the position and/or posture of the display unit 23. may be detected.
  • the first detection unit 24 detects the position and/or orientation (orientation) of the helmet 33 of the occupant T as the position and/or orientation of the display unit 23. ) may be detected.
  • the first detection unit 24 may be understood as detecting the relative position and/or relative attitude between the occupant T (for example, the helmet 33 ) and the display unit 23 .
  • the second detection unit 25 detects the direction in which the passenger T is facing.
  • the second detection unit 25 includes a sensor that detects the orientation (position and/or posture) of the helmet 33 of the occupant T
  • the orientation of the helmet 33 of the occupant T may be detected as the direction in which the occupant T faces. good.
  • the second detection unit 25 includes a sensor that detects the line-of-sight direction of the occupant T
  • the line-of-sight direction of the occupant T may be detected as the direction in which the occupant T is facing.
  • FIG. 4A shows an example in which a portion of the rear surface (clothes 31 or helmet 32) of the driver D is configured as the display section 23.
  • FIG. 4B shows an example in which the entire back surface of the driver D (clothes 31 and helmet 32) is configured as the display section 23.
  • FIG. FIG. 4C shows an example in which only the clothes 31 on the back of the driver D are configured as the display section 23 .
  • FIG. 4D shows an example in which only the helmet 32 on the back of the driver D is configured as the display section 23 .
  • the display unit 23 displays the scenery that the passenger T cannot see due to the blind spot of the driver D so as to blend in with the scenery around (in front of) the vehicle V. In other words, Then, it is preferable to display the driver D as if it were transparent, in order to reduce the feeling of strangeness of the passenger T.
  • the control unit 21b based on the positional relationship between the vehicle V (cameras 13c to 13f), the driver D, and the occupant T, uses the photographed image acquired by the acquisition unit 21a.
  • a blind spot area can be extracted and displayed on the display unit 23 as a display image.
  • FIG. 5 is a flow chart showing image display processing performed by the processing unit 21.
  • this flowchart is started when the user (driver D or passenger T) starts up (activates) the image display program, and can be repeatedly executed unless the user shuts down the image display program. That is, this flowchart can be restarted from step S11 even after it ends. Also, during execution of this flowchart, in the in-vehicle device 10 of the vehicle V, photographing by the photographing unit 13 and detection by the state detection sensor 14 are periodically (sequentially) repeatedly executed.
  • step S11 the processing unit 21 (acquisition unit 21a) acquires from the in-vehicle device 10 the captured images obtained by the imaging unit 13 (cameras 13c to 13f).
  • the processing unit 21 may acquire an image of 360 degrees around the vehicle V obtained by the cameras 13c to 13f as a photographed image, or a part of the cameras 13c to 13f (for example, the camera 13c)
  • the obtained image (the image in front of the vehicle) may be acquired as the captured image.
  • step S12 the processing unit 21 (control unit 21b) detects the positional relationship between the vehicle V (image capturing unit 13), the driver D, and the passenger T.
  • the processing unit 21 acquires vehicle information, driver information, and passenger information from the state detection sensor 14 of the in-vehicle device 10, and based on the information, the positions of the vehicle V, the driver D, and the passenger T are determined. Relationships can be detected.
  • the processing unit 21 may acquire the positional relationship information from the state detection sensor 14 of the in-vehicle device 10 and detect the positional relationship based on the information.
  • the processing unit 21 acquires images of the driver D and the passenger T captured by the cameras 13a to 13b of the vehicle V from the in-vehicle device 10, and applies a known image processing technology to the images, A positional relationship among the vehicle V, the driver D, and the passenger T may be detected. In addition, below, the positional relationship of the vehicle V, the driver D, and the passenger
  • step S13 the processing unit 21 (control unit 21b) displays at least part of the captured image acquired in step S11 by using a known image processing technique based on the positional relationship detected in step S12. Determine (extract, select) as an image.
  • the processing unit 21 determines the blind area as the display area based on the positional relationship detected in step S12.
  • the blind spot area can be changed so as to follow the attitude of the vehicle V, the position/attitude of the driver D, and/or the position/attitude of the passenger T. It is possible to reduce the feeling of strangeness of the occupant T in the rear seat 2, such as the difference between the landscape of the image and the actual image.
  • step S14 the processing unit 21 (control unit 21b) displays the display area determined in step S13 on the display unit 23.
  • FIG. 6A to 6C are conceptual diagrams for explaining an example of determining a display image from the captured image CI obtained by the imaging unit 13 (camera 13c) of the vehicle V.
  • FIG. For example, based on the positional relationship detected in step S12, the processing unit 21 selects an area BA corresponding to the landscape in the photographed image CI beyond which the line EL connecting the driver D and the passenger T is extended forward. is determined as a blind spot area, and the area BA is determined as a display image.
  • FIG. 6A shows a state in which both the driver D and the passenger T are seated at the central position of the vehicle V in the left-right direction. Further, FIG.
  • FIG. 6B shows a state in which the driver D is seated with a deviation from the center position of the vehicle V in the left-right direction
  • FIG. 6C This indicates that the As shown in FIGS. 6A to 6C, based on the positional relationship between the vehicle V (image capturing unit 13), the driver D, and the passenger T, the blind spot area of the captured image CI is accurately determined (extracted, selected) as the display image. )can do. By displaying the display image determined in this manner on the display unit 23, the comfort of the occupant T in the rear seat 2 can be improved.
  • the processing unit 21 detects the display unit 23 based on the position and/or orientation of the display unit 23 detected by the first detection unit 24.
  • a display image may be extracted from the captured image CI so as to follow the movement.
  • the processing unit 21 detects the orientation of the passenger T based on the direction in which the passenger T is facing detected by the second detection unit 25 .
  • the display image may be acquired from the captured image CI so as to follow the direction in which the camera is pointing.
  • the display image may be acquired from the captured image CI so as to follow the direction in which the camera is pointing.
  • the image display device 20 of the present embodiment based on the positional relationship between the vehicle V, the driver D, and the passenger T, captures images obtained by the image capturing unit 13 (cameras 13c to 13f) of the vehicle V.
  • An image display process of extracting a blind spot area and displaying the blind spot area as a display image on the display unit 23 is performed.
  • the blind spot area displayed on the display unit 23 as a display image can be changed so as to follow the movement of the driver D and/or the passenger T. Therefore, in the field of view of the occupant T in the rear seat 2, it is possible to reduce the deviation between the scenery around the vehicle V and the scenery of the display image displayed on the display unit 23, thereby further improving the comfort of the occupant T. can be made
  • ⁇ Second embodiment> an example of a method of charging the image display device 20 will be described. It should be noted that the present embodiment basically inherits the first embodiment, and the configuration and processing of the image display device 20 are as described in the first embodiment.
  • the image display device 20 (at least the display unit 23) can be configured to be rechargeable from the battery B mounted on the vehicle V, as shown in FIG.
  • the vehicle V has an accommodation section 6 capable of accommodating the image display device 20 .
  • the storage portion 6 may be an under-seat storage portion 6a provided below the driver's seat 1 or the rear seat 2, or may be a rear storage portion 6b (rear top box) provided behind the rear seat 2.
  • the driver's seat 1 or the rear seat 2 functions as a cover for the under-seat storage section 6a, and the image display device 20 can be stored in the storage section 6a by lifting the driver's seat 1 or the rear seat 2.
  • the image display device 20 can be configured to be rechargeable from the battery B of the vehicle V while being housed in the housing portion 6 .
  • a cable for supplying power to the image display device 20 is provided inside the housing portion 6, and the image display device 20 can be charged by connecting the cable to the image display device 20.
  • a wireless power supply device that wirelessly supplies power to the image display device 20 may be provided inside the housing portion 6 . In this case, the user (driver D or passenger T) can charge the image display device 20 simply by housing the image display device 20 in the housing portion 6 .
  • a program that implements one or more functions described in the above embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device read this program. can be run with The present invention can also be realized by such an aspect.
  • the image display device of the above embodiment includes: An image display device (eg, 20) for a straddle-type vehicle (eg, V) having a camera (eg, 13c to 13f) that captures the surroundings, Acquisition means (for example, 21a) for acquiring a photographed image obtained by the camera; between a driver (for example D) sitting in the driver's seat (for example 1) of the straddle-type vehicle and an occupant (for example T) seated in the rear seat (for example 2) of the straddle-type vehicle Disposed display means (eg 23); a control means (for example, 21b) for displaying at least a part (for example, BA) of an area (for example, BA) photographed in front of the driver in the photographed image obtained by the obtaining means on the display means as a display image.
  • a control means for example, 21b
  • the control means changes the area of the captured image to be the display image according to the position and orientation of the display means detected by the first detection means. According to this embodiment, it is possible to reduce the deviation between the scenery around the vehicle and the scenery of the display image displayed on the display means in the field of view of the passengers in the rear seats, thereby further improving the comfort of the passengers. can be made
  • the display means is provided on the visor (eg 33a) of the occupant's helmet (eg 33). According to this embodiment, rear seat occupants can see the scenery in the blind spot of the driver through the image of the display means, so that the comfort of the rear seat occupants can be improved.
  • the control means changes the area of the captured image to be the display image according to the direction detected by the second detection means. According to this embodiment, it is possible to reduce the deviation between the scenery around the vehicle and the scenery of the display image displayed on the display means in the field of view of the passengers in the rear seats, thereby further improving the comfort of the passengers. can be made
  • the display means is provided on the back of the driver. According to this embodiment, rear seat occupants can see the scenery in the blind spot of the driver through the image of the display means, so that the comfort of the rear seat occupants can be improved.
  • Said display means are provided on said driver's clothing (eg 31) and/or said driver's helmet (eg 32). According to this embodiment, it is easy for passengers in the rear seats to visually recognize the display means on which the display image is displayed.
  • the acquisition means further acquires vehicle information indicating the attitude of the straddle-type vehicle
  • the control means changes the region of the captured image to be the display image so as to follow the attitude of the straddle-type vehicle. According to this embodiment, it is possible to change the area of the photographed image as the display image so as to follow the attitude of the straddle-type vehicle. It is possible to reduce the feeling of discomfort of passengers in the rear seats, such as shifting.
  • the acquisition means further acquires driver information indicating the posture of the driver
  • the control means changes a region of the photographed image to be extracted as the display image so as to follow the driver's posture based on the driver information acquired by the acquisition means. According to this embodiment, it is possible to change the area of the photographed image to be displayed so as to follow the posture of the driver. For example, it is possible to reduce the sense of discomfort of passengers in the rear seats.
  • the acquisition means further acquires positional relationship information indicating a positional relationship between the straddle-type vehicle, the driver, and the passenger
  • the control means determines a region of the captured image to be the display image based on the positional relationship information acquired by the acquisition means. According to this embodiment, it is possible to change the area of the photographed image as the display image so as to follow the posture of the passenger in the rear seat. It is possible to reduce the feeling of discomfort of passengers in the rear seats, such as shifting.
  • the display means can be charged from a battery (for example, B) mounted on the straddle-type vehicle. According to this embodiment, the display means can be charged by the battery of the straddle-type vehicle.
  • the straddle-type vehicle has an accommodation portion (for example, 6) capable of accommodating the display means,
  • the display means can be charged while being housed in the housing section. According to this embodiment, when the display means is not used, it can be stored in the storage portion of the straddle-type vehicle.
  • V straddle-type vehicle
  • 10 in-vehicle device
  • 13 imaging unit
  • 14 state detection sensor
  • 20 image display device
  • 21 processing unit
  • 21a acquisition unit
  • 21b control unit
  • 23 display unit
  • 24 first detector
  • 25 second detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

周囲を撮影するカメラを有する鞍乗型車両用の画像表示装置は、前記カメラで得られた撮影画像を取得する取得手段と、前記鞍乗型車両の運転席に着座している運転者と前記鞍乗型車両の後部座席に着座している乗員との間に配置された表示手段と、前記取得手段で取得された前記撮影画像のうち前記運転者より前方を撮影した領域を、表示画像として前記表示手段に表示する制御手段と、を備える。

Description

画像表示装置、画像表示方法、およびプログラム
 本発明は、鞍乗型車両用の画像表示技術に関するものである。
 特許文献1には、自動二輪車において、車両前頭部に配置されたカメラで得られた映像を、ライダーの視線方向に対峙する部位に設置された表示画面に表示する技術が提案されている。
特開2006-103600号公報
 運転席と後部座席とを有する鞍乗型車両では、後部座席に着座している乗員からは、運転席に着座している運転者が死角となり、例えば車両前方の景色を見ることが困難であった。そのため、後部座席の乗員の快適性を向上させることが望まれる。
 そこで、本発明は、鞍乗型車両における後部座席の乗員の快適性を向上させるために有利な技術を提供することを目的とする。
 上記目的を達成するために、本発明の一側面としての画像表示装置は、周囲を撮影するカメラを有する鞍乗型車両用の画像表示装置であって、前記カメラで得られた撮影画像を取得する取得手段と、前記鞍乗型車両の運転席に着座している運転者と前記鞍乗型車両の後部座席に着座している乗員との間に配置された表示手段と、前記取得手段で取得された前記撮影画像のうち前記運転者より前方を撮影した領域を、表示画像として前記表示手段に表示する制御手段と、を備えることを特徴とする。
 本発明によれば、例えば、鞍乗型車両における後部座席の乗員の快適性を向上させるために有利な技術を提供することができる。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
運転席および後部座席を有する鞍乗型車両の構成例を示す図 画像表示装置を含むシステムの構成例を示すブロック図 車両における撮影部(カメラ)の配置例を示す図 表示部の構成例を模式的に示す図 表示部の構成例を模式的に示す図 表示部の構成例を模式的に示す図 表示部の構成例を模式的に示す図 画像表示処理を示すフローチャート 撮影画像から表示画像を決定する例を説明するための概念図 撮影画像から表示画像を決定する例を説明するための概念図 撮影画像から表示画像を決定する例を説明するための概念図
 以下、本発明の実施形態について図を参照しながら説明する。本発明は、以下の実施形態に限定されるものではなく、本発明の趣旨の範囲内での構成の変更や変形も含む。また、本実施形態で説明されている特徴の組み合わせの全てが本発明に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、その説明を省略する。
 <第1実施形態>
 以下に、本発明に係る一実施形態の画像表示装置について説明する。本実施形態の画像表示装置は、運転席と後部座席とを有する鞍乗型車両に適用され、運転席に着座している運転者より前方を撮影した画像(映像)を、後部座席に着座している乗員に提供する装置である。以下の実施形態では、鞍乗型車両として自動二輪車を例示して説明するが、三輪車などの他の形式の鞍乗型車両にも、本発明に係る画像表示装置を適用することができる。
 図1は、本実施形態の画像表示装置20が適用される鞍乗型車両Vの一例を示している。図1において、矢印FRは鞍乗型車両Vの前後方向を示しており、FTは前方、RRは後方を示している。図1に示される鞍乗型車両Vは、2人乗り用の自動二輪車であり、前輪FW、後輪RW、運転席1、および後部座席2を有する。図中では、運転席1に運転者Dが着座しており、後部座席2に乗員T(タンデムライダーと呼ばれることがある)が着座している。また、鞍乗型車両Vは、鞍乗型車両Vの操舵を行うために運転者Dが把持するハンドル3と、各種メータが搭載されるメータバイザ4と、走行風を防ぐために運転者Dの前方に配置されるスクリーン5とを備えうる。なお、以下では、鞍乗型車両Vを、単に車両Vと表記することがある。
 図2は、本実施形態の画像表示装置20を含むシステム100の構成例を示すブロック図である。本実施形態のシステム100は、車載装置10と画像表示装置20とを含みうる。車載装置10と画像表示装置20とは、例えばBluetooth(登録商標)やWi-Fi(登録商標)などの通信方式を用いて相互に通信可能に接続されうるが、インターネットを介して相互に通信可能に接続されてもよい。
 まず、車載装置10の構成例について説明する。車載装置10は、鞍乗型車両Vに搭載される装置であり、例えば、システムバス16を介して相互に通信可能に接続された処理部11、記憶部12、撮影部13、状態検知センサ14、および通信部15を含みうる。処理部11は、例えばECU(Electronic Control Unit)であり、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含みうる。記憶部12には、プロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納されており、処理部11は、記憶部12に記憶されたプログラムをメモリ等の記憶デバイスに読み出して実行することができる。
 撮影部13は、例えばカメラを含み、車両Vの一部(運転者)および/または車両Vの周囲を撮影して画像(映像)を取得するように車両Vに設けられる。例えば、撮影部13は、静止画を繰り返し(例えば周期的に)取得するように撮影を行ってもよいし、動画を取得するように撮影を行ってもよい。本実施形態の撮影部13は、図3に示すように車両Vに配置された複数のカメラ13a~13fを含みうる。図3は、車両Vの上面を模式的に示す図であり、車両Vにおける撮影部13(カメラ13a~13f)の配置例を示している。図中において、破線の扇形状は各カメラの撮影方向(撮影範囲、撮影視野)を表しており、「FT」は車両Vの前方、「RR」は車両の後方をそれぞれ示している。
 図3に示す例において、カメラ13a~13bは、車両Vに乗車している運転者Dおよび/または乗員Tを撮影可能に車両Vに配置されたカメラ(第1撮影部)である。カメラ13aは、車両Vの後部の画像を取得するように車両Vに設けられており、運転席1の運転者Dおよび/または後部座席2の乗員Tの前面を撮影する。カメラ13bは、車両Vの前部の画像を取得するように車両Vに設けられており、運転席1の運転者Dおよび/または後部座席2の乗員Tの背面を撮影する。また、カメラ13c~13fは、車両Vの周囲を撮影可能に車両Vに配置されたカメラ(第2撮影部)である。カメラ13cは車両Vの前方を、カメラ13dは車両Vの後方を、カメラ13eは車両Vの左側方を、カメラ13fは車両Vの右側方をそれぞれ撮影しうる。このカメラ13c~13fで得られた画像(映像)を処理することにより、車両Vの周囲360度を全体的に撮影したような画像(映像)を撮影画像として得ることができる。なお、以下では、車両の周囲360度の全体画像を撮影画像として用いる例を説明するが、カメラ13c~13fの一部を用いて得られた画像を撮影画像として用いてもよい。一例として、車両Vの前方を撮影するカメラ13c、車両Vの左側方を撮影するカメラ13e、および、車両Vの右側方を撮影するカメラ13fで得られた画像を撮影画像として用いてもよい。
 状態検知センサ14は、車両Vの各種状態を検知するセンサである。例えば、状態検知センサ14は、車両Vの現在位置を検知する位置センサ(GPSセンサ)、車両Vの速度を検知する速度センサ、車両Vの加速度を検知する加速度センサ、車両Vの姿勢(傾き)を検知する姿勢センサ(傾きセンサ)を含みうる。また、状態検知センサ14は、車両V上における運転者Dの状態(例えば、位置および/または姿勢)を検知するセンサ、車両V上における乗員Tの状態(例えば、位置および/または姿勢)を検知するセンサ、車両V(撮影部13)と運転者Dと乗員Tとの位置関係を検知するセンサなどを含んでもよい。
 通信部15は、例えばBluetooth(登録商標)やWi-Fi(登録商標)などの通信方式を用いて画像表示装置20と通信する。具体的には、通信部15は、画像表示装置20に情報を送信する送信部としての機能と、画像表示装置20から情報を受信する受信部としての機能とを有しうる。
 次に、画像表示装置20の構成について説明する。画像表示装置20は、車両Vの車載装置10と情報の送受信を行うことができる機器(装置)であり、システムバス27を介して相互に通信可能に接続された処理部21、記憶部22、表示部23(ディスプレイ)、第1検出部24、第2検出部25および通信部26を含みうる。画像表示装置20は、運転者Dの衣服31、運転者Dが被るヘルメット32、乗員Tが被るヘルメット33に設けられうる。
 処理部21は、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶部22には、プロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納されており、処理部21は、記憶部22に記憶されたプログラムをメモリ等の記憶デバイスに読み出して実行することができる。本実施形態の場合、記憶部22には、車両Vのカメラ13c~13fで撮影された撮影画像のうち運転者Dより前方を撮影した領域を表示画像として表示部23(ディスプレイ)に表示するためのアプリケーションプログラム(以下では、画像表示プログラムと表記することがある)が格納されており、処理部21は、記憶部22に記憶された画像表示プログラムをメモリ等の記憶デバイスに読み出して実行しうる。つまり、処理部21は、画像表示プログラムを実行するコンピュータとなりうる。
 本実施形態の処理部21には、取得部21aと制御部21bとが設けられうる。
 取得部21aは、通信部26を介して車載装置10から情報を取得(受信)する。本実施形態の場合、取得部21aは、車載装置10の撮影部13(カメラ13c~13fの少なくとも一部)で得られた撮影画像を車載装置10から取得する。また、取得部21aは、車載装置10の状態検知センサ14の各種センサで検知された各種状態に関する情報を車載装置10から取得してもよい。一例として、取得部21aは、状態検知センサ14で検知された各種状態に関する情報として、車両Vの状態(姿勢、傾き)を示す車両情報、運転者Dの状態を示す運転者情報、乗員Tの状態を示す乗員情報、車両Vと運転者Dと乗員Tとの位置関係を示す位置関係情報を車載装置10から取得しうる。ここで、運転者情報は、車両Vに対する(車両V上における)運転者Dの位置および/または姿勢に関する情報を含むものとして理解されてもよい。また、乗員情報は、車両Vに対する(車両V上における)乗員Tの位置および/または姿勢に関する情報を含むものとして理解されてもよい。
 制御部21b(表示制御部)は、取得部21aで取得された撮影画像のうち運転者より前方を撮影した領域の少なくとも一部を、表示画像として表示部23(ディスプレイ)に表示する。例えば、制御部21bは、取得部21aで取得された撮影画像のうち、車両Vの前方を撮影した領域(例えば、カメラ13cで得られた領域)を、表示画像として表示部23に表示しうる。また、制御部21bは、取得部21aで取得された撮影画像から、運転者Dにより乗員Tから死角となって乗員Tが見ることができない風景を含むと推定される領域(以下では、死角領域と表記することがある)を抽出(決定、選択)し、当該領域を表示画像として表示部23に表示しうる。
 表示部23は、例えばLCD(Liquid Crystal Display)や有機EL(Electro Luminescence)等で構成されたフレキシブルなディスプレイであり、制御部21bで決定された表示画像を表示する。表示部23は、運転席1に着座している運転者Dと、後部座席2に着座している乗員Tとの間に配置される。具体的には、表示部23は、図1の範囲Rで示されるように、運転者Dの背面(運転者Dの衣服31の背面、および/または運転者Dのヘルメット32の背面)に設けられてもよいし、乗員Tのヘルメット33のバイザー33aに設けられてもよい。即ち、表示部23は、運転者Dと乗員Tとの間において、乗員Tが見ることができるように配置されうる。
 第1検出部24は、表示部23の位置および/または姿勢を検出する。表示部23が運転者D(衣服31および/またはヘルメット32)に設けられている場合、第1検出部24は、表示部23の位置および/または姿勢として、運転者Dの位置および/または姿勢を検出してもよい。表示部23が乗員Tのヘルメット33のバイザー33aに設けられている場合、第1検出部24は、表示部23の位置および/または姿勢として、乗員Tのヘルメット33の位置および/または姿勢(向き)を検出してもよい。ここで、第1検出部24は、乗員T(例えばヘルメット33)と表示部23との相対位置および/または相対姿勢を検知するものとして理解されてもよい。
 第2検出部25は、乗員Tが向いている方向を検出する。第2検出部25は、乗員Tのヘルメット33の向き(位置および/または姿勢)を検出するセンサを含む場合、乗員Tが向いている方向として、乗員Tのヘルメット33の向きを検出してもよい。また、第2検出部25は、乗員Tの視線方向を検知するセンサを含む場合、乗員Tが向いている方向として、乗員Tの視線方向を検出してもよい。
 ここで、表示部23が運転者Dの背面に設けられている場合における表示部23の構成例(配置例)について説明する。表示部23は、カメラ13c~13fで得られた撮影画像のうち、乗員Tの死角領域として制御部21bで抽出された領域を表示画像として表示する。図4A~図4Dは、表示部23の構成例を模式的に示しており、各図では、車両Vの前方の風景と運転者Dの背面とが示されている。図4Aは、運転者Dの背面(衣服31またはヘルメット32)の一部を表示部23として構成した例を示している。図4Bは、運転者Dの背面(衣服31およびヘルメット32)の全面を表示部23として構成した例を示している。図4Cは、運転者Dの背面のうち衣服31のみを表示部23として構成した例を示している。また、図4Dは、運転者Dの背面のうちヘルメット32のみを表示部23として構成した例を示している。ここで、図4B~図4Dの例において、表示部23は、運転者Dによる死角で乗員Tが見ることできない風景を、車両Vの周囲(前方)の風景に馴染むように表示すること、換言すると、あたかも運転者Dが透明になったように表示することが、乗員Tの違和感を低減する点で好ましい。そのため、本実施形態の画像表示装置20において、制御部21bは、車両V(カメラ13c~13f)と運転者Dと乗員Tとの位置関係に基づいて、取得部21aで取得された撮影画像から死角領域を抽出し、当該死角領域を表示画像として表示部23に表示しうる。
 [画像表示処理]
 次に、画像表示プログラムが実行されたときに画像表示装置20の処理部21で実行される処理(画像表示処理)のフローについて説明する。図5は、処理部21で行われる画像表示処理を示すフローチャートである。なお、本フローチャートは、ユーザ(運転者Dまたは乗員T)が画像表示プログラムを立ち上げた(起動させた)場合に開始し、ユーザが画像表示プログラムを立下げない限り繰り返し実行されうる。即ち、本フローチャートは、終了した後もステップS11から新たに開始されうる。また、本フローチャートの実行中、車両Vの車載装置10では、撮影部13による撮影と状態検知センサ14による検知とが周期的に(逐次的に)繰り返し実行されているものとする。
 ステップS11では、処理部21(取得部21a)は、撮影部13(カメラ13c~13f)で得られた撮影画像を車載装置10から取得する。本ステップS11において、処理部21は、カメラ13c~13fで得られた車両Vの周囲360度の画像を撮影画像として取得してもよいし、カメラ13c~13fの一部(例えばカメラ13c)で得られた画像(車両前方の画像)を撮影画像として取得してもよい。
 ステップS12では、処理部21(制御部21b)は、車両V(撮影部13)と運転者Dと乗員Tとの位置関係を検出する。例えば、処理部21は、車載装置10の状態検知センサ14から車両情報、運転者情報および乗員情報を取得することにより、それらの情報に基づいて、車両Vと運転者Dと乗員Tとの位置関係を検出することができる。また、処理部21は、車載装置10の状態検知センサ14から位置関係情報を取得することにより、その情報に基づいて当該位置関係を検出してもよい。ここで、処理部21は、車両Vのカメラ13a~13bにより運転者Dおよび乗員Tを撮影した画像を車載装置10から取得し、当該画像に対して公知の画像処理技術を適用することにより、車両Vと運転者Dと乗員Tとの位置関係を検出してもよい。なお、以下では、車両Vと運転者Dと乗員Tとの位置関係を、単に位置関係と表記することがある。
 ステップS13では、処理部21(制御部21b)は、ステップS12で検出した位置関係に基づいて、公知の画像処理技術を用いることにより、ステップS11で取得した撮影画像のうちの少なくとも一部を表示画像として決定(抽出、選択)する。本実施形態の場合、処理部21は、ステップS12で検出した位置関係に基づいて死角領域を表示領域として決定する。これにより、車両Vの姿勢、運転者Dの位置・姿勢、および/または、乗員Tの位置・姿勢に追従するように、死角領域を変更することが可能となるため、表示部23に表示された画像の風景と実際の画像がずれる等、後部座席2の乗員Tの違和感を低減することができる。次いで、ステップS14では、処理部21(制御部21b)は、ステップS13で決定した表示領域を表示部23に表示する。
 図6A~図6Cは、車両Vの撮影部13(カメラ13c)で得られた撮影画像CIから表示画像を決定する例を説明するための概念図である。例えば、処理部21は、ステップS12で検出した位置関係に基づいて、撮影画像CIのうち、運転者Dと乗員Tとを結ぶ線ELを前方方向に延長した先にある風景に対応する領域BAを死角領域と判断し、当該領域BAを表示画像として決定する。図6Aは、運転者Dおよび乗員Tの両者とも、左右方向における車両Vの中央位置に着座している状態を示している。また、図6Bは、左右方向において運転者Dが車両Vの中央位置からずれて着座している状態を示しており、図6Cは、左右方向において乗員Tが車両Vの中央位置からずれて着座している状態を示している。図6A~図6Cに示されるように、車両V(撮影部13)と運転者Dと乗員Tとの位置関係に基づいて、撮影画像CIの死角領域を表示画像として精度よく決定(抽出、選択)することができる。このように決定された表示画像を表示部23に表示することにより、後部座席2の乗員Tの快適性を向上させることができる。
 ここで、運転者Dの背面を表示部23として構成している場合、処理部21は、第1検出部24により検出された表示部23の位置および/または姿勢に基づいて、表示部23の動きに追従するように、撮像画像CIから表示画像を抽出してもよい。これにより、後部座席2の乗員Tの視野において、車両Vの周囲の風景と表示部23に表示される表示画像の風景とのずれを低減することができるため、当該乗員Tの快適性を更に向上させることができる。また、乗員Tのヘルメット33のバイザー33aを表示部23として構成している場合、処理部21は、第2検出部25により検出された乗員Tの向いている方向に基づいて、乗員Tの向いている方向に追従するように、撮像画像CIから表示画像を取得してもよい。この場合においても、後部座席2の乗員Tの視野において、車両Vの周囲の風景と表示部23に表示される表示画像の風景とのずれを低減することができるため、当該乗員Tの快適性を更に向上させることができる。
 上述したように、本実施形態の画像表示装置20は、車両V、運転者Dおよび乗員Tの位置関係に基づいて、車両Vの撮影部13(カメラ13c~13f)で得られた撮影画像から死角領域を抽出し、当該死角領域を表示画像として表示部23に表示する画像表示処理を行う。これにより、表示画像として表示部23に表示される死角領域を、運転者Dおよび/または乗員Tの動きに追従するように変更することができる。そのため、後部座席2の乗員Tの視野において、車両Vの周囲の風景と表示部23に表示される表示画像の風景とのずれを低減することができるため、当該乗員Tの快適性を更に向上させることができる。
 <第2実施形態>
 本実施形態では、上記の画像表示装置20の充電方法の一例について説明する。なお、本実施形態は、第1実施形態を基本的に引き継ぐものであり、画像表示装置20の構成および処理については第1実施形態で説明したとおりである。
 画像表示装置20(少なくとも表示部23)は、図1に示されるように、車両Vに搭載されたバッテリBから充電可能に構成されうる。一例として、車両Vは、画像表示装置20を収容可能な収容部6を有する。収容部6は、運転席1または後部座席2に下方に設けられたシート下収容部6aであってもよいし、後部座席2の後方に設けられたリア収容部6b(リアトップボックス)であってもよい。シート下収容部6aは、運転席1または後部座席2が蓋として機能しており、運転席1または後部座席2を持ち上げることで収容部6aに画像表示装置20を収容することができる。
 画像表示装置20は、収容部6に収容された状態で車両VのバッテリBから充電可能に構成されうる。一例として、画像表示装置20に給電するためのケーブルを収容部6の内部に設けておき、当該ケーブルを画像表示装置20に接続することにより画像表示装置20の充電を行うことができる。また、無線を用いて画像表示装置20に給電する無線給電装置を収容部6の内部に設けておいてもよい。この場合、ユーザ(運転者Dまたは乗員T)は、画像表示装置20を収容部6に収容するだけで、画像表示装置20の充電を行うことができる。
 <その他の実施形態>
 また、上記実施形態で説明された1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給され、該システム又は装置のコンピュータにおける1以上のプロセッサは、このプログラムを読み出して実行することができる。このような態様によっても本発明は実現可能である。
 <実施形態のまとめ>
 1.上記実施形態の画像表示装置は、
 周囲を撮影するカメラ(例えば13c~13f)を有する鞍乗型車両(例えばV)用の画像表示装置(例えば20)であって、
 前記カメラで得られた撮影画像を取得する取得手段(例えば21a)と、
 前記鞍乗型車両の運転席(例えば1)に着座している運転者(例えばD)と前記鞍乗型車両の後部座席(例えば2)に着座している乗員(例えばT)との間に配置された表示手段(例えば23)と、
 前記取得手段で取得された前記撮影画像のうち前記運転者より前方を撮影した領域の少なくとも一部(例えばBA)を、表示画像として前記表示手段に表示する制御手段(例えば21b)と、を備える。
 この実施形態によれば、後部座席の乗員は、運転者により死角となる風景を表示手段の画像を通して見ることができるため、後部座席の乗員の快適性を向上させることができる。
 2.上記実施形態において、
 前記表示手段の位置および/または姿勢を検出する第1検出手段(例えば24)を更に備え、
 前記制御手段は、前記表示画像とする前記撮影画像の領域を、前記第1検出手段で検出された前記表示手段の位置および姿勢に応じて変更する。
 この実施形態によれば、後部座席の乗員の視野において、車両の周囲の風景と表示手段に表示される表示画像の風景とのずれを低減することができるため、当該乗員の快適性を更に向上させることができる。
 3.上記実施形態において、
 前記表示手段は、前記乗員のヘルメット(例えば33)のバイザー(例えば33a)に設けられている。
 この実施形態によれば、後部座席の乗員は、運転者により死角となる風景を表示手段の画像を通して見ることができるため、後部座席の乗員の快適性を向上させることができる。
 4.上記実施形態において、
 前記乗員が向いている方向を検出する第2検出手段(例えば25)を更に備え、
 前記制御手段は、前記表示画像とする前記撮影画像の領域を、前記第2検出手段で検出された前記方向に応じて変更する。
 この実施形態によれば、後部座席の乗員の視野において、車両の周囲の風景と表示手段に表示される表示画像の風景とのずれを低減することができるため、当該乗員の快適性を更に向上させることができる。
 5.上記実施形態において、
 前記表示手段は、前記運転者の背面に設けられている。
 この実施形態によれば、後部座席の乗員は、運転者により死角となる風景を表示手段の画像を通して見ることができるため、後部座席の乗員の快適性を向上させることができる。
 6.上記実施形態において、
 前記表示手段は、前記運転者の衣服(例えば31)および/または前記運転者のヘルメット(例えば32)に設けられている。
 この実施形態によれば、後部座席の乗員にとって、表示画像が表示されている表示手段を視認しやすい。
 7.上記実施形態において、
 前記取得手段は、前記鞍乗型車両の姿勢を示す車両情報を更に取得し、
 前記制御手段は、前記取得手段で取得された前記車両情報に基づいて、前記鞍乗型車両の姿勢に追従するように、前記表示画像とする前記撮影画像の領域を変更する。
 この実施形態によれば、鞍乗型車両の姿勢に追従するように、表示画像とする撮影画像の領域を変更することが可能となるため、表示手段に表示された画像の風景と実際の画像がずれる等、後部座席の乗員の違和感を低減することができる。
 8.上記実施形態において、
 前記取得手段は、前記運転者の姿勢を示す運転者情報を更に取得し、
 前記制御手段は、前記取得手段で取得された前記運転者情報に基づいて、前記運転者の姿勢に追従するように、前記表示画像として抽出する前記撮影画像の領域を変更する。
 この実施形態によれば、運転者の姿勢に追従するように、表示画像とする撮影画像の領域を変更することが可能となるため、表示手段に表示された画像の風景と実際の画像がずれる等、後部座席の乗員の違和感を低減することができる。
 9.上記実施形態において、
 前記取得手段は、前記鞍乗型車両と前記運転者と前記乗員との位置関係を示す位置関係情報を更に取得し、
 前記制御手段は、前記取得手段で取得された前記位置関係情報に基づいて、前記撮影画像のうち前記表示画像とする領域を決定する。
 この実施形態によれば、後部座席の乗員の姿勢に追従するように、表示画像とする撮影画像の領域を変更することが可能となるため、表示手段に表示された画像の風景と実際の画像がずれる等、後部座席の乗員の違和感を低減することができる。
 10.上記実施形態において、
 前記表示手段は、前記鞍乗型車両に搭載されたバッテリ(例えばB)から充電可能である。
 この実施形態によれば、鞍乗型車両のバッテリで表示手段を充電することができる。
 11.上記実施形態において、
 前記鞍乗型車両は、前記表示手段を収容可能な収容部(例えば6)を有し、
 前記表示手段は、前記収容部に収容された状態で充電可能である。
 この実施形態によれば、表示手段を使わないときには、鞍乗型車両の収容部に収容することができる。
 発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
 本願は、2021年3月26日提出の日本国特許出願特願2021-053602を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。
V:鞍乗型車両、10:車載装置、13:撮影部、14:状態検知センサ、20:画像表示装置、21:処理部、21a:取得部、21b:制御部、23:表示部、24:第1検出部、25:第2検出部

Claims (13)

  1.  周囲を撮影するカメラを有する鞍乗型車両用の画像表示装置であって、
     前記カメラで得られた撮影画像を取得する取得手段と、
     前記鞍乗型車両の運転席に着座している運転者と前記鞍乗型車両の後部座席に着座している乗員との間に配置された表示手段と、
     前記取得手段で取得された前記撮影画像のうち前記運転者より前方を撮影した領域の少なくとも一部を、表示画像として前記表示手段に表示する制御手段と、
     を備えることを特徴とする画像表示装置。
  2.  前記表示手段の位置および/または姿勢を検出する第1検出手段を更に備え、
     前記制御手段は、前記表示画像とする前記撮影画像の領域を、前記第1検出手段で検出された前記表示手段の位置および姿勢に応じて変更する、ことを特徴とする請求項1に記載の画像表示装置。
  3.  前記表示手段は、前記乗員のヘルメットのバイザーに設けられている、ことを特徴とする請求項1又は2に記載の画像表示装置。
  4.  前記乗員が向いている方向を検出する第2検出手段を更に備え、
     前記制御手段は、前記表示画像とする前記撮影画像の領域を、前記第2検出手段で検出された前記方向に応じて変更する、ことを特徴とする請求項3に記載の画像表示装置。
  5.  前記表示手段は、前記運転者の背面に設けられている、ことを特徴とする請求項1乃至4のいずれか1項に記載の画像表示装置。
  6.  前記表示手段は、前記運転者の衣服および/または前記運転者のヘルメットに設けられている、ことを特徴とする請求項5に記載の画像表示装置。
  7.  前記取得手段は、前記鞍乗型車両の姿勢を示す車両情報を更に取得し、
     前記制御手段は、前記取得手段で取得された前記車両情報に基づいて、前記鞍乗型車両の姿勢に追従するように、前記表示画像とする前記撮影画像の領域を変更する、ことを特徴とする請求項1乃至6のいずれか1項に記載の画像表示装置。
  8.  前記取得手段は、前記運転者の姿勢を示す運転者情報を更に取得し、
     前記制御手段は、前記取得手段で取得された前記運転者情報に基づいて、前記運転者の姿勢に追従するように、前記表示画像として抽出する前記撮影画像の領域を変更する、ことを特徴とする請求項1乃至7のいずれか1項に記載の画像表示装置。
  9.  前記取得手段は、前記鞍乗型車両と前記運転者と前記乗員との位置関係を示す位置関係情報を更に取得し、
     前記制御手段は、前記取得手段で取得された前記位置関係情報に基づいて、前記撮影画像のうち前記表示画像とする領域を決定する、ことを特徴とする請求項1乃至8のいずれか1項に記載の画像表示装置。
  10.  前記表示手段は、前記鞍乗型車両に搭載されたバッテリから充電可能である、ことを特徴とする請求項1乃至9のいずれか1項に記載の画像表示装置。
  11.  前記鞍乗型車両は、前記表示手段を収容可能な収容部を有し、
     前記表示手段は、前記収容部に収容された状態で充電可能である、ことを特徴とする請求項10に記載の画像表示装置。
  12.  周囲を撮影するカメラを有する鞍乗型車両用の画像表示方法であって、
     前記カメラで得られた撮影画像を取得する取得工程と、
     前記鞍乗型車両の運転席に着座している運転者と前記鞍乗型車両の後部座席に着座している乗員との間に配置された表示手段に、前記取得工程で取得された前記撮影画像のうち前記運転者より前方を撮影した領域の少なくとも一部を表示する表示工程と、
     を含むことを特徴とする画像表示方法。
  13.  請求項12に記載の画像表示方法をコンピュータに実行させるためのプログラム。
PCT/JP2022/002925 2021-03-26 2022-01-26 画像表示装置、画像表示方法、およびプログラム WO2022201836A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021053602 2021-03-26
JP2021-053602 2021-03-26

Publications (1)

Publication Number Publication Date
WO2022201836A1 true WO2022201836A1 (ja) 2022-09-29

Family

ID=83395339

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/002925 WO2022201836A1 (ja) 2021-03-26 2022-01-26 画像表示装置、画像表示方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2022201836A1 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331766A (ja) * 1995-06-02 1996-12-13 Honda Motor Co Ltd バッテリ内蔵ヘルメットおよびヘルメット充電装置
JP2001280982A (ja) * 2000-03-31 2001-10-10 Toshiba Corp 自動2輪車の情報提供装置
JP2003141589A (ja) * 2001-10-31 2003-05-16 Matsushita Electric Ind Co Ltd 自動料金収受車載装置
JP2011201478A (ja) * 2010-03-26 2011-10-13 Honda Motor Co Ltd エアバッグジャケット作動装置
US20130104297A1 (en) * 2011-11-01 2013-05-02 Brandon James Silva Digital Device Screen Mount for a Helmet
US20150083765A1 (en) * 2013-09-23 2015-03-26 Gary L. Cox Support for an electronic device
US20160309827A1 (en) * 2015-04-27 2016-10-27 Intelligent Cranium Helmets, LLC Protective Helmet
JP2017030530A (ja) * 2015-07-31 2017-02-09 スズキ株式会社 映像表示システム
KR20170112076A (ko) * 2016-03-30 2017-10-12 주식회사 차후 자전거 운행상태 표시장치
JP2018012439A (ja) * 2016-07-21 2018-01-25 株式会社富士通ゼネラル 後方視界補助装置
JP2019181976A (ja) * 2018-04-02 2019-10-24 株式会社ザクティ 撮影装置および移動体の後方確認システム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331766A (ja) * 1995-06-02 1996-12-13 Honda Motor Co Ltd バッテリ内蔵ヘルメットおよびヘルメット充電装置
JP2001280982A (ja) * 2000-03-31 2001-10-10 Toshiba Corp 自動2輪車の情報提供装置
JP2003141589A (ja) * 2001-10-31 2003-05-16 Matsushita Electric Ind Co Ltd 自動料金収受車載装置
JP2011201478A (ja) * 2010-03-26 2011-10-13 Honda Motor Co Ltd エアバッグジャケット作動装置
US20130104297A1 (en) * 2011-11-01 2013-05-02 Brandon James Silva Digital Device Screen Mount for a Helmet
US20150083765A1 (en) * 2013-09-23 2015-03-26 Gary L. Cox Support for an electronic device
US20160309827A1 (en) * 2015-04-27 2016-10-27 Intelligent Cranium Helmets, LLC Protective Helmet
JP2017030530A (ja) * 2015-07-31 2017-02-09 スズキ株式会社 映像表示システム
KR20170112076A (ko) * 2016-03-30 2017-10-12 주식회사 차후 자전거 운행상태 표시장치
JP2018012439A (ja) * 2016-07-21 2018-01-25 株式会社富士通ゼネラル 後方視界補助装置
JP2019181976A (ja) * 2018-04-02 2019-10-24 株式会社ザクティ 撮影装置および移動体の後方確認システム

Similar Documents

Publication Publication Date Title
EP2990265B1 (en) Vehicle control apparatus
KR20160132655A (ko) 차량용 리어 콤비네이션 램프 및 이를 포함하는 차량
JP2015107798A (ja) 二輪車のドライバの転倒を検知する方法および装置
JP2008141578A (ja) 車両周辺視認装置
US11463408B2 (en) Vehicular secure gateway system
CN104584541A (zh) 图像生成设备、图像显示系统、参数获取设备、图像生成方法和参数获取方法
US11203347B2 (en) In-vehicle device, information management server, information management system, and method
US11127152B2 (en) Indoor monitoring device
EP3496996B1 (en) Method for assisting the driver of a motor vehicle in maneuvering the motor vehicle with a trailer, driver assistance system as well as vehicle/trailer combination
JP2018012439A (ja) 後方視界補助装置
CN112349256B (zh) 显示控制装置、显示控制方法及存储介质
JP2007129290A (ja) 車両/周囲画像提供装置
JP2007288440A (ja) 自転車通信システム
JP7168367B2 (ja) 事故通報装置
WO2022201836A1 (ja) 画像表示装置、画像表示方法、およびプログラム
JP2015106777A (ja) 画像処理装置並びに運転支援装置およびナビゲーション装置およびカメラ装置
JP2022126659A (ja) 車両用映像処理装置、車両用映像処理システム、車両用映像処理方法およびプログラム
JP2022044056A (ja) 情報収集装置、情報収集サーバ及び情報収集システム
JP2005286938A (ja) 車外情報表示装置
JP7227106B2 (ja) 操作制御装置、操作制御方法、およびプログラム
KR102246972B1 (ko) 차량 제어장치 및 차량 제어방법
WO2022201957A1 (ja) 監視装置、車両、情報端末、監視方法、およびプログラム
EP3623196B1 (en) Vehicle display device
JP7274045B2 (ja) 画像処理装置、車両、画像処理方法およびプログラム
JP7192699B2 (ja) 車両用操作システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22774638

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22774638

Country of ref document: EP

Kind code of ref document: A1