WO2011148455A1 - 映像処理装置、映像処理方法及び映像処理プログラム - Google Patents

映像処理装置、映像処理方法及び映像処理プログラム Download PDF

Info

Publication number
WO2011148455A1
WO2011148455A1 PCT/JP2010/058774 JP2010058774W WO2011148455A1 WO 2011148455 A1 WO2011148455 A1 WO 2011148455A1 JP 2010058774 W JP2010058774 W JP 2010058774W WO 2011148455 A1 WO2011148455 A1 WO 2011148455A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
sight
mirror
image
video
Prior art date
Application number
PCT/JP2010/058774
Other languages
English (en)
French (fr)
Inventor
譲 山影
濱口 慎吾
尾崎 一幸
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2012517009A priority Critical patent/JP5387763B2/ja
Priority to PCT/JP2010/058774 priority patent/WO2011148455A1/ja
Publication of WO2011148455A1 publication Critical patent/WO2011148455A1/ja
Priority to US13/683,601 priority patent/US9787946B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/0875Registering performance data using magnetic data carriers
    • G07C5/0891Video recorder in combination with video camera
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • G09B19/167Control of land vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/042Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles providing simulation in a real vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/052Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Definitions

  • the present invention relates to a video processing device, a video processing method, and a video processing program that generate a video that a driver is observing.
  • an accident video is acquired by a drive recorder mounted on a vehicle, and the accident video is reproduced to be used for traffic safety education.
  • the drive recorder detects an impact in a collision accident or dangerous driving such as sudden braking and sudden steering operation, the drive recorder records a front image of the host vehicle and a traveling state of the host vehicle.
  • the video acquired by the drive recorder as described above is only the front video of the host vehicle, and the video that can be confirmed by the viewer who views the video of the drive recorder is also limited to the front video. Therefore, for example, when the driver is facing right or left, the video viewed by the viewer is different from the video actually viewed by the driver.
  • traffic safety education can analyze the causes of dangerous driving, such as what kind of situation the driver actually observed and what kind of situation caused dangerous driving. Is effective.
  • a video acquisition unit that acquires peripheral information including a video of the periphery of the host vehicle, a gaze acquisition unit that acquires a gaze origin and a gaze direction of the driver of the host vehicle, and a gaze image corresponding to the gaze origin from the peripheral information
  • a line-of-sight image generation unit that generates a shielding information including a vehicle body region or body image of the host vehicle that blocks the driver's line of sight based on the line-of-sight origin, the line-of-sight image, and the line-of-sight image
  • a video processing device including a display video generation unit that generates a display video based on shielding information.
  • (A) is explanatory drawing (1) which shows an example of the calculation method of the gaze origin P and a gaze vector
  • (b) is explanatory drawing which shows pitch angle (theta) (beta)
  • (c) is explanatory drawing which shows position angle (theta) (alpha). It is.
  • (A) is explanatory drawing (1) for demonstrating the relationship between three effective visual field ranges and a mirror, and the mirror visual recognition range visible via a mirror
  • (b) is an effective visual field range and between mirrors
  • (c) is an explanatory diagram (2) for explaining the relationship between the mirror and the mirror viewing range visible through the mirror
  • (c) is the relationship between the effective visual field range and the mirror and visible through the mirror.
  • Explanatory drawing for demonstrating the relationship between an effective visual field range and a mirror, and the mirror visual recognition range visible via a mirror.
  • Explanatory drawing (1) which shows the relationship between the vehicle window image
  • Explanatory drawing (2) which shows the relationship between the vehicle window image and mirror image
  • Explanatory drawing (3) which shows the relationship between the vehicle window image
  • (A) is a vehicle window image including other vehicles and pedestrians when the driver is facing forward
  • (b) is a vehicle window display image in which vehicle window shielding information is combined with the vehicle window image of (a).
  • (A) is a vehicle window image including other vehicles and pedestrians when the driver is facing right diagonally forward
  • (b) is a vehicle window display image in which vehicle window shielding information is combined with the vehicle window image of (a). is there.
  • (A) is a vehicle window image including other vehicles and pedestrians when the driver is facing diagonally to the left
  • (b) is a vehicle window display image in which vehicle window shielding information is combined with the vehicle window image of (a). is there.
  • FIG. 12 is an example of a block diagram illustrating a functional configuration of each device according to Modification 2.
  • Explanatory drawing which shows the example of a process of a display image.
  • An example of the block diagram which shows the hardware constitutions of the driving
  • An example of the block diagram which shows the function structure of the driving
  • the driving image processing apparatus 100 generates an image actually observed by the driver of the host vehicle 300 during driving.
  • the driving image processing apparatus 100 generates a line-of-sight image corresponding to the line-of-sight origin P and the line-of-sight direction of the driver of the host vehicle 300 from the surrounding information of the host vehicle 300.
  • the surrounding information includes at least a surrounding image of the host vehicle 300, and includes, for example, images of objects such as other vehicles around the host vehicle 300 and roads.
  • the driving image processing apparatus 100 calculates shielding information including the vehicle body region and / or vehicle body image of the own vehicle 300 that blocks the driver's line of sight based on the driver's line of sight origin P and the line of sight direction.
  • the driving image processing apparatus 100 generates a display image centered on the driver's line of sight by combining the line-of-sight image and the shielding information. Therefore, the driving image processing apparatus 100 reflects the area that the driver cannot observe with the vehicle body on the display image, and generates the surrounding image of the own vehicle 300 that the driver actually observed around the driver's line of sight. can do.
  • the line-of-sight direction includes the vehicle window line-of-sight direction from the driver's line-of-sight origin P through the window of the host vehicle 300
  • the line-of-sight image includes a vehicle window image corresponding to the line-of-sight origin P and the vehicle window line-of-sight direction.
  • the driver can check the objects behind and behind the host vehicle 300 via the mirror provided in the host vehicle 300. Therefore, the line-of-sight image may include a mirror image corresponding to a mirror viewing range that is visible to the driver through at least one mirror of the host vehicle 300.
  • the shielding information includes the vehicle window shielding information related to the vehicle body of the own vehicle 300 that blocks the driver's line of sight in the direction of the vehicle window and / or the mirror shielding related to the vehicle body of the vehicle 300 that blocks the mirror's line of sight to the mirror viewing range of the driver. Contains information.
  • the display image includes a vehicle window display image that the driver observes through the window of the host vehicle 300 and / or a mirror display image that the driver observes through at least one mirror of the host vehicle 300.
  • the vehicle window display image is generated by combining the vehicle window image and the vehicle window shielding information
  • the mirror display image is generated by combining the mirror image and the mirror shielding information.
  • FIG. 1 is an example of a connection relationship among a driving image processing device, an information acquisition device, and a driving education terminal according to the first embodiment.
  • FIG. 2 is an example of a block diagram illustrating a hardware configuration of the driving video processing device, the information acquisition device, and the driving education terminal.
  • the driving image processing apparatus 100 synthesizes the line-of-sight image corresponding to the line-of-sight origin P and the line-of-sight direction of the driver of the host vehicle 300 and the shielding information regarding the vehicle body of the host vehicle 300 that blocks the driver's line of sight.
  • the display image centering on the driver's line of sight is generated.
  • the information acquisition device 200 acquires various information such as the surrounding information of the host vehicle 300 and the line-of-sight data of the driver of the host vehicle 300.
  • the driving education terminal 250 is a terminal for a viewer such as a driver who is a subject of safe driving education to view a display image generated by the driving image processing apparatus 100.
  • the driving video processing device 100, the information acquisition device 200, and the driving education terminal 250 are connected so that various types of information can be transmitted and received.
  • connection methods include interfaces such as SCSI (Small Computer System Interface) and USB (Universal Serial Bus), and networks such as the Internet.
  • the driving image processing device 100 includes, for example, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and an input / output A device I / F 104, a communication I / F (InterFace) 108, an HDD (Hard disk drive) 110a, and an R / W (Read / Write) device 110b are included. These are connected to each other via a bus 109.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the input / output device I / F 104 is connected to input / output devices such as the display 105, the mouse 106, and the keyboard 107.
  • the ROM 102 stores various control programs related to various controls described later performed by the driving image processing apparatus 100.
  • the RAM 103 temporarily stores various information such as various control programs in the ROM 102, peripheral information acquired from the information acquisition device 200, and line-of-sight data.
  • the RAM 103 temporarily stores information such as various flags in accordance with the execution of various control programs.
  • the HDD 110a is an auxiliary storage device and stores various information such as peripheral information and line-of-sight data acquired from the information acquisition device 200.
  • the R / W device 110b writes the various information in an external storage device, or reads out various information and programs stored in the external storage device.
  • Examples of the external storage device include an external HDD and a computer-readable recording medium.
  • the CPU 101 develops various control programs stored in the ROM 102 in the RAM 103 and performs various controls described later.
  • the communication I / F 108 performs communication such as transmission / reception of commands or data between the information acquisition device 200 and the driving education terminal 250 based on the control of the CPU 101.
  • the bus 109 includes, for example, a PCI (Peripheral Component Interconnect) bus, an ISA (Industrial Standard Architecture) bus, and the like, and connects the above components to each other.
  • PCI Peripheral Component Interconnect
  • ISA Industry Standard Architecture
  • the information acquisition device 200 includes, for example, a CPU 201, ROM 202, RAM 203, input / output device I / F 204, communication I / F 207, HDD 209a, and R / W device 209b. These are connected to each other via a bus 208.
  • (A) Input / output device I / F The input / output device I / F 204 is connected to the peripheral information acquisition device 205, the line-of-sight detection device 206, and the like. Information detected by the peripheral information acquisition device 205 and the line-of-sight detection device 206 is output to the RAM 203, the CPU 201, the communication I / F 207, and the like via the input / output device I / F 204.
  • the peripheral information acquisition device 205 acquires peripheral information around the host vehicle 300.
  • the peripheral information acquisition device 205 acquires a peripheral video around the host vehicle 300 as peripheral information.
  • the peripheral video includes, for example, video images of objects such as people, bicycles and cars, roads, and the like existing around the host vehicle 300.
  • the peripheral information acquisition device 205 includes an imaging device such as a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera.
  • FIG. 3 is an explanatory diagram showing the mounting position and photographing range of the peripheral information acquisition device.
  • the peripheral information acquisition device 205 includes four cameras, for example, a front camera 205a, a right camera 205b, a left camera 205c, and a rear camera 205d.
  • the front camera 205 a is attached to the center of the front bumper of the vehicle 300 and photographs the front of the vehicle 300.
  • the rear camera 205d is attached to the center of the rear bumper of the vehicle 300 and photographs the rear of the vehicle 300.
  • the right camera 205 b is attached to the center of the right side surface of the vehicle 300 and photographs the right side of the vehicle 300.
  • the left camera 205 c is attached to the center of the left side surface of the vehicle 300 and photographs the left side of the vehicle 300.
  • Each of the cameras 205a to 205d is, for example, a camera using an ultra-wide angle lens having a field angle of 180 degrees. Therefore, as shown in FIG. 3, the front camera 205 a captures the front area 210 of the vehicle 300, the right camera 205 b captures the right area 211 of the vehicle 300, and the left camera 205 c captures the left area of the vehicle 300.
  • the rear camera 205 d captures the rear region 213 of the vehicle 300.
  • the shooting areas of the respective cameras 205a to 205d are configured to overlap with areas shot by adjacent cameras.
  • the camera characteristics such as the mounting position and mounting angle of each camera 205a to 205d, and other camera lens distortion correction values and focal length can be adapted to a spatial coordinate system with the center point O of the vehicle 300 as the origin. Correction, so-called calibration is performed. By executing this calibration, the images captured by the cameras 205a to 205d can be incorporated into a spatial coordinate system having the center point O of the vehicle 300 as the origin.
  • the spatial coordinate system is represented by X, Y, and Z coordinates.
  • Y is the forward direction of the vehicle
  • X is the direction crossing the forward direction
  • Z is the height direction.
  • Each camera 205a to 205d is preferably attached to the center of the front, right side, left side, and rear side of the vehicle 300, as shown. However, it suffices if the shooting area of each camera 205a to 205d partially overlaps the shooting area of the adjacent camera, and the mounting position of each camera 205a to 205d is not particularly limited.
  • the right camera 205 b and the left camera 205 c can be attached to the left and right door mirrors of the vehicle 300.
  • the number of cameras is not limited to four as long as the shooting areas of each camera partially overlap and it is possible to capture a 360 ° range around the vehicle 300.
  • each of the cameras 205a to 205d shoots 30 frames per second, for example.
  • Video data captured by the peripheral information acquisition device 205 including the cameras 205a to 205d is stored in the RAM 203 via the input / output device I / F 204.
  • the driving video processing apparatus 100 can generate the video that the driver is observing based on the surrounding video of the entire periphery of the vehicle 300 by capturing the video with each of the cameras 205a to 205d. .
  • the peripheral information acquisition device 205 does not always acquire the peripheral information while driving. For example, when the dangerous driving is detected, the peripheral information is acquired only in a specific case such as when a follow-up driving to the preceding vehicle is detected. It may be recorded.
  • the line-of-sight detection device 206 detects line-of-sight information such as the driver's face, eyeball, and iris.
  • the line-of-sight detection device 206 includes an imaging device such as a CCD camera, a CMOS camera, or an infrared camera that can acquire driver's line-of-sight information.
  • an imaging device such as a CCD camera, a CMOS camera, or an infrared camera that can acquire driver's line-of-sight information.
  • the line-of-sight detection device 206 is provided, for example, on the dashboard 301 of the vehicle 300 as shown in FIGS. At this time, the line-of-sight detection device 206 can detect, for example, the driver's face and eyes from the front and can capture the face and eyes without being blocked by the handle 302. It is mounted on the board 301 at a predetermined angle. However, as long as the driver's face and eyes can be detected, the attachment position and the attachment angle are not limited.
  • the characteristics of the line-of-sight detection device such as the mounting position and the mounting angle of the line-of-sight detection device 206 are corrected, so-called calibration, so as to be compatible with the spatial coordinate system with the center point O of the vehicle 300 as the origin.
  • the line-of-sight detection device 206 captures, for example, 30 video frames per second, and the captured video data is stored in the RAM 203 via the input / output device I / F 204.
  • the line of sight 150 It is possible to detect the line of sight 150 based on images of the driver's face, eyeball, iris, etc. detected by the line-of-sight detection device 206. When the driver's line of sight 150 is detected, the direction of the line of sight 150 indicates which direction the driver is viewing.
  • the vehicle has a vehicle body structure such as a dashboard 301, a handle 302, a window, a mirror and a pillar.
  • FIG. 6 is an example of an external view of the vehicle.
  • the vehicle 300 has windows such as a front window 306F, a right window 306R, a left window 306L, and a rear window (not shown), and each window is supported by a pillar.
  • the pillar include a front pillar 307F positioned above the front window 306F, a right pillar 307R and a left pillar 307L positioned on the right and left sides of the front window 306F, and a rear pillar 307B on the rear side of the vehicle body. .
  • the mirror 303 provided in the vehicle 300 includes door mirrors 303 ⁇ / b> L and 303 ⁇ / b> R provided near the left and right doors of the vehicle 300, a rearview mirror 303 ⁇ / b> B provided in the vehicle 300, and a hood of the vehicle 300. Examples thereof include a fender mirror provided on the top.
  • FIG. 7 is an explanatory diagram illustrating an example of a region that can be confirmed by a mirror.
  • the driver of the vehicle 300 can visually recognize the left mirror region 304L through the left door mirror 303L. Further, the driver can visually recognize the right mirror region 304R through the right door mirror 303R. Further, the driver can visually recognize the rearview mirror region 304B through the rearview mirror 303B.
  • the ROM 202 stores various control programs executed by the information acquisition device 200.
  • the RAM 203 temporarily stores various control programs, various flags, various information received from the peripheral information acquisition device 205 and the line-of-sight detection device 206 in the ROM 202.
  • the communication I / F 207 transmits / receives data such as peripheral information, line-of-sight data, and various commands to / from the driving image processing apparatus 100 based on the control of the CPU 201.
  • the HDD 209a is an auxiliary storage device and stores various types of information acquired by the information acquisition device 200.
  • the R / W device 209b writes the various information in an external storage device or reads out various information and programs stored in the external storage device.
  • Examples of the external storage device include an external HDD and a computer-readable recording medium.
  • the CPU 201 develops various control programs stored in the ROM 202 in the RAM 203 and performs various controls. For example, the CPU 201 controls the peripheral information acquisition device 205 and the line-of-sight detection device 206 by executing various control programs, and starts acquisition of various information such as peripheral video.
  • the driving education terminal 250 is a terminal used by a user who receives safe driving education.
  • the terminal can view the display video generated by the driving video processing apparatus 100.
  • the driving education terminal 250 includes, for example, a CPU 251, a ROM 252, a RAM 253, an input / output device I / F 254, a communication I / F 258, an HDD 260a, and an R / W device 260b. These are connected to each other via a bus 259.
  • the input / output device I / F 254 is connected to input / output devices such as a display 255, a mouse 256, and a keyboard 257. Further, the input / output device I / F 254 receives an instruction to display the display video from the user via the mouse 256 and the keyboard 257. A speaker or the like for outputting sound may be connected to the input / output device I / F 254.
  • the display 255 may be in any form as long as it outputs a display image.
  • the display 255 may be a flat display device, a display device that can be bent or bent, or a configuration in which a plurality of display devices are combined.
  • the display area of the display 255 includes a vehicle window display area 265 in which a vehicle window display image observed by the driver through the window 306 is displayed. Further, the display area of the display 255 may include a mirror display area 266 in which a mirror display image observed by the driver through the mirror 303 is displayed.
  • the position of each mirror display area 266 with respect to the display area of the display 255 varies depending on the line-of-sight origin P and the line-of-sight direction. Therefore, various correspondence table DB 131, which will be described later, stores the occupied position of each mirror display area in the display area for each line-of-sight origin P and line-of-sight direction. Based on this relationship, the vehicle window display image and the mirror display image are displayed on the display 255. Is displayed.
  • the CPU 251 develops various control programs stored in the ROM 252 in the RAM 253, acquires display image data from the driving image processing apparatus 100, and outputs the display image data to the display 255 or the like.
  • the HDD 260a stores various information acquired from the driving video apparatus 100, for example.
  • the other configuration is substantially the same as that of the driving image processing apparatus 100, and thus the description thereof is omitted.
  • FIG. 8 is an example of a block diagram showing a functional configuration of each device according to the first embodiment.
  • the connection lines of the functional units shown in FIG. 8 show an example of the data flow, and do not describe all the data flows.
  • (3-1) Information Acquisition Device When the hardware configurations of the information acquisition device 200 cooperate with each other to execute a program, the information acquisition device 200 functions as each functional unit described later.
  • the functional units of the information acquisition apparatus 200 include, for example, a peripheral information acquisition unit 220, a line-of-sight detection unit 221, a transmission / reception unit 222, an acquisition data DB 223, and the like.
  • the peripheral information acquisition unit 220 is a peripheral image captured by the peripheral information acquisition device 205 including the front camera 205a, the right camera 205b, the left camera 205c, and the rear camera 205d shown in FIG. A video is acquired and stored in the acquisition data DB 223.
  • the line-of-sight detection unit 221 is a line-of-sight vector indicating the direction of the line-of-sight origin P and the direction of the line of sight 150 based on the driver's face, eyeball, iris, and other images detected by the line-of-sight detection device 206. 150a is calculated.
  • the line-of-sight direction is referred to as a line-of-sight vector.
  • FIG. 9 is an explanatory diagram showing an example of a method for calculating the line-of-sight origin P and the line-of-sight vector.
  • the line-of-sight detection unit 221 calculates facial feature points based on images such as a face, eyeballs, and irises, and compares the feature points with driver feature values stored in advance.
  • the line-of-sight detection unit 221 extracts the orientation of the face based on the comparison result and the image of the face, eyeball, iris, etc., and the center between the left eyeball 152L and the right eyeball 152R shown in FIG. The position is detected as the line-of-sight origin P.
  • the line-of-sight detection unit 221 calculates the center position of the iris 153a, that is, the center position of the pupil 153b. Furthermore, the line-of-sight detection unit 221 calculates the line-of-sight vector 150a based on the line-of-sight origin P and the center position of the pupil 153b. Since the driver can change the head forward / backward / left / right and up / down, the position of the line-of-sight origin P with respect to the center point O of the spatial coordinate system is changed according to the position and orientation of the head.
  • the line-of-sight vector 150a includes an elevation angle ⁇ that is an angle formed between the line-of-sight vector 150a and the XY plane, and an azimuth angle ⁇ that is an angle formed between the line-of-sight vector 150a and the YZ plane. And can be defined by: In addition, the line-of-sight vector 150 a can be defined by coordinates in a spatial coordinate system with an arbitrary center point O of the vehicle 300 as the origin.
  • the line-of-sight detection unit 221 stores the line-of-sight origin P and the line-of-sight vector 150a in the acquisition data DB 223.
  • the acquisition data DB 223 stores peripheral information, line-of-sight data detected by the line-of-sight detection unit 221 and the like. In addition, the acquisition data DB 223 stores all information necessary for the driving image processing apparatus 100 to generate a display image, such as the type of the host vehicle 300.
  • the acquisition data DB 223 can be configured by, for example, the RAM 203, the HDD 209a, an external recording medium, and the like.
  • the transmission / reception unit 224 of the information acquisition device 200 communicates with the transmission / reception unit 120 of the driving image processing device 100 such as various commands, peripheral information, line-of-sight data, and the model of the host vehicle 300. Send and receive data etc.
  • the driving image processing apparatus 100 extracts a line-of-sight image corresponding to the driver's line-of-sight origin P and the line-of-sight vector from the surrounding image of the host vehicle 300.
  • This line-of-sight image includes a vehicle window image through a vehicle window and / or a mirror image through a mirror.
  • the driving image processing apparatus 100 displays the vehicle body area of the host vehicle 300 that blocks the driver's line of sight from the line-of-sight image, or superimposes the body image of a pillar or the like blocking the driver's line of sight on the line-of-sight image. Generate video.
  • Examples of such functional units of the driving video processing apparatus 100 include a transmission / reception unit 120, a car window video generation unit 121, a mirror video generation unit 122, a shielding information calculation unit 123, a line-of-sight processing unit 124, and a display video generation unit 125. included.
  • the driving image processing apparatus 100 includes a peripheral information DB 126, a vehicle window image DB 127, a mirror image DB 128, a shielding information DB 129, a line-of-sight data DB 130, various correspondence tables DB 131, and the like in order to store various information.
  • each DB can be composed of, for example, the RAM 103, the HDD 110a, an external recording medium, and the like.
  • the transmission / reception unit 120 of the driving video processing device 100 transmits / receives various data, various commands, and the like to / from the transmission / reception unit 222 of the information acquisition device 200.
  • the transmission / reception unit 120 acquires various types of information such as peripheral video and line-of-sight data acquired by the information acquisition device 200 in real time from the acquisition data DB 223 via the transmission / reception unit 222 and imports them into each DB in the driving video processing device 100.
  • the transmission / reception unit 120 may acquire various types of information from the peripheral information acquisition unit 220 and the line-of-sight detection unit 221 in real time without using the acquisition data DB 223.
  • the transmission / reception unit 222 may temporarily store various types of information related to a series of operations in the acquisition data DB 223 of the information acquisition device 200 and then acquire the information. That is, instead of acquiring various types of information in real time, various types of information related to a series of operations are temporarily stored in the acquisition data DB 223. After the series of operations is completed, the transmission / reception unit 222 receives various types of information from the acquisition data DB 223. get.
  • the transmission / reception unit 120 may include a video acquisition unit for acquiring peripheral video and a line-of-sight acquisition unit for acquiring line-of-sight data.
  • the peripheral information DB 126 acquires and stores a peripheral video around the host vehicle from the information acquisition device 200 as peripheral information around the host vehicle.
  • the peripheral video includes video captured by the peripheral information acquisition device 205 including the front camera 205a, the right camera 205b, the left camera 205c, and the rear camera 205d.
  • FIG. 10 is an example of the peripheral information DB.
  • the peripheral information DB 126 stores a frame number and video data of each camera 205 for each frame.
  • the video data includes a front video shot by the front camera 205a, a right video shot by the right camera 205b, a left video shot by the left camera 205c, and a rear video shot by the rear camera 205d.
  • (3-2-3) Line-of-sight data DB The line-of-sight data DB 130 acquires the line-of-sight origin P and the line-of-sight vector 150a of the driver of the host vehicle from the information acquisition device 200 and stores them.
  • FIG. 11 shows an example of the line-of-sight data DB.
  • the line-of-sight data DB 130 acquires and stores the frame number, the line-of-sight origin P, and the line-of-sight vector 150a from the information acquisition device 200 for each frame.
  • the line-of-sight vector 150a is defined by the azimuth angle ⁇ and the elevation angle ⁇ .
  • the line-of-sight origin P may be defined by coordinates in a spatial coordinate system with an arbitrary center point O of the vehicle 300 as the origin.
  • the line-of-sight data DB 130 further includes, as information calculated by the line-of-sight processing unit 124 described later, an effective visual field range, whether there is a mirror in the effective visual field range, which mirror in the effective visual field range, and the like.
  • the effective visual field range is a range in which the driver can visually recognize the line-of-sight origin P and the line-of-sight vector.
  • the driving image processing apparatus 100 projects a peripheral image of the host vehicle 300 on the three-dimensional projection surface 400, and converts the peripheral image projected on the three-dimensional projection surface 400 into the driver's line-of-sight origin P and line-of-sight vector. Corresponding car window image and mirror image are generated.
  • FIG. 12 is an explanatory diagram showing the positional relationship between the peripheral image projected on the three-dimensional projection plane and the vehicle window image and mirror image corresponding to the line-of-sight origin P and the line-of-sight vector.
  • the vehicle window image generation unit 121 and the mirror image generation unit 122 which will be described later, coordinate-convert the image data of each pixel acquired by each of the cameras 205a to 205d into the three-dimensional projection plane 400 based on the association, and A peripheral image projected on the projection plane 400 is generated.
  • the vehicle window line-of-sight direction indicated by the line-of-sight vector 150a1 from the line-of-sight origin P is the forward direction of the host vehicle 300 through the vehicle window.
  • a front vehicle window image 400F is associated with the surrounding image of the three-dimensional projection plane 400.
  • the line-of-sight vector 150a1 extending from the line-of-sight origin P intersects the three-dimensional projection plane 400 at the intersection point SPa.
  • the intersection point SPa corresponds to the center of the driver's line of sight and corresponds to the center portion of the front vehicle window image 400F.
  • the vehicle window line-of-sight is a line of sight by direct viewing through a portion corresponding to the vehicle window and / or the vehicle window, and the vehicle window line-of-sight direction is a direction specified by the vehicle window line of sight.
  • a mirror line of sight described later is an indirect line of sight via a mirror, and is a line of sight after the line of sight origin P and line of sight vector 150a are reflected by the mirror 303.
  • the vehicle window line-of-sight direction indicated by the line-of-sight vector 150a2 from the line-of-sight origin P is the diagonally forward right direction of the host vehicle 300 through the vehicle window.
  • the right vehicle window image 400R among the peripheral images of the three-dimensional projection plane 400 is associated as an image in the obliquely forward right direction indicated by the line-of-sight vector 150a2 from the line-of-sight origin P.
  • the intersection SPb where the line-of-sight vector 150a2 extending from the line-of-sight origin P intersects the three-dimensional projection plane 400 corresponds to the center portion of the right-side vehicle window image 400R.
  • the vehicle window line-of-sight direction indicated by the line-of-sight vector 150a3 from the line-of-sight origin P is the diagonally forward left direction of the host vehicle 300 through the vehicle window.
  • the left vehicle window video image 400L is associated with the peripheral video image of the three-dimensional projection plane 400.
  • the intersection SPc at which the line-of-sight vector 150a3 extending from the line-of-sight origin P intersects the three-dimensional projection plane 400 corresponds to the center portion of the left vehicle window image 400L.
  • the various correspondence tables DB 131 stores correspondences between the line-of-sight origin P and the line-of-sight vector 150a and the vehicle window field of view on the three-dimensional projection plane 400.
  • the vehicle window view area is a driver's view area on the three-dimensional projection plane 400 through the vehicle window and a portion corresponding to the vehicle window, and the driver's vehicle window view line is blocked by the vehicle body of the host vehicle 300. Say the field of view if not.
  • vehicle window shielding information of a vehicle body such as a pillar described later is added to a vehicle window image corresponding to the vehicle window visual field region, a vehicle window display image when the driver's vehicle window line of sight is blocked by the vehicle body is generated.
  • FIG. 13 is an example of the correspondence between the line-of-sight origin P and the line-of-sight vector and the vehicle window field of view on the three-dimensional projection plane.
  • the various correspondence tables DB 131 stores a vehicle window visual field area on the three-dimensional projection plane in association with each other for each line-of-sight origin P and line-of-sight vector.
  • the vehicle window visual field area 1a is associated.
  • the vehicle window visual field region can be represented by, for example, a set of coordinates on the three-dimensional projection plane 400, information indicating a range of coordinate groups, and the like in a spatial coordinate system having the origin at the center point O of the host vehicle 300.
  • the various correspondence table DB 131 may store the intersection point SP with the three-dimensional projection plane in association with each of the line-of-sight origin P and the line-of-sight vector.
  • the driver's car window line-of-sight is, for example, a pillar of the own vehicle 300 Blocked by the car body.
  • the region in which the driver's line of sight of the vehicle window is blocked differs depending on the line of sight origin P and the line of sight vector 150a.
  • the driver's line-of-sight vector is in the diagonally forward right direction
  • the right pillar 307R is positioned at the center of the driver's field of view.
  • the left pillar 307L is positioned at the center of the driver's field of view.
  • the various correspondence tables DB 131 stores the line-of-sight origin P and the line-of-sight vector 150a in association with the vehicle window shielding information of the vehicle body of the host vehicle 300 that blocks the driver's vehicle line of sight.
  • the vehicle window shielding information is information that blocks the driver's line of sight within the range of the vehicle window visual field region associated with the line-of-sight origin P and the line-of-sight vector 150a.
  • the vehicle window shielding information includes a region of the vehicle body of the host vehicle 300 and / or a vehicle body image that blocks the driver's line of sight of the vehicle window.
  • vehicle body region can be represented by, for example, information indicating a set of coordinates in the display region of the display 255 and a range of coordinate groups.
  • vehicle body video can be configured by, for example, associating video data when displayed in the display area of the display 255 with coordinates on the display.
  • the vehicle body image includes images of the front pillar 307F, the dashboard 301, the right pillar 307R, the left pillar 307L, and the like.
  • FIG. 14 is an example of the correspondence between the line-of-sight origin P and the line-of-sight vector, and the vehicle window shielding information.
  • the driving image processing apparatus 100 displays a mirror display image via the mirror 303 on the display 255 if any of the mirrors 303 exists within the effective visual field range.
  • the effective visual field range is a range that can be visually recognized with respect to the driver's line of sight, and is defined by an effective visual angle ⁇ e centered on the direction indicated by the line-of-sight vector 150a from the line-of-sight origin P, for example.
  • the effective visual field range can be defined by a set of coordinates in a spatial coordinate system with the center point O of the host vehicle 300 as the origin.
  • FIG. 15 is an explanatory diagram for explaining the relationship between the effective visual field range and the mirror, and the mirror viewing range that can be viewed through the mirror.
  • FIGS. An example in the case where it exists within the effective visual field range is shown.
  • the driver's line of sight 150 is directed to the left door mirror 303L, and the driver is directly looking at the left door mirror 303L. That is, the left door mirror 303L is located at the center of the effective visual field range. At this time, the driver's line of sight 150 is reflected by the left door mirror 303L to become a mirror line of sight 155. That is, the line-of-sight vector 150a from the line-of-sight origin P is reflected by the left door mirror 303L to become a mirror line-of-sight vector 155a.
  • the left door mirror 303L has a predetermined shape and area, and the driver visually recognizes the state of the predetermined mirror viewing range and the like of the rear and rear sides of the host vehicle 300 through the left door mirror 303L. Is possible.
  • the driver's line-of-sight vector 150a is directed forward with respect to the driver's body and is not directed toward the mirror 303.
  • the right door mirror 303R and the left door mirror 303L are within the effective visual field range defined by the effective visual angle ⁇ e1 centered on the line-of-sight vector 150a. Therefore, the driving image processing apparatus 100 allows the driver to visually recognize the state of a predetermined mirror viewing range or the like of the rear and rear sides of the host vehicle 300 via the right door mirror 303R and the left door mirror 303L. Presume that there is.
  • the effective viewing angle ⁇ e1 in the case of FIG. 5B is represented by an angle in the XY plane which is a horizontal plane.
  • the effective viewing angle ⁇ e can be defined not only by the angle ⁇ e1 in the XY plane but also by the angle formed with the XY plane.
  • the driver's line-of-sight vector 150a has a predetermined angle with respect to the XY plane
  • the rearview mirror 303B is an effective viewing angle defined by an effective viewing angle ⁇ e2 centered on the line-of-sight vector 150a. It exists within the field of view. Therefore, the driving image processing apparatus 100 estimates that the driver can visually recognize the situation in the predetermined mirror viewing range, among the rear and rear sides of the host vehicle 300, via the rearview mirror 303B.
  • the driving image processing apparatus 100 may determine that the mirror 303 is not visually recognized. For example, it is assumed that the rearview mirror 303B exists in the effective viewing angle ⁇ e1 with respect to the viewing origin P and the viewing vector 150a, but does not exist in the effective viewing angle ⁇ e2. In this case, the driving image processing apparatus 100 determines that the driver's line of sight is directed downward, for example, and the driver is not viewing the rearview mirror 303B.
  • the line-of-sight processing unit 124 calculates the virtual line-of-sight origin VP and the mirror field-of-view angle ⁇ m based on the vehicle type, mirror information including the mirror position, mirror angle, mirror shape, and the like, and the line-of-sight origin P.
  • the mirror viewing range is determined by the virtual line-of-sight origin VP, the mirror view field angle ⁇ m, and the like.
  • the virtual line-of-sight origin VP is an origin for determining a mirror viewing range that is visible to the driver via the mirror 303.
  • the mirror visual field angle ⁇ m is an angle that defines a mirror viewing range with the virtual line-of-sight origin VP as the origin.
  • the left door mirror 303L is in the effective viewing range
  • the mirror viewing range is the mirror viewing image formed by the mirror viewing vector 155a1 and the mirror viewing vector 155a2 with the virtual viewing origin VP as the origin. It is defined by the angle ⁇ mL.
  • the mirror line-of-sight vectors 155a1 and 155a2 are vectors at the end of the range that can be visually recognized by the driver through the left door mirror 303L, and are vectors that are borders with the invisible range.
  • the right door mirror 303R and the left door mirror 303L are in the effective visual field range.
  • the mirror viewing range includes a mirror viewing range by the right door mirror 303R and a mirror viewing range by the left door mirror 303L.
  • the mirror viewing range by the left door mirror 303L is the same as in FIG.
  • the mirror viewing range by the right door mirror 303R is defined by the mirror viewing angle of view ⁇ mR formed by the mirror viewing vector 155a3 and the mirror viewing vector 155a4 with the virtual viewing origin VP as the origin.
  • the mirror line-of-sight vectors 155a3 and 155a4 are vectors at the end of the range that can be viewed through the right door mirror 303R.
  • the various correspondence table DB 131 stores the mirror information, the line-of-sight origin P, the virtual line-of-sight origin VP, and the mirror field-of-view angle ⁇ m in association with each vehicle type.
  • the mirror video generation unit 122 can calculate the virtual visual line origin VP and the mirror visual field angle ⁇ m based on this association, and can calculate the mirror visual range.
  • FIG. 16 is an example of correspondence between mirror information and line-of-sight origin P, virtual line-of-sight origin VP, mirror field of view angle ⁇ m, mirror field of view area, and mirror shielding information for each vehicle type.
  • FIG. 16 is an example of correspondence between mirror information and line-of-sight origin P, virtual line-of-sight origin VP, mirror field of view angle ⁇ m, mirror field of view area, and mirror shielding information for each vehicle type.
  • the mirror information is defined by the position of the mirror 303 and the angles defined by the azimuth angle ⁇ and the elevation angle ⁇ indicating the mounting angle of the mirror.
  • the mirror image generation unit 122 described later calculates the virtual viewing origin VP and the mirror viewing field angle ⁇ m based on the mirror information and the viewing origin P as described above, and based on these, the mirror viewing area on the three-dimensional projection surface 400 is calculated. Can be calculated.
  • mirror field of view can be calculated by such processing, in this embodiment, as described later, mirror information and line-of-sight origin P for each vehicle type, and each mirror field of view on the three-dimensional projection plane 400 And the mirror visual field region is calculated based on the association.
  • the mirror visual field region is a driver's visual field region on the three-dimensional projection plane 400 when the mirror 303 is interposed, and the mirror line of sight 155 reflected by the mirror 303 is caused by the vehicle body of the host vehicle 300.
  • the field of view when not obstructed.
  • mirror shielding information of the vehicle body by a pillar which will be described later, is added to the mirror image corresponding to the mirror visual field region, a mirror display image when the driver's line of sight is blocked by the vehicle body is generated.
  • each mirror visual field region that can be visually recognized by each mirror 303R, 303L, and 303B will be described.
  • the right door mirror 303R is within the effective visual field range defined by the direction indicated by the line-of-sight vector 150a from the line-of-sight origin P.
  • the right mirror image 400MR is associated with the peripheral image of the three-dimensional projection plane 400 as the image of the mirror viewing range via the right door mirror 303R.
  • the left mirror image 400ML of the peripheral image of the three-dimensional projection plane 400 is associated as an image of the mirror viewing range via the left door mirror 303L.
  • the rearview mirror image 400MB is associated with the peripheral image of the three-dimensional projection plane 400 as the image of the mirror viewing range via the rearview mirror 303B.
  • the various correspondence table DB 131 stores the correspondence between the mirror information and the line-of-sight origin P and each mirror field of view on the three-dimensional projection plane 400 for each vehicle type.
  • vehicle type A
  • mirror position (Xm1, Ym1, Zm1)
  • mirror angle ( ⁇ a, ⁇ a)
  • line-of-sight origin P (X1, Y1, Z1).
  • the rearview mirror visual field area A1a, the right door mirror visual field area A1a, and the left door mirror visual field area A1a are associated with the rearview mirror 303B, the right door mirror 303R, and the left door mirror 303L.
  • the mirror field of view can be represented by a set of coordinates on the three-dimensional projection plane 400, information indicating a range of coordinate groups, and the like.
  • the line-of-sight processing unit 124 described later identifies the mirror 303 within the effective visual field range from the line-of-sight data DB 130 based on the line-of-sight origin P and the line-of-sight vector. Further, the mirror image generation unit 122 reads the mirror field area of the mirror 303 within the effective field range among the three mirror field areas corresponding to the line-of-sight origin P, and generates a mirror image.
  • the various correspondence table DB 131 includes the mirror information and the line-of-sight origin P, and the mirror shielding information of the vehicle body of the host vehicle 300 that blocks the driver's mirror line of sight 155 for each vehicle type. It is stored in association.
  • the mirror shielding information includes a region of the vehicle body 300 and / or a vehicle body image that blocks the driver's mirror line of sight 155.
  • rearview mirror shielding information A1a, right mirror shielding information A1a and left mirror shielding information A1a are associated with each other.
  • FIGS. 17 to 19 are explanatory diagrams showing the relationship between the vehicle window image and mirror image on the three-dimensional projection plane and the display area of the display.
  • the driving image processing device 100 generates a vehicle window image and / or a mirror image from the peripheral image on the three-dimensional projection plane 400 based on the line-of-sight origin P and the line-of-sight vector 150a. Furthermore, the driving image processing apparatus 100 generates a display image in which the vehicle window shielding information and / or the mirror shielding information is added to the vehicle window image and / or the mirror image.
  • the display area of the display 255 includes a vehicle window display area 265 and a mirror display area 266.
  • the mirror display area 266 is a partial area of the display area of the display 255
  • the vehicle window display area 265 is a display area of the display 255 excluding the mirror display area 266.
  • a vehicle window display image including a vehicle window image and vehicle window shielding information is displayed.
  • a mirror display image composed of a mirror image and mirror shielding information is displayed.
  • the driver's line-of-sight data is the line-of-sight origin P and the line-of-sight vector 150a1, and the rear view mirror 303B is in the effective visual field range.
  • the driver can view the front vehicle window image 400F and the rearview mirror image 400MB.
  • the front vehicle window image 400 ⁇ / b> F is displayed in the vehicle window display region 265 within the display region of the display 255.
  • the rearview mirror image 400MB is displayed in the rearview mirror display area 266B in the display area of the display 255.
  • the intersection point SPa between the driver's line of sight and the three-dimensional projection surface 400 is coordinate-converted to a point SPa ′ at the center of the display area of the display 255.
  • the point MPa of the rearview mirror image 400MB is coordinate-converted to the point MPa 'of the rearview mirror display area 266B.
  • the driver's line-of-sight data is the line-of-sight origin P and the line-of-sight vector 150a2, and there is a rearview mirror 303B and a right door mirror 303R in the effective visual field range.
  • the driver can view the right vehicle window image 400R, the rearview mirror image 400MB, and the right mirror image 400MR.
  • the right vehicle window image 400 ⁇ / b> R is displayed in the vehicle window display area 265.
  • the rearview mirror image 400MB is displayed in the rearview mirror display area 266B in the display area of the display 255.
  • the right mirror image 400MR is displayed in the right mirror display area 266R.
  • the intersection point SPb between the driver's line of sight and the three-dimensional projection plane 400 is coordinate-converted to a point SPb ′ at the center of the display area of the display 255.
  • the point MPa of the rearview mirror image 400MB is coordinate-converted to the point MPa 'of the rearview mirror display area 266B.
  • the point MPb of the right mirror image 400MR is coordinate-converted to a point MPb 'of the right mirror display area 266R.
  • the driver's line-of-sight data is the line-of-sight origin P and the line-of-sight vector 150a3, and the rear view mirror 303B and the left door mirror 303L are in the effective visual field range.
  • the driver can visually recognize the left vehicle window image 400L, the rearview mirror image 400MB, and the left mirror image 400ML.
  • the left car window image 400 ⁇ / b> L is displayed in the car window display area 265.
  • the rearview mirror image 400MB is displayed in the rearview mirror display region 266B
  • the left side mirror image 400ML is displayed in the left side mirror display region 266L.
  • the intersection point SPc between the driver's line of sight and the three-dimensional projection plane 400 is coordinate-converted to a point SPc ′ at the center of the display area of the display 255.
  • the point MPa of the rearview mirror image 400MB is converted into a point MPa 'in the rearview mirror display region 266B
  • the point MPc of the left side mirror image 400ML is converted into a point MPc' in the left mirror display region 266L.
  • the position of the mirror display area 266 in the display area of the display 255 also changes according to the line-of-sight origin P and the line-of-sight vector.
  • the various correspondence table DB 131 stores correspondences between the line-of-sight origin P and the line-of-sight vector, and each mirror display area.
  • FIG. 20 is an example of the correspondence between the line-of-sight origin P and the line-of-sight vector, and each mirror display area.
  • the rearview mirror display area 266B and the right mirror display area 266R are associated with each other.
  • the various correspondence table DB 131 stores all other information used by the driving image processing apparatus 100 for generating a display image, such as the vehicle type of the display image generation target vehicle and the effective viewing angle ⁇ e. .
  • the effective viewing angle ⁇ e is set to, for example, a viewing angle that is visible to a general driver.
  • the correspondence in the various correspondence tables DB 131 is, for example, distortion correction when projecting an image captured by a camera onto the 3D projection plane 400, and converting a peripheral image projected on the 3D projection plane 400 onto the display 255. This is also taken into consideration when correcting distortion.
  • the various correspondence table DB 131 may store the above-described various correspondences by, for example, mathematical expressions.
  • the relationship between the line-of-sight origin P and the line-of-sight vector in FIG. 13 and the vehicle window field of view on the three-dimensional projection plane 400 may be defined and stored by mathematical expressions.
  • association is merely an example, and for example, a more detailed association is possible, and a rough association is also possible.
  • the line-of-sight processing unit 124 calculates the effective visual field range as shown in FIG. 15 described above, and determines whether or not the mirror 303 is within the effective visual field range.
  • the line-of-sight processing unit 124 reads the line-of-sight origin P and the line-of-sight vector 150a for each frame from the line-of-sight data DB 130, and calculates the effective visual field range based on the line-of-sight origin P, the line-of-sight vector 150a, and the effective visual field angle ⁇ e of a predetermined angle. As shown in FIGS. 15B and 15C, the effective visual field range is defined, for example, by an effective visual angle ⁇ e centered on the visual line vector 150 extending from the visual line origin P. Can be defined by a set.
  • the line-of-sight processing unit 124 determines which mirror 303 exists within the effective visual field range, as shown in FIGS. 15B and 15C, for example, based on the mirror position of each mirror 303 of the host vehicle 300. Determine whether or not. For example, when the coordinates indicating the mirror position of the left door mirror 303L are included in the set of coordinates defining the effective visual field range, the line-of-sight processing unit 124 determines that the left door mirror 303L is included in the effective visual field range. To do.
  • the line-of-sight processing unit 124 stores the effective visual field range and the determination result in the line-of-sight data DB 130.
  • the effective field of view for each frame the type of mirror existing in the effective field of view, and when none of the mirrors exist in the effective field of view, “ “NO” is stored.
  • the effective visual field range range_3, and the rearview mirror 303B and the left door mirror 303R exist within the effective visual field range.
  • (3-2-6) Car window image generator, car window image DB
  • the vehicle window image generation unit 121 generates a vehicle window image corresponding to the driver's line-of-sight origin P and line-of-sight vector from the surrounding image of the host vehicle 300.
  • the car window image generation unit 121 reads out the peripheral information of the frame of interest from the peripheral information DB 126 in FIG. 10 and projects it on the three-dimensional projection plane 400 as shown in FIG. Further, the vehicle window image generation unit 121 reads the line-of-sight origin P and the line-of-sight vector 150a from the line-of-sight data DB 130 of FIG. 11 for the frame of interest. Next, the vehicle window image generation unit 121 reads out the vehicle window visual field region on the three-dimensional projection plane 400 from the various correspondence tables DB 131 in FIG. 13 based on the line-of-sight origin P and the line-of-sight vector 150a.
  • the vehicle window image generation unit 121 extracts an image corresponding to the vehicle window visual field region from the three-dimensional projection surface 400 on which the peripheral image of the host vehicle 300 is projected, and can display the image in the vehicle window display region 265 of the display 255. Process into a car window image.
  • the vehicle window image DB 127 stores the vehicle window image generated by the vehicle window image generation unit 121.
  • FIG. 21 is an example of a car window video DB.
  • the vehicle window image DB 127 stores a vehicle window image for each frame.
  • (3-2-7) Mirror image generator, mirror image DB
  • the mirror image generation unit 122 generates a mirror image that can be visually recognized by the mirror 303 when any mirror 303 exists in the effective visual field range in the frame of interest.
  • the mirror image generation unit 122 projects the peripheral information of the frame of interest on the three-dimensional projection plane 400 in the same manner as the car window image generation unit 121.
  • the mirror video generation unit 122 may use a peripheral video of the three-dimensional projection plane 400 generated by the vehicle window video generation unit 121.
  • the mirror image generation unit 122 reads the line-of-sight origin P and information about which mirror 303 exists in the effective visual field range for the target frame from the line-of-sight data DB 130 of FIG. Next, based on the line-of-sight origin P and the mirror 303 existing in the effective visual field range, the mirror video generation unit 122 reads the mirror visual field region of the corresponding mirror from the various correspondence tables DB 131 in FIG. For example, it is assumed that the mirror image generation unit 122 refers to the line-of-sight data DB 130 for a certain line-of-sight origin P and line-of-sight vector and determines that the rearview mirror 303B and the right door mirror 303R exist within the effective visual field range.
  • the mirror image generation unit 122 refers to the various correspondence tables DB 131 in FIG. 16, and among the three mirror 303 visual fields associated with the corresponding line-of-sight origin P, the rearview mirror visual field and the right visual field Is read.
  • the mirror image generation unit 122 extracts each image corresponding to each mirror field of view from the three-dimensional projection surface 400 on which the surrounding image of the host vehicle 300 is projected, and displays it on each mirror display region 266 of the display 255. Process into a possible mirror image.
  • the mirror image generation unit 122 does not generate a mirror image when it is determined that the mirror 303 does not exist in the effective visual field range with reference to the line-of-sight data DB 130 of FIG.
  • the mirror video DB 128 stores the mirror video generated by the mirror video generation unit 122.
  • FIG. 22 is an example of a mirror video DB.
  • the mirror video DB 128 stores, for each frame, the type of the mirror 303 existing in the effective visual field range and the mirror video. When there are a plurality of mirrors 303 within the effective visual field range, each mirror image of each mirror is stored in one frame. If no mirror 303 exists within the effective visual field range, “NO” is stored.
  • the shielding information generation unit 123 generates the shielding information of the vehicle body of the host vehicle 300 that blocks the driver's line of sight.
  • the shielding information includes vehicle window shielding information that blocks the driver's view of the vehicle window, and mirror shielding information that blocks the driver's mirror view of the vehicle reflected by the mirror 303.
  • the shielding information generation unit 123 reads the line-of-sight origin P and the line-of-sight vector 150a from the line-of-sight data DB 130 of FIG. Further, the shielding information generation unit 123 reads the vehicle window shielding information from the various correspondence tables DB 131 of FIG. 14 based on the corresponding vehicle type, the line-of-sight origin P, and the line-of-sight vector 150a, and stores the information in the shielding information DB 129.
  • the shielding information generation unit 123 reads information about which mirror 303 exists in the effective visual field range from the line-of-sight data DB 130 of FIG.
  • the shielding information generation unit 123 reads the mirror shielding information of the corresponding mirror 303 from the various correspondence tables DB 131 in FIG. 16 based on the line-of-sight origin P and the mirror 303 existing in the effective visual field range, and stores it in the shielding information DB 129. Store.
  • FIG. 23 is an example of the shielding information DB.
  • the shielding information DB 129 stores, for each frame, vehicle window shielding information, the type of mirror 303 existing in the effective visual field range, and mirror shielding information. When there are a plurality of mirrors 303 within the effective visual field range, the mirror shielding information of each mirror 303 is stored in one frame. If no mirror 303 exists within the effective visual field range, “NO” is stored.
  • the display image generation unit 125 displays the vehicle window for each frame based on the vehicle window image of the vehicle window image DB 127 and the vehicle window shielding information of the shielding information DB 129. Generate video. For example, in the case of the frame with frame number 1, the display video generation unit 125 reads the car window video_1 from the car window video DB 127 of FIG. In addition, the display video generation unit 125 reads the vehicle window shielding information_1 of frame number 1 from the shielding information DB 129 of FIG. The display image generation unit 125 generates the vehicle window display image_1 with the frame number 1 based on the vehicle window image_1 and the vehicle window shielding information_1.
  • the display image generation unit 125 generates a vehicle window display image by removing vehicle window shielding information, which is a vehicle body region such as a pillar blocking the driver's line of sight, from the vehicle window image.
  • vehicle window shielding information which is a vehicle body region such as a pillar blocking the driver's line of sight
  • the display image generation unit 125 generates a vehicle window display image by superimposing vehicle window shielding information, which is a vehicle image of a pillar or the like blocking the driver's line of sight around the host vehicle, on the vehicle window image.
  • FIG. 24 is an example of an image used for a car window display image
  • FIGS. 25 to 27 are examples of a car window display image.
  • the host vehicle 300 is traveling on a lane 600.
  • the other vehicle 500a is traveling on the lane 600 in front of the host vehicle 300
  • the other vehicle 500b is traveling on the lane 601 in front of the host vehicle diagonally to the right.
  • a pedestrian 500c is walking on the sidewalk 602.
  • the display video generation unit 125 generates a vehicle window video shown in FIG. In the figure (a), a vehicle window image including other vehicles 500a and 500b and a pedestrian 500c is displayed. Further, when the vehicle window shielding information is combined with the vehicle window image of FIG. 10A, the vehicle window display image shown in FIG. In FIG. 5B, the vehicle window display image is generated by removing the vehicle body region that blocks the line of sight from the vehicle window image. The vehicle body area that blocks the line of sight is indicated by diagonal lines, and is the part that the driver cannot observe. The vehicle body region in FIG.
  • 6B includes, for example, a vehicle body region 280F formed by the front pillar 307F, a vehicle body region 280R formed by the right pillar 307R, a vehicle body region 280L formed by the left pillar 307L, and a vehicle body region 280D formed by the dashboard 301.
  • the point SPa ′ is the central portion of the display area of the display 255.
  • the display video generation unit 125 generates a vehicle window video shown in FIG. In the figure (a), a car window image including other vehicles 500a and 500b is displayed. Further, when the vehicle window shielding information is combined with the vehicle window image of FIG. 10A, the vehicle window display image shown in FIG.
  • the vehicle body region in FIG. 6B includes, for example, a vehicle body region 280F formed by the front pillar 307F, a vehicle body region 280R formed by the right pillar 307R, and a vehicle body region 280D formed by the dashboard 301.
  • the display video generation unit 125 generates a vehicle window video shown in FIG. In the figure (a), the vehicle window image including the other vehicle 500a and the pedestrian 500c is displayed. Further, when the vehicle window shielding information is combined with the vehicle window image of FIG. 10A, the vehicle window display image shown in FIG.
  • the vehicle body region in FIG. 6B includes, for example, a vehicle body region 280F formed by the front pillar 307F, a vehicle body region 280L formed by the left pillar 307L, and a vehicle body region 280D formed by the dashboard 301.
  • the display video generation unit 125 displays the mirror display video based on the mirror video of the mirror video DB 128 and the mirror shielding information of the shielding information DB 129. Is generated. For example, referring to FIG. 22, in the case of the frame of frame number 1, since no mirror exists in the effective visual field range, the display video generation unit 125 does not generate a mirror display video. On the other hand, in the case of the frame with frame number 2, the display video generation unit 125 reads the rearview video_2 from the mirror video DB 128 of FIG. Further, the display video generation unit 125 reads the rearview mirror shielding information_2 of frame number 2 from the shielding information DB 129 of FIG.
  • the display video generation unit 125 generates a mirror display video_2 with frame number 2 based on the mirror video_2 and the mirror shielding information_2.
  • a method for generating a mirror display image from the mirror image and the mirror shielding information is the same as that of the vehicle window display image described above.
  • the display video generation unit 125 combines the car window display video and the mirror display video to generate a display video.
  • the display video generation unit 125 reads the line-of-sight origin P and the line-of-sight vector from the line-of-sight data DB 130 of FIG.
  • the display video generation unit 125 reads the mirror display area from the various correspondence table DB 131 in FIG. 20 based on the line-of-sight origin P and the line-of-sight vector.
  • the display video generation unit 125 generates a display video by superimposing the mirror display video on the vehicle window display video based on the mirror display area.
  • FIG. 28 is an example of a display image in which a rearview mirror image is superimposed on the rearview mirror display area 266B of FIG.
  • FIG. 29 is an example of a display image in which the right mirror image is superimposed on the right mirror display region 266R of FIG.
  • the display video generation unit 125 generates a display video in which the mirror video is superimposed on the mirror display area of the mirror 303 existing in the effective visual field area.
  • the display video generation unit 125 does not superimpose the mirror video on the mirror display area of the mirror 303 that does not exist within the effective visual field range.
  • Driving Education Terminal Functional units of the driving education terminal 250 in FIG. 8 include, for example, a transmission / reception unit 270 and a display control unit 271.
  • the driving education terminal 250 receives a display instruction for a desired display image from the viewer via the mouse 256 and the keyboard 257.
  • the transmission / reception unit 270 outputs a display video display instruction to the display video generation unit 125 of the driving video processing device 100.
  • the transmission / reception unit 270 receives a desired display video from the display video generation unit 125, and the display control unit 271 displays the display video on the display 255.
  • FIG. 30 is a flowchart showing an example of the flow of processing executed by the driving video processing apparatus according to the first embodiment.
  • the driving image processing apparatus 100 acquires peripheral information and line-of-sight data from the information acquisition apparatus 200 for each frame and stores them in the peripheral information DB 126 and the line-of-sight data DB 130. The following processing is executed for each frame, for example.
  • Steps S1 and S2 The driving image processing apparatus 100 sequentially adds frame numbers i from 0.
  • Step S3 The vehicle window image generation unit 121 and the mirror image generation unit 122 read the peripheral information from the peripheral information DB 126 and the line-of-sight data from the line-of-sight data DB 130 for the frame number i of interest.
  • the shielding information calculation unit 123, the line-of-sight processing unit 124, and the display video generation unit 125 read the line-of-sight data from the line-of-sight data DB 130 for the frame number i of interest.
  • Step S4 The vehicle window image generation unit 121 projects the peripheral information of the frame of interest on the three-dimensional projection plane 400.
  • Step S5 The vehicle window image generation unit 121 reads the vehicle window visual field region on the three-dimensional projection plane 400 from the various correspondence tables DB 131 based on the visual axis origin P and the visual vector 150a. Next, the vehicle window image generation unit 121 extracts an image corresponding to the vehicle window visual field region from the three-dimensional projection plane 400 on which the peripheral image is projected. Further, the vehicle window image generation unit 121 processes the extracted image into a vehicle window image that can be displayed in the vehicle window display area 265 of the display 255 and stores the vehicle window image in the vehicle window image DB 127.
  • Step S6 The shielding information generation unit 123 reads the vehicle window shielding information from the various correspondence tables DB 131 based on the corresponding vehicle type, the line-of-sight origin P, and the line-of-sight vector 150a, and stores them in the shielding information DB 129.
  • Step S7 The display image generation unit 125 reads the vehicle window image of the vehicle window image DB 127 and the vehicle window shielding information of the shielding information DB 129 for the frame number i of interest, and generates the vehicle window display image by combining the vehicle window image and the vehicle window shielding information. .
  • Step S8 As shown in FIGS. 15B and 15C, the line-of-sight processing unit 124 calculates an effective field range based on the line-of-sight origin P and the line-of-sight vector 150a and the effective field angle ⁇ e of a predetermined angle. .
  • the line-of-sight processing unit 124 determines which mirror 303 exists in the effective visual field range based on, for example, the mirror position corresponding to the vehicle type of the host vehicle 300. If any mirror 303 is within the effective visual field range, the process proceeds to step S9. If none of the mirrors 3030 are within the effective visual field range, the process proceeds to step S12.
  • Step S9 Based on the line-of-sight origin P and the mirror 303 existing in the effective visual field range, the mirror video generation unit 122 reads the mirror visual field region of the corresponding mirror from the various correspondence table DB 131. Note that the information of the mirror 303 existing within the effective visual field range is included in the line-of-sight data in the line-of-sight data DB 130.
  • the mirror video generation unit 122 extracts each video corresponding to each mirror visual field from the three-dimensional projection surface 400 on which the peripheral video is projected.
  • the mirror video generation unit 122 processes the extracted video into a mirror video that can be displayed in the mirror display area 266 of the display 255 and stores the mirror video in the mirror video DB 128.
  • Step S10 The shielding information generation unit 123 reads the mirror shielding information of the corresponding mirror from the various correspondence tables DB 131 based on the line-of-sight origin P and the mirror 303 existing in the effective visual field range, and stores it in the shielding information DB 129. .
  • Step S11 The display image generation unit 125 reads the mirror image of the mirror image DB 128 and the mirror shielding information of the shielding information DB 129 for the focused frame number i, and generates the mirror display image by combining the mirror image and the mirror shielding information. .
  • Step S12 The display video generation unit 125 reads the mirror display area from the various correspondence table DB 131 based on the line-of-sight origin P and the line-of-sight vector. Next, the display video generation unit 125 generates a display video by superimposing the mirror display video on the vehicle window display video based on the mirror display area.
  • Step S13 If the frame with the frame number i is the last frame, the process is terminated. Otherwise, the process returns to step S2.
  • the driving image processing apparatus 100 can reflect the region in which the driver's line of sight is shielded by the vehicle body such as a pillar in the display image by the processing as described above. That is, it is possible to generate a display image that is estimated to be actually viewed by the driver. Therefore, the viewer of the display image views the display image in which the shielding information is reflected on the driving education terminal 250, so that what area is dead by the vehicle body such as a pillar depends on the death world. It is possible to know what kind of dangerous driving has occurred. Thereby, safe driving education can be performed effectively.
  • the display image is an image centered on the driver's line of sight
  • the viewer of the display image can view as if he / she is driving the vehicle.
  • the viewer can grasp the situation that the driver was observing during dangerous driving, as if he had encountered dangerous driving. You can watch as if you were. Therefore, it is possible to provide effective safe driving education such as making a strong impression on the viewer about the situation in which dangerous driving has occurred and making it useful during actual driving.
  • the display image may include not only the vehicle window display image but also a mirror display image that the driver observes through the mirror.
  • the viewer of the display image can confirm not only the surrounding situation that the driver is observing from the vehicle window, but also the surrounding situation that can be observed through the mirror within the effective visual field range. Therefore, it is possible to evaluate the driver's line of sight, driving state, and the like based on all the situations that the driver actually observes, and use it for safe driving education.
  • the display image displayed on the display 255 has a fixed visual field area on the three-dimensional projection plane 400, for example. Such a visual field region is referred to as a fixed visual field region in the present modification.
  • the driver's line-of-sight locus 281 in each frame is displayed on the display 255.
  • the line-of-sight trajectory generation unit in the claims is included in the line-of-sight processing unit 124.
  • FIG. 31 is an explanatory diagram showing a positional relationship between a fixed visual field region on the three-dimensional projection plane 400, a car window image, and a mirror image.
  • the line-of-sight vector moves from the line-of-sight origin P to the line-of-sight vectors 150a1, 150a2, and 150a3 between a predetermined number of frames.
  • a forward vehicle window image 400F is associated as an image in the forward direction indicated by the line-of-sight vector 150a1 from the line-of-sight origin P.
  • the right vehicle window image 400R and the left vehicle window image 400L are associated with each other as images in the direction indicated by the line-of-sight vectors 150a2 and 150a3 from the line-of-sight origin P.
  • the fixed visual field region 400fix is set so as to include an image that can be visually recognized by the driver during a predetermined number of frames. That is, the fixed visual field region 400fix is set to include the front vehicle window image 400F, the right vehicle window image 400R, and the left vehicle window image 400L.
  • a rearview mirror image 400MB is associated with the rearview mirror 303B.
  • the right mirror image 400MR is associated with the right door mirror 303R
  • the left mirror image 400ML is associated with the left door mirror 303L.
  • the fixed visual field region 400fix may be a fixed region at all times, or may vary according to the line-of-sight origin P and the line-of-sight vector.
  • the size and position of the fixed visual field region 400fix may vary according to the average line-of-sight origin Pav and the average line-of-sight vector during a predetermined number of frames.
  • the line-of-sight processing unit 124 calculates the average line-of-sight origin Pav by averaging the line-of-sight origin P between a predetermined number of frames, and calculates the average line-of-sight vector by averaging the line-of-sight vectors between the predetermined number of frames. To do.
  • the various correspondence tables DB 131 includes the average line-of-sight origin Pav and the average line-of-sight vector, the fixed visual field region 400fix on the three-dimensional projection plane 400, the average line-of-sight vector from the average line-of-sight origin Pav and the intersection SP of the three-dimensional projection plane 400.
  • the association is stored. Therefore, the vehicle window image generation unit 121 may determine the fixed visual field region 400fix from the various correspondence table DB 131 based on the average line-of-sight origin Pav and the average line-of-sight vector.
  • FIG. 32 is an explanatory diagram showing the relationship between the vehicle window image and mirror image on the three-dimensional projection plane and the display area of the display.
  • the display area of the display 255 includes a vehicle window display area 265 and a mirror display area 266.
  • the positional relationship between the vehicle window display area 265 and the error display area 266 is fixed and set to a predetermined positional relationship.
  • the mirror display area 266 includes a rearview mirror display area 266B, a right mirror display area 266R, and a left mirror display area 266L.
  • each mirror display image including each mirror image 400MB, 400MR, 400MB and mirror shielding information of each mirror is displayed.
  • the car window image generation unit 121 projects the peripheral information of the frame of interest on the three-dimensional projection plane 400.
  • the vehicle window image generation unit 121 extracts an image corresponding to the fixed visual field region 400fix from the three-dimensional projection surface 400 on which the peripheral image is projected, and processes the extracted image into a vehicle window image that can be displayed on the display 255.
  • the various correspondence table DB 131 stores the vehicle type, the line-of-sight origin P, the line-of-sight vector 150a, and the vehicle window shielding information fix on the vehicle body of the host vehicle 300 that blocks the driver's vehicle line of sight.
  • the vehicle window shielding information fix is information that blocks the driver's line of sight within the fixed visual field region 400fix.
  • the shielding information generation unit 123 reads the vehicle window shielding information fix from the various correspondence tables DB 131 based on the corresponding vehicle type, the line-of-sight origin P, and the line-of-sight vector 150a, and stores them in the shielding information DB 129.
  • the display video generation unit 125 generates a vehicle window display video corresponding to the fixed visual field area 400fix based on the vehicle window video and the vehicle window shielding information fix in the fixed visual field area 400fix for the frame of interest.
  • the line-of-sight processing unit 124 calculates an effective visual field range based on the visual line origin P and the visual line vector 150a and an effective visual field angle ⁇ e of a predetermined angle, and which mirror 303 is present in the effective visual field range. Determine.
  • the line-of-sight processing unit 124 calculates the intersection SPa between the line-of-sight vector 150a extending from the line-of-sight origin P and the three-dimensional projection plane 400 based on the line-of-sight origin P and the line-of-sight vector 150a with reference to FIG. Further, the line-of-sight processing unit 124 performs coordinate conversion of the intersection point SPa on the three-dimensional projection plane 400 to a point on the display 255 to calculate a line-of-sight locus.
  • the mirror image generation unit 122 uses the line-of-sight origin P and the mirror 303 existing in the effective visual field range, from the various correspondence table DB 131 in FIG. Read the mirror field of view.
  • the mirror video generation unit 122 extracts each video corresponding to each mirror visual field from the three-dimensional projection surface 400 on which the peripheral video is projected, processes the video into a mirror video, and stores the mirror video in the mirror video DB 128.
  • the shielding information generation unit 123 reads the mirror shielding information of the corresponding mirror from the various correspondence tables DB 131 based on the line-of-sight origin P and the mirror 303 existing in the effective visual field range. It stores in shielding information DB129.
  • the display video generation unit 125 generates a mirror display video for the frame of interest based on the mirror video and the mirror shielding information. Furthermore, the display image generation unit 125 generates a display image by superimposing a mirror display image on the vehicle window display image based on a predetermined positional relationship, and further superimposing a line-of-sight locus.
  • FIG. 33 is an example of a display image.
  • a car window display image corresponding to the fixed visual field area 400fix is displayed in the car window display area 265.
  • the vehicle window display image includes vehicle window shielding information including a vehicle body region 280F by the front pillar 307F, a vehicle body region 280R by the right pillar 307R, a vehicle body region 280L by the left pillar 307L, and a vehicle body region 280D by the dashboard 301.
  • the rearview mirror image 400MB is displayed in the rearview mirror display area 266B. Since the other right side door mirror 303R and the left side door mirror 303L are not within the effective visual field range, no video is displayed in the right side mirror display area 266R and the left side mirror display area 266L.
  • a driver's line-of-sight locus 281 is displayed. Since the driver's line-of-sight trajectory is superimposed on the display image in this way, the viewer is not aware of what object the driver is viewing other than the host vehicle while the vehicle is traveling. You can figure out if it was. As a result, for example, the cause of dangerous driving, such as the occurrence of dangerous driving because no object was recognized, can be used for safe driving education.
  • the range of the fixed visual field region 400fix on the three-dimensional projection plane 400 does not vary according to the movement of the driver's line of sight.
  • the line-of-sight locus 281 is generated according to the movement of the driver's line of sight, and the vehicle window shielding information also changes. Since the vehicle window shielding information changes, for example, in FIG. 33, a vehicle body region such as a pillar changes according to the movement of the line of sight. Further, the mirror display area 266 in which the mirror display image is displayed also changes according to the movement of the driver's line of sight.
  • the visual field range that can be visually recognized by the driver may vary depending on the degree of tension during driving and the degree of concentration on driving. For example, when the driver is nervous or when the driver is too concentrated, the visual field range of the driver tends to narrow. Therefore, in this modification, the visual field range is calculated based on biological information such as pupil diameter, heart rate, heart rate, sweating amount, and gaze dwell time, and the display image is processed according to the visual field range.
  • FIG. 34 is an example of a block diagram illustrating a functional configuration of each device according to the second modification.
  • the functional configuration of the present modification includes a visual field calculation unit 132 in addition to the functional configuration of FIG. 8 of the first embodiment.
  • the visual field range can be calculated based on biological information such as pupil diameter, heart rate, heart rate, sweating amount, and gaze dwell time. Such biological information can be detected by various detection units.
  • the pupil diameter can be measured by the line-of-sight detection unit 221.
  • the line-of-sight detection unit 221 acquires an eye image, extracts a pupil portion, and measures the pupil diameter.
  • the line-of-sight detection unit 221 can also emit light such as infrared rays and measure the pupil diameter based on the reflected wave from the eyes.
  • the heartbeat can be measured based on the blood flow of the hand gripping the handle 302 with a measuring instrument attached to the handle 302, for example.
  • the measuring instrument has, for example, a plus electrode or a minus electrode at the handle position of the right hand and the handle position of the left hand, respectively. Based on the potential difference between the electrodes, it is possible to measure the heart rate and heart rate of the driver.
  • the amount of sweating can be measured based on the sweat discharged from the hand holding the handle 302 with a measuring instrument attached to the handle 302, for example.
  • the line-of-sight dwell time can be obtained by calculating the time during which the line-of-sight stays in each vector direction based on the line-of-sight origin P and the line-of-sight vector 150a.
  • the information for calculating the visual field range is not limited to the above information, and various ecological information such as blood pressure can be used.
  • the visual field calculation unit 132 calculates the visual field range based on the information for calculating the visual field range described above.
  • the various correspondence tables DB 131 stores correspondences between pupil diameters, heart rates, heart rate states, sweating amounts, gaze dwell times, etc., and visual field ranges. For example, the smaller the pupil diameter, the narrower the visual field range, and the larger the heart rate, the narrower the visual field range.
  • the visual field calculation unit 132 calculates a visual field range with reference to the association.
  • the visual field range is represented by coordinates on the display area of the display 255, for example.
  • the display video generation unit 125 acquires the visual field range from the visual field calculation unit 132 and processes the display video based on the visual field range.
  • FIG. 35 is an explanatory diagram showing a processing example of the display video.
  • a point SP which is the center of the driver's line of sight, is located at the center of the display area of the display 255, and a visual field range VF including the point SP is calculated.
  • the visual field range VF has, for example, lengths L1 and L2 in the vertical and horizontal directions, respectively.
  • the visual field range VF is not limited to such a rectangular shape, and may be a circular shape, an elliptical shape, or the like.
  • the display video generation unit 125 performs processing so that the display video is clear within the visual field range VF, and processes the display video to be blurred in the display area outside the visual field range VF.
  • the display image is processed in this way, so that the situation observed by the driver can be estimated and reproduced. Therefore, the viewer can confirm the display image corresponding to the visual field range of the driver.
  • the display image can also be used when analyzing the cause of the dangerous driving, for example, when the driver has not been able to grasp the object causing the dangerous driving due to the narrowing of the visual field.
  • the driving image processing apparatus 100 projects the surrounding image on the 3D projection surface 400, extracts the vehicle window image and the mirror image from the surrounding image on the 3D projection surface 400, and displays it on the display 255. Processing as possible.
  • the driving image processing apparatus 100 may generate a car window image and a mirror image that can be displayed on the display 255 from the peripheral images acquired from the cameras 205a to 205d. Therefore, for example, the various correspondence table DB 131 associates, for each line-of-sight origin P and line-of-sight vector, the coordinates of each pixel constituting the image corresponding to the vehicle window line of sight of the surrounding image and the coordinates on the display area of the display 255. Is remembered.
  • the vehicle window image generation unit 121 performs coordinate conversion from the camera 205 to the display area of the display 255 with respect to image data corresponding to the driver's line of sight among the surrounding images based on the predetermined line-of-sight origin P and line-of-sight vector and the association. To do. Thereby, the vehicle window image corresponding to the driver's line-of-sight origin P and line-of-sight vector can be generated.
  • the various correspondence table DB 131 associates the coordinates of each pixel constituting the image corresponding to the mirror line of sight with respect to the vehicle type, mirror information, and line-of-sight origin P, and the coordinates on the display area of the display 255.
  • the association is stored.
  • the mirror video generation unit 122 generates a mirror video for the mirror 303 within the effective visual field range based on the association.
  • the driving image processing apparatus 100 of the first embodiment generates a display image as shown in FIGS. 28 and 29 by superimposing the vehicle window display image and the mirror display image.
  • the driving image processing apparatus 100 may generate only the vehicle window display image as the display image, or may generate only the mirror display image as the display image.
  • the driving image processing apparatus 100 according to the first embodiment acquires peripheral information and line-of-sight data around the host vehicle from the external information acquisition apparatus 200.
  • the driving image processing apparatus 100 according to the second embodiment obtains such information by itself.
  • FIG. 36 is an example of a block diagram illustrating a hardware configuration of the driving video processing device according to the second embodiment.
  • the driving image processing apparatus 100 includes, for example, a CPU 101, a ROM 102, a RAM 103, an input / output device I / F 104, and a communication I / F 108. These are connected to each other via a bus 109.
  • the input / output device I / F 104 is connected to input / output devices such as the display 105, the mouse 106, the keyboard 107, the peripheral information acquisition device 205, and the line-of-sight detection device 206.
  • FIG. 37 is an example of a block diagram illustrating a functional configuration of the driving image processing apparatus according to the second embodiment.
  • the driving image processing apparatus 100 according to the second embodiment includes a peripheral information acquisition unit 220 and a line-of-sight detection unit 221 in addition to the driving image processing apparatus 100 according to the first embodiment.
  • the driving image processing apparatus 100 according to the second embodiment does not require transmission / reception of data, commands, and the like with the information acquisition apparatus 200, the transmission / reception units 120 and 222 and the acquisition data DB 223 are omitted.
  • the processing of each function is the same as in the first embodiment.
  • a computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention.
  • the computer-readable recording medium for example, a flexible disk, a hard disk, a CD-ROM (Compact Disc-Read Only Memory), an MO (Magneto Optical disk), a DVD, a DVD-ROM, a DVD-RAM (DVD-RAM). Random Access Memory), BD (Blue-ray Disc), USB memory, semiconductor memory, and the like.
  • the computer program is not limited to the one recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.
  • the computer-readable recording medium does not include a carrier wave in which a computer program is embedded. Even if the computer program is embedded in a carrier wave and transmitted, the computer-readable recording medium in which the program is recorded is reproduced in a recording medium reader connected to the transmission source computer. It is a physically tangible recording medium.
  • Driving image processing device 101 CPU 121: Car window image generation unit 122: Mirror image generation unit 123: Shielding information calculation unit 124: Line-of-sight processing unit 125: Display video generation unit 126: Peripheral information DB 127: Train window video DB 128: Mirror video DB 129: Shielding information DB 130: Gaze data DB 131: Various correspondence table DB 132: Field of view calculation unit 150: Line of sight 150a: eye vector 155: Mirror line of sight 155a: Mirror line-of-sight vector 200: Information acquisition device 205a to 205d: Camera 205: Peripheral information acquisition device 206: Line-of-sight detection equipment 220: Peripheral information acquisition unit 221: Gaze detection unit 250: Terminal for driving education 255: Display 265: Car window display area 266 B: Rearview mirror display area 266 L: Left side mirror display area 266 R: Right mirror display area 280: Body region 281: Eye tracking 300: Vehicle 303: Mirror 307: Pill

Abstract

 自車両の周辺を撮影した映像を含む周辺情報を取得する映像取得部と、自車両の運転者の視線原点及び視線方向を取得する視線取得部と、前記周辺情報から視線原点に対応する視線映像を生成する視線映像生成部と、前記運転者の視線を遮る前記自車両の車体領域又は車体映像を含む遮蔽情報を、前記視線原点に基づいて算出する遮蔽情報算出部と、前記視線映像と前記遮蔽情報とに基づいて、表示映像を生成する表示映像生成部と、を含む映像処理装置を提供する。

Description

映像処理装置、映像処理方法及び映像処理プログラム
 本発明は、運転者が観察している映像を生成する映像処理装置、映像処理方法及び映像処理プログラムに関する。
 車社会において安全を促進させて事故数を減少させることが大きな課題となっており、様々な対策がなされている。例えば、対策の1つとして、どのような場合に事故が生じやすいのかを映像を用いて運転者に学習させる方法がある。具体的には、例えば、特許文献1に記載のシステムのように、車両に搭載したドライブレコーダにより事故映像を取得し、その事故映像を再生して交通安全教育に役立てる。例えば、ドライブレコーダは、衝突事故における衝撃、あるいは、急ブレーキ及び急なハンドル操作などの危険運転を検出すると、自車両の前方映像及び自車両の走行状態を記録する。
特開2007-011148号公報
 しかし、上記のようなドライブレコーダが取得する映像は自車両の前方映像のみであり、ドライブレコーダの映像を視聴する視聴者が確認可能な映像も前方映像に限られる。そのため、例えば運転者が右又は左を向いていた場合には、視聴者が視聴する映像と運転者が実際に見ていた映像とが異なる。
 ここで、運転者が実際にどのような状況を観察していたのか、どのような状況を観察していたために危険運転が生じたのかなどの危険運転の原因を解析することが交通安全教育には効果的である。
 そこで、運転者が観察している映像を生成する映像を生成する映像処理装置、映像処理方法及び映像処理プログラムを提供することを目的とする。
 自車両の周辺を撮影した映像を含む周辺情報を取得する映像取得部と、自車両の運転者の視線原点及び視線方向を取得する視線取得部と、前記周辺情報から視線原点に対応する視線映像を生成する視線映像生成部と、前記運転者の視線を遮る前記自車両の車体領域又は車体映像を含む遮蔽情報を、前記視線原点に基づいて算出する遮蔽情報算出部と、前記視線映像と前記遮蔽情報とに基づいて、表示映像を生成する表示映像生成部と、を含む映像処理装置を提供する。
 運転者が観察している映像を生成する映像を生成する映像処理装置、映像処理方法及び映像処理プログラムを提供することができる。
第1実施形態例に係る、運転映像処理装置、情報取得装置及び運転教育用端末の接続関係の一例。 運転映像処理装置、情報取得装置及び運転教育用端末のハードウェア構成を示すブロック図の一例。 周辺情報取得機器の取付位置と撮影範囲を示す説明図。 視線検出機器の取付位置を示す説明図。 視線検出機器の取付位置を示す説明図。 車両の外観図の一例。 ミラーにより確認可能な領域の一例を示す説明図。 第1実施形態例にかかる各装置の機能構成を示すブロック図の一例。 (a)は視線原点P及び視線ベクトルの算出方法の一例を示す説明図(1)であり、(b)はピッチ角θβを示す説明図であり、(c)は位角θαを示す説明図である。 周辺情報DBの一例。 視線データDBの一例。 (a)は三有効視野範囲及びミラー間の関係と、ミラーを介して視認可能なミラー視認範囲と、を説明するための説明図(1)であり、(b)は有効視野範囲及びミラー間の関係と、ミラーを介して視認可能なミラー視認範囲と、を説明するための説明図(2)であり、(c)は有効視野範囲及びミラー間の関係と、ミラーを介して視認可能なミラー視認範囲と、を説明するための説明図(3)である。 視線原点P及び視線ベクトルと、三次元投影面での車窓視野領域と、の対応付けの一例。 視線原点P及び視線ベクトルと、車窓遮蔽情報と、の対応付けの一例。 有効視野範囲及びミラー間の関係と、ミラーを介して視認可能なミラー視認範囲と、を説明するための説明図。 車種毎の、ミラー情報及び視線原点Pと、仮想視線原点VP、ミラー視野画角θm、ミラー視野領域及びミラー遮蔽情報と、の対応付けの一例。 三次元投影面上の車窓映像及びミラー映像と、ディスプレイの表示領域と、の関係を示す説明図(1)。 三次元投影面上の車窓映像及びミラー映像と、ディスプレイの表示領域と、の関係を示す説明図(2)。 三次元投影面上の車窓映像及びミラー映像と、ディスプレイの表示領域と、の関係を示す説明図(3)。 視線原点P及び視線ベクトルと、各ミラー表示領域と、の対応付けの一例。 車窓映像DBの一例。 ミラー映像DBの一例。 遮蔽情報DBの一例。 車窓表示映像に使用する映像例。 (a)は運転者が前方を向いている場合の他車両及び歩行者を含む車窓映像であり、(b)は(a)の車窓映像に車窓遮蔽情報が合成された車窓表示映像である。 (a)は運転者が右斜め前を向いている場合の他車両及び歩行者を含む車窓映像であり、(b)は(a)の車窓映像に車窓遮蔽情報が合成された車窓表示映像である。 (a)は運転者が左斜め前を向いている場合の他車両及び歩行者を含む車窓映像であり、(b)は(a)の車窓映像に車窓遮蔽情報が合成された車窓表示映像である。 図26(b)のバックミラー表示領域266Bにバックミラー映像が重畳された表示映像の一例。 図26(b)の右側ミラー表示領域266Rに右側ミラー映像が重畳された表示映像の一例。 第1実施形態例にかかる運転映像処理装置が実行する処理の流れの一例を示すフローチャート。 三次元投影面での固定視野領域と、車窓映像及びミラー映像と、の位置関係を示す説明図。 三次元投影面上の車窓映像及びミラー映像と、ディスプレイの表示領域と、の関係を示す説明図。 表示映像の一例。 変形例2に係る各装置の機能構成を示すブロック図の一例。 表示映像の加工例を示す説明図。 第2実施形態例に係る、運転映像処理装置のハードウェア構成を示すブロック図の一例。 第2実施形態例にかかる運転映像処理装置の機能構成を示すブロック図の一例。
 <第1実施形態例>
 第1実施形態例の運転映像処理装置100は、自車両300の運転者が運転中に実際に観察している映像を生成する。例えば、運転映像処理装置100は、自車両300の運転者の視線原点P及び視線方向に対応する視線映像を、自車両300の周辺情報から生成する。周辺情報には、少なくとも自車両300の周辺映像が含まれ、例えば自車両300周辺の他車両などの対象物及び道路などの映像が含まれる。また、運転映像処理装置100は、運転者の視線を遮る自車両300の車体領域及び/又は車体映像を含む遮蔽情報を、運転者の視線原点P及び視線方向に基づいて算出する。次に、運転映像処理装置100は、これらの視線映像と遮蔽情報とを合成することで、運転者の視線を中心とする表示映像を生成する。よって、運転映像処理装置100は、運転者が車体により観察できなかった領域を表示映像に反映し、運転者が実際に観察していた自車両300周辺映像を運転者の視線を中心にして生成することができる。
 なお、視線方向には、運転者の視線原点Pから自車両300の窓を介した車窓視線方向が含まれ、視線映像には、視線原点P及び車窓視線方向に対応する車窓映像が含まれる。また、運転者は自車両300に備えられたミラーを介して自車両300の後方及び後側方の対象物などを確認することができる。よって、視線映像には、自車両300の少なくとも1のミラーを介して運転者が視認可能なミラー視認範囲に対応するミラー映像が含まれていても良い。
 また、遮蔽情報には、運転者の車窓視線方向への視線を遮る自車両300の車体に関する車窓遮蔽情報及び/又は運転者のミラー視認範囲へのミラー視線を遮る自車両300の車体に関するミラー遮蔽情報を含む。
 また、表示映像には、運転者が自車両300の窓を介して観察する車窓表示映像及び/又は運転者が自車両300の少なくとも1のミラーを介して観察するミラー表示映像が含まれる。車窓表示映像は、車窓映像と車窓遮蔽情報とを合成することにより生成され、ミラー表示映像は、ミラー映像とミラー遮蔽情報とを合成することにより生成される。
 下記に、まず第1実施形態例の運転映像処理装置100と、各種情報を取得する情報取得装置200と、運転教育用端末250と、の関係及びそれぞれのハードウェア構成について説明する。
 (1)運転映像処理装置、情報取得装置及び運転教育用端末の関係
 図1は、第1実施形態例に係る、運転映像処理装置、情報取得装置及び運転教育用端末の接続関係の一例である。図2は、運転映像処理装置、情報取得装置及び運転教育用端末のハードウェア構成を示すブロック図の一例である。
 運転映像処理装置100は、上述の通り、自車両300の運転者の視線原点P及び視線方向に対応する視線映像と、運転者の視線を遮る自車両300の車体に関する遮蔽情報と、を合成し、運転者の視線を中心とする表示映像を生成する。情報取得装置200は、自車両300の周辺情報及び自車両300の運転者の視線データをなどの各種情報を取得する。運転教育用端末250は、安全運転教育の対象者である運転者などの視聴者が、運転映像処理装置100が生成した表示映像を視聴するための端末である。
 運転映像処理装置100、情報取得装置200及び運転教育用端末250は、各種情報を送受信可能なように接続されている。接続方法として、例えば、SCSI(Small Computer System Interface)、USB(Universal Serial Bus)などのインターフェースなど、また、インターネットなどのネットワークなどが挙げられる。
 (2)ハードウェア構成
 (2-1)運転映像処理装置
 運転映像処理装置100は、例えば、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力機器I/F104、通信I/F(InterFace)108、HDD(Hard diskdrive)110a、R/W(Read/Write)機器110bを有している。これらは、バス109を介して互いに接続されている。
 入出力機器I/F104は、ディスプレイ105、マウス106及びキーボード107などの入出力機器と接続されている。
 ROM102は、運転映像処理装置100が行う後述の各種制御に関わる各種制御プログラムを記憶している。
 RAM103は、ROM102内の各種制御プログラム、情報取得装置200から取得した周辺情報及び視線データなどの各種情報を一時的に記憶する。また、RAM103は、各種制御プログラムの実行に応じて各種フラグなどの情報を一時的に記憶する。
 HDD110aは、補助記憶装置であり、情報取得装置200から取得した周辺情報及び視線データなどの各種情報を記憶する。
 R/W機器110bは、外部の記憶装置に前記各種情報を書き込むか、あるいは外部の記憶装置に記憶された各種情報及びプログラムなどを読み出す。外部の記憶装置としては、例えば外付けのHDDやコンピュータで読み取り可能な記録媒体が挙げられる。
 CPU101は、ROM102に記憶された各種制御プログラムをRAM103に展開し、後述の各種制御を行う。
 通信I/F108は、CPU101の制御に基づいて、例えば情報取得装置200及び運転教育用端末250との間でコマンド又はデータの送受信などの通信を行う。
 バス109は、例えばPCI(Peripheral Component Interconnect)バスやISA(Industrial Standard Architecture)バス等からなり、上記構成を互いに接続する。
 (2-2)情報取得装置
 情報取得装置200は、例えば、CPU201、ROM202、RAM203、入出力機器I/F204、通信I/F207、HDD209a、R/W機器209bを有している。これらは、バス208を介して互いに接続されている。
  (a)入出力機器I/F
 入出力機器I/F204は、周辺情報取得機器205及び視線検出機器206などと接続されている。周辺情報取得機器205及び視線検出機器206により検出された情報は、入出力機器I/F204を介してRAM203、CPU201及び通信I/F207などに出力される。
  (b)周辺情報取得機器
 周辺情報取得機器205は、自車両300周辺の周辺情報を取得する。本実施形態例では、周辺情報取得機器205は、周辺情報として自車両300周辺の周辺映像を取得するものとする。周辺映像には、例えば自車両300周辺に存在する人、自転車及び車などの対象物、道路などの映像が含まれる。周辺情報取得機器205は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像装置からなる。
 図3は、周辺情報取得機器の取付位置と撮影範囲を示す説明図である。周辺情報取得機器205は、例えば図3に示すように、例えば前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dの4つのカメラから構成される。前方カメラ205aは、車両300の前部バンパの中央に取り付けられて、車両300の前方を撮影する。後方カメラ205dは、車両300の後部バンパの中央に取り付けられて、車両300の後方を撮影する。右側カメラ205bは、車両300の右側面の中央に取り付けられて、車両300の右側方を撮影する。左側カメラ205cは、車両300の左側面の中央に取り付けられて、車両300の左側方を撮影する。
 各カメラ205a~205dは、例えばそれぞれが180度の画角を有する超広角レンズを用いたカメラである。このことから、図3に示すように、前方カメラ205aは車両300の前方領域210を撮影し、右側カメラ205bは車両300の右側方領域211を撮影し、左側カメラ205cは車両300の左側方領域212を撮影し、後方カメラ205dは、車両300の後方領域213を撮影する。各カメラ205a~205dの撮影領域は、それぞれ隣接するカメラが撮影する領域と重複するように構成される。
 なお、各カメラ205a~205dの取付位置、取付角度、その他カメラのレンズの歪み補正値及び焦点距離などのカメラの特性は、車両300の中心点Oを原点とする空間座標系に適合可能なように補正、いわゆるキャリブレーションされる。このキャリブレーションの実行により、各カメラ205a~205dで撮影された映像は、車両300の中心点Oを原点とする空間座標系に組み込み可能となる。なお、空間座標系はX、Y、Z座標で表すものとし、例えば中心点Oは、自車両300の中心である、自車両300の車幅の半分及び車長の半分の位置により定義され、(X、Y、Z)=(0、0、0)で表される。Yは車両の前進方向、Xは前進方向と交差する方向、Zは高さ方向である。
 各カメラ205a~205dは、図示したように、車両300の前面、右側面、左側面、後面のそれぞれ中央に取り付けることが好ましい。しかし、各カメラ205a~205dの撮影領域が、隣接するカメラの撮影領域と部分的に重複する位置であればよく、各カメラ205a~205dの取付位置は特に限定されるものではない。例えば、右側カメラ205b、左側カメラ205cは、車両300の左右のドアミラーに取り付けることも可能である。また、各カメラの撮影領域が一部重複し、かつ車両300の周囲360度の範囲を撮影することが可能であればよく、カメラの数は4つに限定されるものではない。
 また、各カメラ205a~205dは、例えば、1秒当たり30枚のフレームを撮影する。カメラ205a~205dからなる周辺情報取得機器205によって撮影された映像データは、入出力機器I/F204を介してRAM203に記憶される。
 上記のように各カメラ205a~205dにより映像を撮影することで、運転映像処理装置100は、車両300の全周囲の周辺映像に基づいて、運転者が観察している映像を生成することができる。
 周辺情報取得機器205は、周辺情報を運転中に常に取得するのではなく、例えば危険運転が検出された場合、前方車両への追従走行が検出された場合など特定の場合などにのみ周辺情報を記録するようにしても良い。
  (c)視線検出機器
 視線検出機器206は、運転者の顔、眼球、虹彩などの視線情報を検出する。
 図4及び図5は、視線検出機器の取付位置を示す説明図である。視線検出機器206は、運転者の視線情報を取得可能な例えばCCDカメラ、CMOSカメラ、赤外線カメラなどの撮像装置からなる。
 視線検出機器206は、図4、図5に示すように、例えば車両300のダッシュボード301上に設けられる。このとき、視線検出機器206は、運転者の顔及び目等を前方から検出可能なように、またハンドル302により遮られずに顔及び目等を撮影可能なように、例えばハンドル302近傍のダッシュボード301上に所定の角度で取り付けられる。ただし、運転者の顔及び目等を検出可能であれは、取付位置及び取付角度等は限定されない。
 なお、視線検出機器206の取付位置、取付角度などの視線検出機器の特性は、車両300の中心点Oを原点とする空間座標系に適合可能なように補正、いわゆるキャリブレーションされる。
 また、視線検出機器206は、例えば1秒当たり30枚の映像フレームを撮影し、撮影された映像データは、入出力機器I/F204を介してRAM203に記憶される。
 視線検出機器206が検出した運転者の顔、眼球、虹彩などの映像に基づいて視線150を検出することが可能である。運転者の視線150が検出されると、視線150の方向により運転者がどの方向を視認していたのかが分かる。
 ここで、図4、図5及び図6に示すように、車両は、ダッシュボード301、ハンドル302、窓、ミラー及びピラーなどの車体構造からなる。図6は、車両の外観図の一例である。車両300は、前方窓306F、右側窓306R、左側窓306L、後方窓(図示せず)などの窓を有しており、各窓はピラーにより支持されている。ピラーには、例えば、前方の窓306Fの上方に位置する前側ピラー307F、前方の窓306Fの右側及び左側に位置する右側ピラー307R及び左側ピラー307L、車体後側の後側ピラー307B等が含まれる。
 また、車両300に設けられるミラー303には、図5及び図6に示すように車両300の左右のドア付近に設けられるドアミラー303L、303R、車両300内部に設けられるバックミラー303B、車両300のボンネット上に設けられるフェンダーミラー等が挙げられる。
 検出された視線150の方向が前方であれば、例えば運転者は前方窓306Fを介して自車両300の周辺を視認していたと推測できる。また、視線150の方向がミラー303に向かっていれば、ミラー303を介して車両300の後方及び後側方などを視認していたと推測できる。図7は、ミラーにより確認可能な領域の一例を示す説明図である。車両300の運転者は、左側のドアミラー303Lを介して左ミラー領域304Lを視認可能である。また、運転者は、右側のドアミラー303Rを介して右ミラー領域304Rを視認可能である。また、運転者は、バックミラー303Bを介してバックミラー領域304Bを視認可能である。
  (d)ROM、RAM、HDD、R/W機器、通信I/F
 ROM202は、情報取得装置200が行う各種制御プログラムを記憶している。
 RAM203は、ROM202内の各種制御プログラム、各種フラグ、周辺情報取得機器205及び視線検出機器206から受信した各種情報を一時的に記憶する。
 通信I/F207は、CPU201の制御に基づいて運転映像処理装置100との間で、周辺情報、視線データ及び各種コマンドなどのデータの送受信を行う。
 HDD209aは、補助記憶装置であり、情報取得装置200が取得した各種情報を記憶する。
 R/W機器209bは、外部の記憶装置に前記各種情報を書き込むか、あるいは外部の記憶装置に記憶された各種情報及びプログラムなどを読み出す。外部の記憶装置としては、例えば外付けのHDDやコンピュータで読み取り可能な記録媒体が挙げられる。
  (e)CPU
 CPU201は、ROM202に記憶された各種制御プログラムをRAM203に展開し、各種制御を行う。例えば、CPU201は、各種制御プログラムの実行により周辺情報取得機器205及び視線検出機器206などを制御し、周辺映像などの各種情報の取得を開始させる。
 (2-3)運転教育用端末
 運転教育用端末250は、安全運転教育を受けるユーザが使用する端末であり、この端末では、運転映像処理装置100が生成した表示映像を視聴可能である。
 運転教育用端末250は、例えば、CPU251、ROM252、RAM253、入出力機器I/F254、通信I/F258、HDD260a、R/W機器260bを有している。これらは、バス259を介して互いに接続されている。
 (a)入出力機器
 入出力機器I/F254は、ディスプレイ255、マウス256及びキーボード257などの入出力機器と接続されている。また、入出力機器I/F254は、マウス256及びキーボード257を介してユーザから前記表示映像の表示指示を受け付ける。入出力機器I/F254には、音声を出力するためのスピーカ等が接続されていても良い。
 (b)ディスプレイ
 ディスプレイ255は、表示映像を出力であればどのような形態であっても良い。例えば、ディスプレイ255は、平板状の表示装置であっても良いし、湾曲又は屈曲可能な表示装置であっても良いし、複数の表示装置が組み合わせた構成であっても良い。
 ディスプレイ255の表示領域には、運転者が窓306を介して観察した車窓表示映像が表示される車窓表示領域265が含まれる。さらに、ディスプレイ255の表示領域には、運転者がミラー303を介して観察したミラー表示映像が表示されるミラー表示領域266が含まれても良い。ここで、ディスプレイ255の表示領域に対する各ミラー表示領域266の位置は、視線原点P及び視線方向によって変わる。よって、後述の各種対応表DB131は、視線原点P及び視線方向毎に、表示領域における各ミラー表示領域の占有位置を記憶しており、この関係に基づいて車窓表示映像及びミラー表示映像がディスプレイ255に表示される。
  (c)その他
 CPU251は、ROM252に記憶された各種制御プログラムをRAM253に展開し、運転映像処理装置100から表示映像のデータを取得してディスプレイ255等に出力する。HDD260aは、例えば運転映像装置100から取得した各種情報などを記憶している。その他の構成は、運転映像処理装置100と概ね同様であるので、説明を省略する。
 (3)機能構成
 次に運転映像処理装置100、情報取得装置200及び運転教育用端末250の機能構成について説明する。
 図8は、第1実施形態例にかかる各装置の機能構成を示すブロック図の一例である。なお、図8に示す各機能部の接続線は、データの流れの一例を示したものであり、全てのデータの流れを記載したものではない。
 まず情報取得装置200の機能構成について説明する。
 (3-1)情報取得装置
 情報取得装置200の各ハードウェア構成が相互に連携してプログラムを実行することにより、情報取得装置200は、後述の各機能部として機能する。
 情報取得装置200の機能部には、例えば、周辺情報取得部220、視線検出部221、送受信部222及び取得データDB223などが含まれる。
  (3-1-1)周辺情報取得部
 周辺情報取得部220は、前述の図3に示す前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dからなる周辺情報取得機器205が撮影した周辺映像を取得し、取得データDB223に格納する。
  (3-1-2)視線検出部
 視線検出部221は、視線検出機器206が検出した運転者の顔、眼球、虹彩などの映像に基づいて、視線原点P及び視線150の方向を示す視線ベクトル150aを算出する。以下、本実施形態例では、視線方向を視線ベクトルと称する。
 図9は視線原点P及び視線ベクトルの算出方法の一例を示す説明図である。例えば、視線検出部221は、顔、眼球、虹彩などの映像に基づいて顔の特徴点を算出し、予め記憶している運転者の顔の特徴量と比較する。次に、視線検出部221は、比較結果及び顔、眼球、虹彩の映像などに基づいて顔の向きを抽出するとともに、同図(a)に示す左の眼球152Lと右の眼球152Rとの中心位置を視線原点Pとして検出する。さらに、視線検出部221は、虹彩153aの中心位置、つまり瞳孔153bの中心位置を算出する。最後に、視線検出部221は、視線原点P及び瞳孔153bの中心位置に基づいて視線ベクトル150aを算出する。なお、運転者は頭を前後左右及び上下などに変更し得るため、空間座標系の中心点Oに対する視線原点Pの位置は頭の位置及び向き等に応じて変更される。
 視線ベクトル150aは、同図(b)及び(c)に示すように、視線ベクトル150aとXY平面との成す角である仰角θβと、視線ベクトル150aとYZ平面との成す角である方位角θαと、により定義され得る。その他、視線ベクトル150aは、車両300の任意の中心点Oを原点とする空間座標系内の座標により定義され得る。
 視線検出部221は、視線原点P及び視線ベクトル150aを取得データDB223に格納する。
  (3-1-3)取得データDB
 取得データDB223は、周辺情報及び視線検出部221が検出した視線データなどを記憶する。その他、取得データDB223は、自車両300の車種など、運転映像処理装置100が表示映像を生成するために必要なあらゆる情報を格納している。取得データDB223は、例えばRAM203、HDD209a、外部の記録媒体などから構成され得る。
  (3-1-4)送受信部
 情報取得装置200の送受信部224は、運転映像処理装置100の送受信部120との間で、各種コマンド、周辺情報、視線データ及び自車両300の車種などの各種データ等を送受信する。
 (3-2)運転映像処理装置
 運転映像処理装置100の各ハードウェア構成が相互に連携してプログラムを実行することにより、運転映像処理装置100は後述の各機能部として機能する。
 本実施形態例の運転映像処理装置100は、自車両300の周辺映像から、運転者の視線原点P及び視線ベクトルに対応する視線映像を抽出する。この視線映像には、車窓を介した車窓映像及び/又はミラーを介したミラー映像が含まれる。運転映像処理装置100は、運転者の視線を遮る自車両300の車体領域を視線映像から切り取るか、あるいは、運転者の視線を遮っているピラーなどの車体映像を視線映像に重畳することで表示映像を生成する。
 このような運転映像処理装置100の機能部には、例えば、送受信部120、車窓映像生成部121、ミラー映像生成部122、遮蔽情報算出部123、視線処理部124及び表示映像生成部125などが含まれる。さらに、運転映像処理装置100は、各種情報を記憶するために、周辺情報DB126、車窓映像DB127、ミラー映像DB128、遮蔽情報DB129、視線データDB130及び各種対応表DB131などを含む。なお、各DBは、例えばRAM103、HDD110a、外部の記録媒体などから構成され得る。
  (3-2-1)送受信部
 運転映像処理装置100の送受信部120は、情報取得装置200の送受信部222との間で、各種データ及び各種コマンド等を送受信する。送受信部120は、情報取得装置200が取得した周辺映像及び視線データなどの各種情報を取得データDB223から送受信部222を介してリアルタイムで取得し、運転映像処理装置100内の各DBに取り込む。このとき、送受信部120は、取得データDB223を介さずに、周辺情報取得部220及び視線検出部221から各種情報をリアルタイムに取得しても良い。あるいは、送受信部222は、情報取得装置200の取得データDB223に一連の運転に係る各種情報を一旦格納しておき、その後取得しても良い。つまり、リアルタイムに各種情報を取得するのではなく、一旦取得データDB223に一連の運転に係る各種情報を格納しておき、一連の運転が終了した後に、送受信部222は取得データDB223から各種情報を取得する。
 また、送受信部120には、周辺映像を取得するための映像取得部と、視線データを取得するための視線取得部と、が含まれても良い。
  (3-2-2)周辺情報DB
 周辺情報DB126は、自車両周辺の周辺情報として、自車両周辺の周辺映像を情報取得装置200から取得して記憶する。周辺映像には、前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dからなる周辺情報取得機器205が撮影した映像が含まれる。
 図10は、周辺情報DBの一例である。周辺情報DB126は、例えば、各フレームごとに、フレーム番号及び各カメラ205での映像データを記憶する。映像データには、前方カメラ205aが撮影した前方映像、右側カメラ205bが撮影した右側映像、左側カメラ205cが撮影した左側映像及び後方カメラ205dが撮影した後方映像が含まれる。
  (3-2-3)視線データDB
 視線データDB130は、自車両の運転者の視線原点P及び視線ベクトル150aを情報取得装置200から取得し記憶する。
 図11は、視線データDBの一例である。視線データDB130は、各フレームごとに、フレーム番号、視線原点P及び視線ベクトル150aを情報取得装置200から取得し記憶している。視線ベクトル150aは、方位角θα及び仰角θβにより定義されている。なお、視線原点Pは、車両300の任意の中心点Oを原点とする空間座標系内の座標により定義されても良い。
 視線データDB130は、さらに、後述の視線処理部124が算出した情報として、有効視野範囲、有効視野範囲内にミラーがあるか否か、有効視野範囲内にどのミラーがあるか、などを各フレームごとに記憶している。有効視野範囲とは、視線原点P及び視線ベクトルに対して、運転者が視認可能な範囲である。
  (3-2-4)各種対応表DB
 各種対応表DB131が記憶している各種対応付けについて、表示映像の生成方法の説明とともに説明する。
 ここで、運転映像処理装置100は、自車両300の周辺映像を三次元投影面400に投影し、この三次元投影面400に投影された周辺映像から、運転者の視線原点P及び視線ベクトルに対応する車窓映像及びミラー映像を生成する。図12は、三次元投影面に投影された周辺映像と、視線原点P及び視線ベクトルに対応する車窓映像及びミラー映像と、の位置関係を示す説明図である。
   (a)各カメラの各画素の座標と三次元投影面の各座標との対応付け
 まず、各カメラ205が撮影した映像データを処理して合成することで、図12に示すような三次元投影面400に投影された周辺映像が生成される。三次元投影面400としては、一例として、自車両300を中心にしたお椀形状の投影面を想定している。ここで、各種対応表DB131は、各カメラ205a~205dの各画素の座標と、三次元投影面400の各座標と、の対応付けを記憶している。よって、後述の車窓映像生成部121及びミラー映像生成部122は、各カメラ205a~205dが取得した各画素の映像データを、前記対応付けに基づいて三次元投影面400に座標変換し、三次元投影面400に投影された周辺映像を生成する。
   (b)視線原点P及び視線ベクトルと車窓視野領域との対応付け
 次に、視線原点P及び視線ベクトルと車窓視野領域との対応付けについて説明する。図12に示すように、視線原点Pから視線ベクトル150aが示す方向において運転者が観察可能な映像と、三次元投影面400の周辺映像と、の位置関係が対応付けられている。
 例えば、視線原点Pから視線ベクトル150a1が示す車窓視線方向は、車窓を介した自車両300の前方方向である。また、視線原点Pから視線ベクトル150a1が示す前方方向の映像として、三次元投影面400の周辺映像のうち前方車窓映像400Fが対応付けられている。また、視線原点Pから延びる視線ベクトル150a1は、交点SPaにおいて三次元投影面400と交差する。交点SPaは、運転者の視線の先の中心に相当し、前方車窓映像400Fの中央部分に対応している。なお、車窓視線とは、車窓及び/又は車窓に相当する部分を介した直視による視線であり、車窓視線方向とは車窓視線により特定される方向である。一方、後述のミラー視線とは、ミラーを介した間接的な視線であり、視線原点P及び視線ベクトル150aがミラー303により反射された後の視線である。
 同様に、視線原点Pから視線ベクトル150a2が示す車窓視線方向は、車窓を介した自車両300の右斜め前方向である。また、視線原点Pから視線ベクトル150a2が示す右斜め前方向の映像として、三次元投影面400の周辺映像のうち右側車窓映像400Rが対応付けられている。また、視線原点Pから延びる視線ベクトル150a2が三次元投影面400と交差する交点SPbは、右側車窓映像400Rの中央部分に対応している。
 同様に、視線原点Pから視線ベクトル150a3が示す車窓視線方向は、車窓を介した自車両300の左斜め前方向である。また、視線原点Pから視線ベクトル150a3が示す左斜め前方向の映像として、三次元投影面400の周辺映像のうち左側車窓映像400Lが対応付けられている。また、視線原点Pから延びる視線ベクトル150a3が三次元投影面400と交差する交点SPcは、左側車窓映像400Lの中央部分に対応している。
 このように、視線原点P及び視線ベクトル150aが示す車窓視線方向に応じて、三次元投影面400において運転者が窓を介して観察可能な車窓視野領域の範囲が異なる。ここで、各種対応表DB131は、視線原点P及び視線ベクトル150aと、三次元投影面400での車窓視野領域と、の対応付けを記憶している。車窓視野領域とは、車窓及び車窓に相当する部分を介した場合の三次元投影面400上での運転者の視野領域であり、かつ、運転者の車窓視線が自車両300の車体により遮られていない場合の視野領域を言う。なお、車窓視野領域に相当する車窓映像に、後述のピラーなどによる車体の車窓遮蔽情報を付加すると、運転者の車窓視線が車体により遮られた場合の車窓表示映像が生成される。
 図13は、視線原点P及び視線ベクトルと、三次元投影面での車窓視野領域と、の対応付けの一例である。各種対応表DB131は、視線原点P及び視線ベクトル毎に、三次元投影面での車窓視野領域を対応付けて記憶している。例えば、視線原点P=(X1、Y1、Z1)、視線ベクトル=(θαa、θβa)の場合、車窓視野領域1aが対応付けられている。車窓視野領域は、例えば自車両300の中心点Oを原点とする空間座標系において、三次元投影面400上での座標の集合、座標群の範囲を示す情報などにより表すことができる。
 なお、図13に示すように、各種対応表DB131は、視線原点P及び視線ベクトル毎に、三次元投影面との交点SPを対応付けて記憶しても良い。
   (c)視線原点Pからの視線ベクトルと車窓遮蔽情報との対応付け
 次に、運転者が自車両300の窓から周辺を観察する場合、運転者の車窓視線は、自車両300のピラーなどの車体に遮られる。運転者の車窓視線が遮られる領域は、視線原点P及び視線ベクトル150aに応じて異なる。例えば、運転者の視線ベクトルが右斜め前方向である場合には、例えば右側ピラー307Rが運転者の視界の中心部分に位置するようになる。逆に、例えば、運転者の視線ベクトルが左斜め前方向である場合には、左側ピラー307Lが運転者の視界の中心部分に位置するようになる。
 ここで、各種対応表DB131は、視線原点P及び視線ベクトル150aと、運転者の車窓視線を遮る自車両300の車体の車窓遮蔽情報と、を対応付けて記憶している。車窓遮蔽情報は、視線原点P及び視線ベクトル150aに対応付けられた車窓視野領域の範囲において、運転者の視線を遮る情報である。また、車窓遮蔽情報には、運転者の車窓視線を遮る、自車両300の車体の領域及び/又は車体映像が含まれる。なお、車体の領域は、例えばディスプレイ255の表示領域内の座標の集合、座標群の範囲を示す情報により表すことができる。また、車体映像は、例えばディスプレイ255の表示領域に表示される場合の映像データと、ディスプレイ上の座標と、の対応付けなどで構成され得る。なお、車体映像には、前側ピラー307F、ダッシュボード301、右側ピラー307R及び左側ピラー307Lなどの映像を含まれる。
 図14は、視線原点P及び視線ベクトルと、車窓遮蔽情報と、の対応付けの一例である。車種毎に車体構造が異なるため、各種対応表DB131は、車種毎に、視線原点P及び視線ベクトルと、車窓遮蔽情報と、を対応付けて記憶している。例えば、車種=A、視線原点P=(X1、Y1、Z1)、視線ベクトル=(θαa、θβa)の場合、車窓遮蔽情報A1aが対応付けられている。
   (d)視線原点Pとミラー視野領域との対応付け
 運転者の視線原点P及び視線ベクトルに対して、有効視野範囲内にミラー303が存在する場合、運転者はそのミラー303を介して自車両300の後方及び後側方などを視認可能である。ここで、各種対応表DB131は、ミラーの位置などのミラー情報及び視線原点Pと、運転者が視線原点Pからミラー303を介して視認可能なミラー視野領域と、を対応付けて格納している。
   (d-1)有効視野範囲
 まず、有効視野範囲とミラーとの関係について説明する。本実施形態例の運転映像処理装置100は、有効視野範囲内にいずれかのミラー303が存在していれば、その当該ミラー303を介したミラー表示映像をディスプレイ255に表示する。有効視野範囲とは、運転者の視線に対して視認可能な範囲であり、例えば視線原点Pから視線ベクトル150aが示す方向を中心とする有効視野角θeにより定義される。また、有効視野範囲は、自車両300の中心点Oを原点とする空間座標系の座標の集合により定義され得る。
 図15は、有効視野範囲及びミラー間の関係と、ミラーを介して視認可能なミラー視認範囲と、を説明するための説明図であり、同図(a)~(c)は、ミラー303が有効視野範囲内に存在する場合の一例を示している。
 同図(a)では、運転者の視線150が左側のドアミラー303Lに向かっており、運転者が直接、左側のドアミラー303Lを見ている。つまり、左側のドアミラー303Lは、有効視野範囲の中央部分に位置している。このとき、運転者の視線150は左側のドアミラー303Lにより反射され、ミラー視線155となる。つまり、視線原点Pからの視線ベクトル150aは、左側のドアミラー303Lにより反射されてミラー視線ベクトル155aとなる。左側のドアミラー303Lは所定の形状及び面積を有しており、運転者は、左側のドアミラー303Lを介して、自車両300の後方及び後側方のうち、所定のミラー視認範囲の状況等を視認可能である。
 同図(b)では、運転者の視線ベクトル150aは運転者の体に対して前方に向いており、ミラー303の方向には向かっていない。しかし、右側のドアミラー303R及び左側のドアミラー303Lは、視線ベクトル150aを中心とする有効視野角θe1で定義される有効視野範囲内に存在している。そのため、運転映像処理装置100は、運転者が、右側のドアミラー303R及び左側のドアミラー303Lを介して、自車両300の後方及び後側方のうち、所定のミラー視認範囲の状況等を視認可能であると推定する。ここで、同図(b)の場合の有効視野角θe1は、水平面であるXY面内での角度で表される。
 有効視野角θeは、XY面内での角度θe1だけでなく、XY面との成す角によっても定義することができる。同図(c)では、運転者の視線ベクトル150aは、XY面に対して所定の角度を有しており、バックミラー303Bは、視線ベクトル150aを中心とする有効視野角θe2で定義される有効視野範囲内に存在している。よって、運転映像処理装置100は、運転者が、バックミラー303Bを介して、自車両300の後方及び後側方のうち、所定のミラー視認範囲の状況等を視認可能であると推定する。
 なお、視線ベクトル150aに対してXY面内での有効視野角θe1の範囲内にミラー303が存在していても、XY面内との成す有効視野角θe2の範囲内にミラー303が存在していない場合がある。その場合には、運転映像処理装置100は、そのミラー303を視認していないと判断しても良い。例えば、バックミラー303Bは、視線原点P及び視線ベクトル150a対して有効視野角θe1内に存在しているが、有効視野角θe2内に存在していないとする。この場合、運転映像処理装置100は、例えば運転者の視線が下方に向かっており、運転者はバックミラー303Bを視認していない判断する。
   (d-2)ミラー視認範囲
 次にミラー視認範囲について説明する。視線処理部124は、車種と、ミラー位置、ミラー角度及びミラー形状等を含むミラー情報と、視線原点Pと、に基づいて仮想視線原点VP及びミラー視野画角θmを算出する。ミラー視認範囲は、これらの仮想視線原点VP及びミラー視野画角θmなどにより決定される。ここで、仮想視線原点VPとは、ミラー303を介して運転者が視認可能なミラー視認範囲を決定するための原点である。ミラー視野画角θmとは、仮想視線原点VPを原点としたミラー視認範囲を定義する角度である。
 例えば、図15(a)の場合、左側のドアミラー303Lが有効視野範囲にあり、ミラー視認範囲は、仮想視線原点VPを原点とした、ミラー視線ベクトル155a1とミラー視線ベクトル155a2との成すミラー視野画角θmLで定義される。なお、ミラー視線ベクトル155a1、155a2は、運転者が左側のドアミラー303Lを介して視認可能な範囲の最終端のベクトルであり、視認不可能な範囲との境界のベクトルである。また、例えば、同図(b)の場合、右側のドアミラー303R及び左側のドアミラー303Lが有効視野範囲にある。この場合、ミラー視認範囲には、右側のドアミラー303Rによるミラー視認範囲と、左側のドアミラー303Lによるミラー視認範囲と、が含まれる。左側のドアミラー303Lによるミラー視認範囲は、同図(a)の場合と同様である。右側のドアミラー303Rによるミラー視認範囲は、仮想視線原点VPを原点とした、ミラー視線ベクトル155a3とミラー視線ベクトル155a4との成すミラー視野画角θmRで定義される。なお、ミラー視線ベクトル155a3、155a4は、右側のドアミラー303Rを介して視認可能な範囲の最終端のベクトルである。
 ここで、各種対応表DB131は、車種毎に、ミラー情報及び視線原点Pと、仮想視線原点VP及びびミラー視野画角θmと、を対応付けて記憶している。ミラー映像生成部122は、この対応付けに基づいて仮想視線原点VP及びミラー視野画角θmを算出し、ミラー視認範囲を算出可能である。図16は、車種毎の、ミラー情報及び視線原点Pと、仮想視線原点VP、ミラー視野画角θm、ミラー視野領域及びミラー遮蔽情報と、の対応付けの一例である。なお、図16では、一例として、ミラー情報は、ミラー303の位置と、ミラーの取り付け角度を示す方位角θγ及び仰角θδで定義される角度と、により定義される。例えば、車種=A、ミラー位置=(Xm1、Ym1、Zm1)、ミラー角度=(θγa、θδa)及び視線原点P=(X1、Y1、Z1)の場合、仮想視線原点VP=(XA1a、YA1a、ZA1a)及びミラー角度=θmA1aが対応付けられている。
   (d-3)ミラー視野領域
 次にミラー視野領域について説明する。後述のミラー映像生成部122は、ミラー情報及び視線原点Pに基づいて仮想視線原点VP及びミラー視野画角θmを上記の通り算出し、これらに基づいて、三次元投影面400におけるミラー視野領域を算出することができる。
 ただし、このような処理によりミラー視野領域を算出することもできるが、本実施形態例では、後述の通り、車種毎のミラー情報及び視線原点Pと、三次元投影面400での各ミラー視野領域と、の対応付けに基づいてミラー視野領域を算出するものとする。
 ここで、ミラー視野領域とは、ミラー303を介した場合の三次元投影面400上での運転者の視野領域であり、かつ、ミラー303により反射されたミラー視線155が自車両300の車体により遮られていない場合の視野領域を言う。なお、ミラー視野領域に相当するミラー映像に、後述のピラーなどによる車体のミラー遮蔽情報を付加すると、運転者の視線が車体により遮られた場合のミラー表示映像が生成される。
 再び図12を用いて、各ミラー303R、303L及び303Bにより視認可能な各ミラー視野領域について説明する。
 例えば、視線原点Pから視線ベクトル150aが示す方向により定義される有効視野範囲内に右側のドアミラー303Rがあるとする。この場合、右側のドアミラー303Rを介したミラー視認範囲の映像として、三次元投影面400の周辺映像のうち右側ミラー映像400MRが対応付けられている。同様に、有効視野範囲内に左側のドアミラー303Lがある場合、左側のドアミラー303Lを介したミラー視認範囲の映像として、三次元投影面400の周辺映像のうち左側ミラー映像400MLが対応付けられている。同様に、有効視野範囲内にバックミラー303Bがある場合、バックミラー303Bを介したミラー視認範囲の映像として、三次元投影面400の周辺映像のうちバックミラー映像400MBが対応付けられている。
 このように、有効視野範囲内に存在するミラー303に応じて、三次元投影面400において運転者がミラー303を介して観察可能なミラー視野領域が異なる。ここで、各種対応表DB131は、前述の図16に示すように、車種毎に、ミラー情報及び視線原点Pと、三次元投影面400での各ミラー視野領域と、の対応付けを記憶している。例えば、車種=A、ミラー位置=(Xm1、Ym1、Zm1)、ミラー角度=(θγa、θδa)及び視線原点P=(X1、Y1、Z1)であるとする。この場合、バックミラー303B、右側のドアミラー303R及び左側のドアミラー303Lに対して、バックミラー視野領域A1a、右側ドアミラー視野領域A1a及び左側ドアミラー視野領域A1aが対応付けられている。ミラー視野領域は、例えば自車両300の中心点Oを原点とする空間座標系において、三次元投影面400上での座標の集合、座標群の範囲を示す情報などにより表すことができる。
 後述の視線処理部124は、視線原点P及び視線ベクトルに基づいて、視線データDB130から有効視野範囲内のミラー303を特定する。さらに、ミラー映像生成部122は、前記視線原点Pに対応する3つのミラー視野領域のうち、有効視野範囲内のミラー303のミラー視野領域を読み出してミラー映像を生成する。
   (e)視線原点Pとミラー遮蔽情報との対応付け
 運転者が自車両300のミラー303を介して周辺を観察する場合、運転者のミラー303により反射されたミラー視線155は、自車両300のピラーなどの車体に遮られる。また、窓による反射によっても運転者のミラー視線155は遮られ得る。
 ここで、各種対応表DB131は、前述の図16に示すように、車種毎に、ミラー情報及び視線原点Pと、運転者のミラー視線155を遮る自車両300の車体のミラー遮蔽情報と、を対応付けて記憶している。ミラー遮蔽情報には、運転者のミラー視線155を遮る、自車両300の車体の領域及び/又は車体映像が含まれる。例えば、車種=A、ミラー位置=(Xm1、Ym1、Zm1)、ミラー角度=(θγa、θδa)及び視線原点P=(X1、Y1、Z1)の場合、バックミラー遮蔽情報A1a、右側ミラー遮蔽情報A1a及び左側ミラー遮蔽情報A1aが対応付けられている。
   (f)ディスプレイの表示領域におけるミラー表示領域の位置
 次に、前述の図12と、図17~図19と、を用いて、ディスプレイ255の表示領域に対する、ミラー表示領域266の位置について説明する。図17~図19は、三次元投影面上の車窓映像及びミラー映像と、ディスプレイの表示領域と、の関係を示す説明図である。
 運転映像処理装置100は、視線原点P及び視線ベクトル150aに基づいて、三次元投影面400上の周辺映像から車窓映像及び/又はミラー映像を生成する。さらに、運転映像処理装置100は、車窓映像及び/又はミラー映像に、車窓遮蔽情報及び/又はミラー遮蔽情報を付加した表示映像を生成する。ディスプレイ255の表示領域は、車窓表示領域265とミラー表示領域266とを含む。ミラー表示領域266は、ディスプレイ255の表示領域の一部の領域であり、車窓表示領域265は、ミラー表示領域266を除くディスプレイ255の表示領域である。車窓表示領域265には、車窓映像及び車窓遮蔽情報からなる車窓表示映像が表示される。また、ミラー表示領域266には、ミラー映像及びミラー遮蔽情報からなるミラー表示映像が表示される。ここで、視線原点P及び視線ベクトル150aが変わると、運転者の視界におけるミラー303の位置も変わる。よって、ディスプレイ255の表示領域における、ミラー表示領域266の位置も変わる。
 例えば、図12において、運転者が前方を向いており、運転者の視線データが、視線原点P及び視線ベクトル150a1であり、有効視野範囲にバックミラー303Bがあるとする。運転者は、前方車窓映像400F及びバックミラー映像400MBを視認可能である。このとき、図17に示すように、前方車窓映像400Fは、ディスプレイ255の表示領域内の車窓表示領域265に表示される。また、バックミラー映像400MBは、ディスプレイ255の表示領域内のバックミラー表示領域266Bに表示される。このとき、運転者の視線と三次元投影面400との交点SPaは、ディスプレイ255の表示領域の中央部の点SPa’に座標変換される。また、バックミラー映像400MBの点MPaは、バックミラー表示領域266Bの点MPa’に座標変換される。
 また、図12において、運転者が右斜め前方向を向いており、運転者の視線データが、視線原点P及び視線ベクトル150a2であり、有効視野範囲にバックミラー303B及び右側のドアミラー303Rがあるとする。運転者は、右側車窓映像400R、バックミラー映像400MB及び右側ミラー映像400MRを視認可能である。このとき、図18に示すように、右側車窓映像400Rは、車窓表示領域265に表示される。また、バックミラー映像400MBは、ディスプレイ255の表示領域内のバックミラー表示領域266Bに表示される。さらに、右側ミラー映像400MRは、右側ミラー表示領域266Rに表示される。このとき、運転者の視線と三次元投影面400との交点SPbは、ディスプレイ255の表示領域の中央部の点SPb’に座標変換される。また、バックミラー映像400MBの点MPaは、バックミラー表示領域266Bの点MPa’に座標変換される。また、右側ミラー映像400MRの点MPbは、右側ミラー表示領域266Rの点MPb’に座標変換される。
 また、図12において、運転者が左斜め前方向を向いており、運転者の視線データが、視線原点P及び視線ベクトル150a3であり、有効視野範囲にバックミラー303B及び左側のドアミラー303Lがあるとする。運転者は、左側車窓映像400L、バックミラー映像400MB及び左側ミラー映像400MLを視認可能である。このとき、図19に示すように、左側車窓映像400Lは、車窓表示領域265に表示される。また、バックミラー映像400MBはバックミラー表示領域266Bに、左側ミラー映像400MLは左側ミラー表示領域266Lに表示される。このとき、運転者の視線と三次元投影面400との交点SPcは、ディスプレイ255の表示領域の中央部の点SPc’に座標変換される。また、バックミラー映像400MBの点MPaはバックミラー表示領域266Bの点MPa’に、左側ミラー映像400MLの点MPcは左側ミラー表示領域266Lの点MPc’に座標変換される。
 このように、視線原点P及び視線ベクトルに応じて、ディスプレイ255の表示領域におけるミラー表示領域266の位置も変わる。ここで、各種対応表DB131は、図20に示すように、視線原点P及び視線ベクトルと、各ミラー表示領域と、の対応付けを記憶している。図20は、視線原点P及び視線ベクトルと、各ミラー表示領域と、の対応付けの一例である。例えば、視線原点P=(X1、Y1、Z1)、視線ベクトル=(θαa、θβa)の場合、バックミラー表示領域266B及び右側ミラー表示領域266Rが対応付けられている。
   (g)その他
 各種対応表DB131は、その他、運転映像処理装置100が表示映像の生成に用いる、例えば表示映像の生成対象の車両の車種、有効視野角θeの角度などあらゆる情報を記憶している。有効視野角θeは、例えば、一般的な運転者が視認可能な視野角に設定されている。
 また、各種対応表DB131の対応付けは、例えばカメラで撮影した映像を三次元投影面400に投影する際の歪み補正、三次元投影面400上に投影された周辺映像をディスプレイ255上に変換する際の歪み補正なども考慮して行われている。
 また、各種対応表DB131は、前述の各種対応付けを、例えば数式により記憶していても良い。例えば、図13の視線原点P及び視線ベクトルと、三次元投影面400上での車窓視野領域と、の関係が数式により規定されて格納されていても良い。
 また、上記対応付けはあくまでも一例であり、例えばより細分化した対応付けも可能であるし、より大まかな対応付けも可能である。
  (3-2-5)視線処理部
 視線処理部124は、前述の図15に示すように、有効視野範囲を算出し、有効視野範囲内にミラー303があるか否かを判定する。
 視線処理部124は、視線データDB130からフレーム毎に視線原点P及び視線ベクトル150aを読み出し、視線原点P、視線ベクトル150a及び所定角度の有効視野角θeに基づいて有効視野範囲を算出する。有効視野範囲は、図15(b)、(c)に示されるように、例えば視線原点Pから延在する視線ベクトル150を中心とする有効視野角θeにより定義され、例えば空間座標系の座標の集合により定義され得る。
 次に、視線処理部124は、例えば自車両300の各ミラー303のミラー位置に基づいて、図15(b)、(c)に示すように、有効視野範囲内にどのミラー303が存在するか否かを判定する。例えば、左側のドアミラー303Lのミラー位置を示す座標が、有効視野範囲を定義する座標の集合に含まれる場合には、視線処理部124は、左側のドアミラー303Lが有効視野範囲内に含まれると判定する。
 視線処理部124は、有効視野範囲及び前記判定結果を視線データDB130に格納する。視線データDB130には、前述の図11に示すように、フレーム毎に有効視野範囲と、有効視野範囲内に存在するミラーの種類と、いずれのミラーも有効視野範囲内に存在しない場合には“NO”が格納されている。例えば、フレーム番号3のフレームでは、視線原点P=(XP3、YP3、ZP3)、視線ベクトル=(θα_3、θβ_3)である。この場合、有効視野範囲=範囲_3であり、有効視野範囲内にバックミラー303B及び左側のドアミラー303Rが存在している。一方、フレーム番号4のフレームでは、視線原点P=(XP4、YP4、ZP4)、視線ベクトル=(θα_4、θβ_4)であるが、有効視野範囲内=範囲_4にはミラー303が無いため、“NO”が格納されている。
  (3-2-6)車窓映像生成部、車窓映像DB
 車窓映像生成部121は、自車両300の周辺映像から、運転者の視線原点P及び視線ベクトルに対応する車窓映像を生成する。
 例えば、車窓映像生成部121は、着目するフレームの周辺情報を図10の周辺情報DB126から読み出し、図12に示すように三次元投影面400に投影する。また、車窓映像生成部121は、着目するフレームについて、図11の視線データDB130から視線原点P及び視線ベクトル150aを読み出す。次に、車窓映像生成部121は、視線原点P及び視線ベクトル150aに基づいて、図13の各種対応表DB131から三次元投影面400での車窓視野領域を読み出す。最後に、車窓映像生成部121は、自車両300の周辺映像が投影された三次元投影面400から、前記車窓視野領域に対応する映像を抽出し、ディスプレイ255の車窓表示領域265に表示可能な車窓映像に加工する。
 車窓映像DB127は、車窓映像生成部121が生成した車窓映像を記憶する。図21は、車窓映像DBの一例である。車窓映像DB127は、フレーム毎に車窓映像を記憶している。
  (3-2-7)ミラー映像生成部、ミラー映像DB
 ミラー映像生成部122は、着目するフレームにおいて、有効視野範囲にいずれかのミラー303が存在する場合には、そのミラー303により視認可能なミラー映像を生成する。
 例えば、ミラー映像生成部122は、車窓映像生成部121と同様に着目するフレームの周辺情報を三次元投影面400に投影する。あるいは、ミラー映像生成部122は、車窓映像生成部121が生成した三次元投影面400の周辺映像を用いても良い。
 また、ミラー映像生成部122は、図11の視線データDB130から、着目するフレームについて、視線原点Pと、有効視野範囲にどのミラー303が存在するかについての情報と、を読み出す。次に、ミラー映像生成部122は、視線原点Pと、有効視野範囲に存在するミラー303と、に基づいて、図16の各種対応表DB131から、対応するミラーのミラー視野領域を読み出す。例えば、ミラー映像生成部122が、ある視線原点P及び視線ベクトルについて視線データDB130を参照し、有効視野範囲内にバックミラー303B及び右側のドアミラー303Rが存在すると判断したとする。その場合には、ミラー映像生成部122は、図16の各種対応表DB131を参照し、該当する視線原点Pに対応付けられた3つのミラー303視野領域のうち、バックミラー視野領域及び右側視野領域を読み出す。
 最後に、ミラー映像生成部122は、自車両300の周辺映像が投影された三次元投影面400から、各ミラー視野領域に対応する各映像を抽出し、ディスプレイ255の各ミラー表示領域266に表示可能なミラー映像に加工する。
 なお、ミラー映像生成部122は、図11の視線データDB130を参照して、有効視野範囲にミラー303が存在しないと判断した場合には、ミラー映像を生成しない。
 ミラー映像DB128は、ミラー映像生成部122が生成したミラー映像を記憶する。図22は、ミラー映像DBの一例である。ミラー映像DB128は、フレーム毎に、有効視野範囲内に存在するミラー303の種類と、ミラー映像と、を記憶している。有効視野範囲内に複数のミラー303が存在する場合には、1フレームに各ミラーのミラー映像をそれぞれ格納している。また、有効視野範囲内にいずれのミラー303も存在しない場合には、“NO”が格納されている。
  (3-2-8)遮蔽情報生成部、遮蔽情報DB
 遮蔽情報生成部123は、運転者の視線を遮る自車両300の車体の遮蔽情報を生成する。遮蔽情報は、運転者の車窓視線を遮る車窓遮蔽情報と、ミラー303により反射された運転者のミラー視線を遮るミラー遮蔽情報と、を含む。
 例えば、遮蔽情報生成部123は、着目するフレームについて、図11の視線データDB130から視線原点P及び視線ベクトル150aを読み出す。また、遮蔽情報生成部123は、該当する自車両の車種、視線原点P及び視線ベクトル150aに基づいて、図14の各種対応表DB131から車窓遮蔽情報を読み出し、遮蔽情報DB129に格納する。
 さらに、遮蔽情報生成部123は、着目するフレームについて、図11の視線データDB130から、有効視野範囲にどのミラー303が存在するかについての情報を読み出す。遮蔽情報生成部123は、視線原点Pと、有効視野範囲に存在するミラー303と、に基づいて、図16の各種対応表DB131から、対応するミラー303のミラー遮蔽情報を読み出し、遮蔽情報DB129に格納する。
 図23は、遮蔽情報DBの一例である。遮蔽情報DB129は、フレーム毎に、車窓遮蔽情報、有効視野範囲内に存在するミラー303の種類と、ミラー遮蔽情報と、を記憶している。有効視野範囲内に複数のミラー303が存在する場合には、1フレームに各ミラー303のミラー遮蔽情報をそれぞれ格納している。また、有効視野範囲内にいずれのミラー303も存在しない場合には、“NO”が格納されている。
  (3-2-9)表示映像生成部
   (a)車窓表示映像の生成
 表示映像生成部125は、各フレーム毎に、車窓映像DB127の車窓映像及び遮蔽情報DB129の車窓遮蔽情報に基づいて車窓表示映像を生成する。例えば、フレーム番号1のフレームの場合、表示映像生成部125は、図21の車窓映像DB127から車窓映像_1を読み出す。また、表示映像生成部125は、図23の遮蔽情報DB129からフレーム番号1の車窓遮蔽情報_1を読み出す。表示映像生成部125は、これらの車窓映像_1及び車窓遮蔽情報_1に基づいてフレーム番号1での車窓表示映像_1を生成する。このとき、表示映像生成部125は、運転者の視線を遮っているピラーなどの車体領域である車窓遮蔽情報を、車窓映像から除去することで車窓表示映像を生成する。あるいは、例えば、表示映像生成部125は、自車両周辺への運転者の視線を遮っているピラーなどの車体映像である車窓遮蔽情報を、車窓映像に重畳することで車窓表示映像を生成する。
 図24は車窓表示映像に使用する映像例であり、図25~図27は車窓表示映像の一例である。図24に示すように、自車両300は車線600上を走行している。自車両300の前方には、車線600上に他車両500aが走行しており、自車両の右斜め前方には、車線601上に他車両500bが走行している。また、歩道602上には歩行者500cが歩いている。
 図24の状態において、前述の図12の視線原点P及び視線ベクトル150a1に示すように、運転者が前方を向いているものとする。この場合には、表示映像生成部125は、図25(a)に示す車窓映像を生成する。同図(a)には、他車両500a、500b及び歩行者500cを含む車窓映像が表示されている。さらに、同図(a)の車窓映像に車窓遮蔽情報が合成されると、同図(b)に示す車窓表示映像となる。同図(b)では、車窓映像から、視線を遮っている車体領域が除去されて車窓表示映像が生成されている。視線を遮っている車体領域は斜線で示されており、運転者が観察できなかった部分である。同図(b)での車体領域は、例えば、前側ピラー307Fによる車体領域280F、右側ピラー307Rによる車体領域280R、左側ピラー307Lによる車体領域280L及びダッシュボード301による車体領域280Dを含む。なお、点SPa’は、ディスプレイ255の表示領域の中央部分である。
 また、図24の状態において、前述の図12の視線原点P及び視線ベクトル150a2に示すように、運転者が右斜め前を向いているものとする。この場合には、表示映像生成部125は、図26(a)に示す車窓映像を生成する。同図(a)には、他車両500a、500bを含む車窓映像が表示されている。さらに、同図(a)の車窓映像に車窓遮蔽情報が合成されると、同図(b)に示す車窓表示映像となる。同図(b)での車体領域は、例えば、前側ピラー307Fによる車体領域280F、右側ピラー307Rによる車体領域280R及びダッシュボード301による車体領域280Dを含む。
 さらに、図24の状態において、前述の図12の視線原点P及び視線ベクトル150a3に示すように、運転者が左斜め前を向いているものとする。この場合には、表示映像生成部125は、図27(a)に示す車窓映像を生成する。同図(a)には、他車両500a及び歩行者500cを含む車窓映像が表示されている。さらに、同図(a)の車窓映像に車窓遮蔽情報が合成されると、同図(b)に示す車窓表示映像となる。同図(b)での車体領域は、例えば、前側ピラー307Fによる車体領域280F、左側ピラー307Lによる車体領域280L及びダッシュボード301による車体領域280Dを含む。
   (b)ミラー表示映像の生成
 表示映像生成部125は、有効視野範囲内にミラーが存在している場合には、ミラー映像DB128のミラー映像及び遮蔽情報DB129のミラー遮蔽情報に基づいてミラー表示映像を生成する。例えば、図22を参照すると、フレーム番号1のフレームの場合、有効視野範囲内にミラーが存在していないため、表示映像生成部125はミラー表示映像を生成しない。一方、表示映像生成部125は、フレーム番号2のフレームの場合、図22のミラー映像DB128からバックミラー映像_2を読み出す。また、表示映像生成部125は、図23の遮蔽情報DB129からフレーム番号2のバックミラー遮蔽情報_2を読み出す。表示映像生成部125は、これらのミラー映像_2及びミラー遮蔽情報_2に基づいてフレーム番号2でのミラー表示映像_2を生成する。ミラー映像及びミラー遮蔽情報からのミラー表示映像の生成方法は、前述の車窓表示映像と同様である。
   (c)車窓表示映像及びミラー表示映像の合成
 表示映像生成部125は、車窓表示映像及びミラー表示映像を合成し、表示映像を生成する。
 例えば、表示映像生成部125は、図11の視線データDB130から視線原点P及び視線ベクトルを読み出す。また、表示映像生成部125は、図20の各種対応表DB131から、視線原点P及び視線ベクトルに基づいて、ミラー表示領域を読み出す。そして、表示映像生成部125は、ミラー表示領域に基づいて、車窓表示映像にミラー表示映像を重畳することで、表示映像を生成する。
 図28は、図26(b)のバックミラー表示領域266Bにバックミラー映像が重畳された表示映像の一例である。また、図29は、図26(b)の右側ミラー表示領域266Rに右側ミラー映像が重畳された表示映像の一例である。このように、表示映像生成部125は、有効視野領域内に存在するミラー303のミラー表示領域には、ミラー映像が重畳された表示映像を生成する。一方、表示映像生成部125は、有効視野範囲内に存在しないミラー303のミラー表示領域については、ミラー映像は重畳しない。
 (3-3)運転教育用端末
 図8の運転教育用端末250の機能部には、例えば送受信部270及び表示制御部271が含まれる。運転教育用端末250は、マウス256及びキーボード257を介して、視聴者から所望の表示映像の表示指示を受け付ける。送受信部270は、表示映像の表示指示を運転映像処理装置100の表示映像生成部125に出力する。また、送受信部270は、表示映像生成部125から所望の表示映像を受信し、表示制御部271は前記表示映像をディスプレイ255に表示する。
 (4)処理の流れ
 以下に、第1実施形態例にかかる運転映像処理装置100が実行する処理の流れを説明する。
 図30は、第1実施形態例にかかる運転映像処理装置が実行する処理の流れの一例を示すフローチャートである。運転映像処理装置100は、周辺情報及び視線データをフレーム毎に情報取得装置200から取得し、周辺情報DB126及び視線データDB130に格納している。以下の処理は例えば各フレームごとに実行される。
 ステップS1、S2:運転映像処理装置100は、フレーム番号iを0から順次加算する。
 ステップS3:車窓映像生成部121、ミラー映像生成部122は、着目するフレーム番号iについて、周辺情報DB126から周辺情報を読み出し、視線データDB130から視線データを読み出す。また、遮蔽情報算出部123、視線処理部124及び表示映像生成部125は、着目するフレーム番号iについて、視線データDB130から視線データを読み出す。
 ステップS4:車窓映像生成部121は、着目するフレームの周辺情報を三次元投影面400に投影する。
 ステップS5:車窓映像生成部121は、視線原点P及び視線ベクトル150aに基づいて、各種対応表DB131から三次元投影面400での車窓視野領域を読み出す。次に、車窓映像生成部121は、周辺映像が投影された三次元投影面400から、車窓視野領域に対応する映像を抽出する。また、車窓映像生成部121は、抽出した映像をディスプレイ255の車窓表示領域265に表示可能な車窓映像に加工し、車窓映像DB127に格納する。
 ステップS6:遮蔽情報生成部123は、該当する自車両の車種、視線原点P及び視線ベクトル150aに基づいて、各種対応表DB131から車窓遮蔽情報を読み出し、遮蔽情報DB129に格納する。
 ステップS7:表示映像生成部125は、着目するフレーム番号iについて、車窓映像DB127の車窓映像及び遮蔽情報DB129の車窓遮蔽情報を読み出し、車窓映像及び車窓遮蔽情報を合成して車窓表示映像を生成する。
 ステップS8:視線処理部124は、図15(b)、(c)に示すように、視線原点P及び視線ベクトル150aと、所定角度の有効視野角θeと、に基づいて有効視野範囲を算出する。次に、視線処理部124は、例えば自車両300の車種に対応するミラー位置に基づいて、有効視野範囲内にどのミラー303が存在するか否かを判定する。いずれかのミラー303が有効視野範囲内にある場合には、ステップS9に進む。いずれのミラー3030も有効視野範囲内に無い場合には、ステップS12に進む。
 ステップS9:ミラー映像生成部122は、視線原点Pと、有効視野範囲に存在するミラー303と、に基づいて、各種対応表DB131から、対応するミラーのミラー視野領域を読み出す。なお、有効視野範囲内に存在するミラー303の情報は、視線データDB130内の視線データに含まれている。ミラー映像生成部122は、周辺映像が投影された三次元投影面400から、各ミラー視野領域に対応する各映像を抽出する。また、ミラー映像生成部122は、抽出した映像をディスプレイ255のミラー表示領域266に表示可能なミラー映像に加工し、ミラー映像DB128に格納する。
 ステップS10:遮蔽情報生成部123は、視線原点Pと、有効視野範囲に存在するミラー303と、に基づいて、各種対応表DB131から対応するミラーのミラー遮蔽情報を読み出し、遮蔽情報DB129に格納する。
 ステップS11:表示映像生成部125は、着目するフレーム番号iについて、ミラー映像DB128のミラー映像及び遮蔽情報DB129のミラー遮蔽情報を読み出し、ミラー映像及びミラー遮蔽情報を合成してミラー表示映像を生成する。
 ステップS12:表示映像生成部125は、各種対応表DB131から、視線原点P及び視線ベクトルに基づいて、ミラー表示領域を読み出す。次に、表示映像生成部125は、ミラー表示領域に基づいて、車窓表示映像にミラー表示映像を重畳することで、表示映像を生成する。
 ステップS13:フレーム番号iのフレームが最終のフレームであれば処理を終了し、そうでなければステップS2に戻る。
 (5)作用効果
 運転映像処理装置100は、上述のような処理により、ピラーなどの車体により運転者の視線が遮蔽されている領域を表示映像に反映することができる。つまり、実際に運転者が視認していると推測される表示映像を生成することができる。よって、表示映像の視聴者は、遮蔽情報が反映された表示映像を運転教育用端末250で視聴することで、ピラーなどの車体によりどのような領域が死界となっているのか、死界によりどのような危険運転が生じたのかなどを把握することができる。これにより、安全運転教育を効果的に行うことができる。
 さらに、表示映像は運転者の視線を中心とした映像であるため、表示映像の視聴者は自身が車両を運転しているような感覚で視聴を行うことができる。特に、視聴者が危険運転時の表示映像を視聴する場合には、視聴者は、危険運転時に運転者が観察していた状況を把握することができるとともに、あたかも自身が危険運転に遭遇しているような感覚で視聴を行うことができる。そのため、どのような状況で危険運転が生じたかを視聴者に強く印象付けて、実際の運転時に役立たせることができるなど、効果的な安全運転教育を行うことができる。
 また、有効視野範囲内にミラーが存在する場合には、表示映像に、車窓表示映像だけでなく、運転者がミラーを介して観察するミラー表示映像を含ませても良い。これにより、表示映像の視聴者は、運転者が車窓から観察している周辺状況だけではなく、有効視野範囲内のミラーを介して観察可能な周辺状況も確認することができる。よって、運転者が実際に観察しているあらゆる状況に基づいて、運転者の視線及び運転状態など評価して安全運転教育に役立てることができる。
 (6)変形例
 (6-1)変形例1
 上記第1実施形態例では、図25~図27等に示すように、運転者の視線の先の中心がディスプレイ255の中心部分に位置するように、表示映像がディスプレイ255に表示される。よって、運転者の視線原点P及び視線ベクトルが変化しても、その視線の中心はディスプレイ255の中心部分に固定されている。一方、運転者の有効視野範囲の映像は、図25から図26のように視線の中心に応じて移動する。
 しかし、本変形例では、後述の図33に示すように、ディスプレイ255に表示される表示映像は、例えば三次元投影面400上での視野領域が固定されている。このような視野領域を本変形例では、固定視野領域と称する。また、本変形例では、ディスプレイ255には、各フレームでの運転者の視線軌跡281が表示される。なお、特許請求の範囲における視線軌跡生成部は、視線処理部124に含まれる。
  (a)固定視野領域
 まず、固定視野領域400fixについて図31を用いて説明する。図31は、三次元投影面400での固定視野領域と、車窓映像及びミラー映像と、の位置関係を示す説明図である。例えば、所定数のフレームの間において、視線原点Pを起点として、視線ベクトルが視線ベクトル150a1、150a2、150a3のように移動したとする。ここで、視線原点Pから視線ベクトル150a1が示す前方方向の映像として、前方車窓映像400Fが対応付けられている。同様に、視線原点Pから視線ベクトル150a2及び150a3が示す方向の映像として、右側車窓映像400R及び左側車窓映像400Lが対応付けられている。固定視野領域400fixは、所定数のフレームの間に運転者が視認可能な映像を含むように設定される。つまり、固定視野領域400fixは、前方車窓映像400F、右側車窓映像400R及び左側車窓映像400Lを含むように設定される。
 また、図31に示すように、バックミラー303Bに対してはバックミラー映像400MBが対応付けられている。さらに、右側のドアミラー303Rに対しては右側ミラー映像400MRが対応付けられており、左側のドアミラー303Lに対しては左側ミラー映像400MLが対応付けられている。
 なお、固定視野領域400fixは、常に固定の領域であっても良いし、視線原点P及び視線ベクトルに応じて変動しても良い。例えば、所定数のフレームの間における平均視線原点Pav及び平均視線ベクトルに応じて、固定視野領域400fixの大きさ及び位置が変動しても良い。例えば、視線処理部124は、所定数のフレームの間での視線原点Pを平均して平均視線原点Pavを算出し、所定数のフレームの間での視線ベクトルを平均して平均視線ベクトルを算出する。各種対応表DB131は、平均視線原点Pav及び平均視線ベクトルと、三次元投影面400での固定視野領域400fixと、平均視線原点Pavからの平均視線ベクトル及び三次元投影面400の交点SPと、の対応付けを記憶している。よって、車窓映像生成部121は、平均視線原点Pav及び平均視線ベクトルに基づいて、各種対応表DB131から固定視野領域400fixを決定しても良い。
  (b)車窓映像及びミラー映像とディスプレイの表示領域との関係
 図32は、三次元投影面上の車窓映像及びミラー映像と、ディスプレイの表示領域と、の関係を示す説明図である。ディスプレイ255の表示領域は、車窓表示領域265とミラー表示領域266とを含む。本変形例では、車窓表示領域265とラー表示領域266との位置関係は固定であり、所定の位置関係に設定されている。
 車窓表示領域265には、固定視野領域400fixに対応する車窓映像及び車窓遮蔽情報からなる車窓表示映像が表示される。ミラー表示領域266は、バックミラー表示領域266B、右側ミラー表示領域266R及び左側ミラー表示領域266Lを含む。各ミラー表示領域266B、266R、266Lには、各ミラー映像400MB、400MR、400MBと各ミラーのミラー遮蔽情報とからなる各ミラー表示映像が表示される。
  (c)処理の流れ
 次の処理の流れについて簡単に説明する。
 車窓映像生成部121は、着目するフレームの周辺情報を三次元投影面400に投影する。次に、車窓映像生成部121は、周辺映像が投影された三次元投影面400から、固定視野領域400fixに対応する映像を抽出してディスプレイ255に表示可能な車窓映像に加工して、車窓映像DB127に格納する。
 ここで、各種対応表DB131は、車種、視線原点P及び視線ベクトル150aと、運転者の車窓視線を遮る自車両300の車体の車窓遮蔽情報fixと、を対応付けて記憶している。車窓遮蔽情報fixは、固定視野領域400fixの範囲において、運転者の視線を遮る情報である。
 遮蔽情報生成部123は、該当する自車両の車種、視線原点P及び視線ベクトル150aに基づいて、各種対応表DB131から車窓遮蔽情報fixを読み出し、遮蔽情報DB129に格納する。
 表示映像生成部125は、着目するフレームについて、固定視野領域400fixでの車窓映像と車窓遮蔽情報fixとに基づいて、固定視野領域400fixに対応する車窓表示映像を生成する。
 また、視線処理部124は、視線原点P及び視線ベクトル150aと、所定角度の有効視野角θeと、に基づいて有効視野範囲を算出し、有効視野範囲内にどのミラー303が存在するか否かを判定する。また、視線処理部124は、前述の図13を参照し、視線原点P及び視線ベクトル150aに基づいて、視線原点Pから延びる視線ベクトル150aと、三次元投影面400との交点SPaを算出する。さらに、視線処理部124は、三次元投影面400上の交点SPaを、ディスプレイ255上の点に座標変換して視線軌跡を算出する。
 ミラー映像生成部122は上記第1実施形態例と同様に、視線原点Pと、有効視野範囲に存在するミラー303と、に基づいて、図16の各種対応表DB131から、有効視野範囲内のミラーのミラー視野領域を読み出す。ミラー映像生成部122は、周辺映像が投影された三次元投影面400から、各ミラー視野領域に対応する各映像を抽出してミラー映像に加工し、ミラー映像DB128に格納する。
 遮蔽情報生成部123は上記第1実施形態例と同様に、視線原点Pと、有効視野範囲に存在するミラー303と、に基づいて、各種対応表DB131から対応するミラーのミラー遮蔽情報を読み出し、遮蔽情報DB129に格納する。
 表示映像生成部125は、着目するフレームについて、ミラー映像及びミラー遮蔽情報に基づいてミラー表示映像を生成する。さらに、表示映像生成部125は、所定の位置関係に基づいて車窓表示映像にミラー表示映像を重畳し、さらに視線軌跡を重畳することで、表示映像を生成する。
  (d)表示映像の一例
 このような処理により、例えば図33に示す表示映像がディスプレイ255に表示される。図33は表示映像の一例である。
 図33では、車窓表示領域265には固定視野領域400fixに対応する車窓表示映像が表示されている。車窓表示映像は、前側ピラー307Fによる車体領域280F、右側ピラー307Rによる車体領域280R、左側ピラー307Lによる車体領域280L及びダッシュボード301による車体領域280Dからなる車窓遮蔽情報を含む。
 また、図33の例の場合、運転者の有効視野範囲内にバックミラー303Bのみが存在しており、バックミラー表示領域266Bにバックミラー映像400MBが表示されている。その他の右側のドアミラー303R及び左側のドアミラー303Lは有効視野範囲内に無いため、右側ミラー表示領域266R及び左側ミラー表示領域266Lには映像が表示されない。
 さらに、図33では、運転者の視線軌跡281が表示されている。このように表示映像に運転者の視線軌跡が重畳されるため、視聴者は、車両の走行中に運転者が自車両以外のどのような対象物を視認していたのか、あるいは視認していなかったのかを把握することができる。これにより、例えばどのような対象物を認知していなかったため危険運転が生じたなど、危険運転の原因を解析し、安全運転教育に役立てることができる。
 なお、このように生成された表示映像では、運転者の視線の移動に応じて三次元投影面400での固定視野領域400fixの範囲は変動しない。しかし、運転者の視線の移動に応じて視線軌跡281が生成され、また車窓遮蔽情報も変わる。車窓遮蔽情報が変わるため、例えば図33において、ピラー等の車体領域が視線の移動に応じて変動する。また、運転者の視線の移動に応じて、ミラー表示映像が表示されるミラー表示領域266も変わる。
 (6-2)変形例2
 運転中の緊張度及び運転への集中度などに応じて、運転者が視認可能な視野範囲は変わり得る。例えば、運転者が緊張している場合、あるいは、一点に集中し過ぎている場合などには、運転者の視野範囲が狭まる傾向にある。そこで、本変形例では、視野範囲を瞳孔径、心拍数、心拍の状態、発汗量及び視線の滞留時間などの生体情報に基づいて算出し、視野範囲に応じて表示映像を加工する。
 図34は、変形例2に係る各装置の機能構成を示すブロック図の一例である。本変形例の機能構成は、上記第1実施形態例の図8の機能構成に加えて、さらに視野算出部132を含む。
  (a)視野範囲を算出するための情報
 視野範囲は、例えば、瞳孔径、心拍数、心拍の状態、発汗量及び視線の滞留時間などの生体情報に基づいて算出することができる。これらの生体情報は、各種検出部により検出できる。
 瞳孔径は、視線検出部221において測定することが可能である。例えば、視線検出部221は、目の映像を取得して瞳孔部分を抽出し瞳孔径を測定する。その他、視線検出部221は、赤外線等の光を出射し、目からの反射波に基づいて瞳孔径を測定することもできる。
 心拍は、例えばハンドル302に取り付けられた計測器により、ハンドル302を握る手の血流に基づいて計測することができる。計測器は、例えば右手のハンドル位置及び左手のハンドル位置にそれぞれプラス電極又はマイナス電極を有している。この電極間の電位差に基づいて運転者の心拍数及び心拍の状態などを測定することができる。
 発汗量は、例えば、ハンドル302に取り付けられた計測器により、ハンドル302を握る手から放出される汗に基づいて計測することができる。
 視線の滞留時間は、視線原点P及び視線ベクトル150aに基づいて、各ベクトル方向に視線が滞留している時間を算出することで求めることができる。
 なお、視野範囲を算出するための情報は、前記情報に限定されず、血圧などの各種生態情報を用いることができる。
 視野範囲を算出するための情報は、視野算出部132に提供される。
  (b)視野範囲の算出
 視野算出部132は、前述の視野範囲を算出するための情報に基づいて、視野範囲を算出する。例えば、各種対応表DB131は、瞳孔径、心拍数、心拍の状態、発汗量及び視線の滞留時間などと、視野範囲と、の対応付けを記憶している。例えば、瞳孔径が小さいほど視野範囲が狭く、心拍数が多いほど視野範囲を狭い。視野算出部132は、前記対応付けを参照して視野範囲を算出する。視野範囲は、例えばディスプレイ255の表示領域上の座標により表される。
  (c)視野範囲に基づいた映像の加工
 表示映像生成部125は、視野算出部132から視野範囲を取得し、視野範囲に基づいて表示映像を加工する。
 図35は、表示映像の加工例を示す説明図である。ディスプレイ255の表示領域の中央部分に運転者の視線の先の中心である点SPが位置し、点SPを含む視野範囲VFが算出されている。視野範囲VFは、例えば縦及び横がそれぞれL1及びL2の長さを有する。視野範囲VFは、このような矩形状に限定されず、その他円形状、楕円状などであっても良い。
 ここで、運転者は、視野範囲内では自車両周辺の状況を認知できていると推測され、逆に視野範囲の外では自車両周辺の状況を認知できていないと推測される。表示映像生成部125は、視野範囲VF内では表示映像が鮮明となるように処理し、視野範囲VFより外の表示領域では表示映像をぼかすように加工する。
 このように表示映像が加工されることで、運転者が観察している状況を推測して再現することが可能となる。よって、視聴者は、運転者の視野範囲に応じた表示映像を確認することができる。これにより、例えば視野狭窄により危険運転の原因となった対象物を運転者が把握できていなかったなど、危険運転が生じた原因を解析する際などにも前記表示映像を役立てることができる。
 (6-3)変形例3
 上記第1実施形態例では、運転映像処理装置100は、周辺映像を三次元投影面400に投影し、三次元投影面400上の周辺映像から車窓映像及びミラー映像を抽出し、ディスプレイ255に表示可能なように処理している。しかし、運転映像処理装置100は、各カメラ205a~205dから取得した周辺映像から、ディスプレイ255に表示可能な車窓映像及びミラー映像を生成しても良い。そのため、例えば各種対応表DB131は、視線原点P及び視線ベクトル毎に、周辺映像のうち車窓視線に対応する映像を構成する各画素の座標と、ディスプレイ255の表示領域上の座標と、の対応付けを記憶している。車窓映像生成部121は、所定の視線原点P及び視線ベクトルと前記対応付けとに基づいて、周辺映像のうち運転者の視線に対応する映像データについて、カメラ205からディスプレイ255の表示領域に座標変換する。これにより、運転者の視線原点P及び視線ベクトルに対応する車窓映像を生成することができる。
 ミラー映像についても同様である。例えば各種対応表DB131は、車種、ミラー情報及び視線原点Pに対応付けて、周辺映像のうちミラー視線に対応する映像を構成する各画素の座標と、ディスプレイ255の表示領域上の座標と、の対応付けを記憶している。ミラー映像生成部122は、有効視野範囲内にあるミラー303について、前記対応付けに基づいてミラー映像を生成する。
 (6-4)変形例4
 上記第1実施形態例の運転映像処理装置100は、車窓表示映像及びミラー表示映像を重畳して図28及び図29に示すような表示映像を生成する。しかし、運転映像処理装置100は、車窓表示映像のみを表示映像として生成しても良いし、ミラー表示映像のみを表示映像として生成しても良い。
 <第2実施形態例>
 第1実施形態例の運転映像処理装置100は、自車両周辺の周辺情報及び視線データを外部の情報取得装置200から取得する。一方、第2実施形態例の運転映像処理装置100は、これらの情報を自ら取得する。以下に、第1実施形態例と異なる点について説明する。
 第2実施形態例の運転映像処理装置100の構成について以下に説明する。図36は、第2実施形態例に係る、運転映像処理装置のハードウェア構成を示すブロック図の一例である。
 運転映像処理装置100は、例えば、CPU101、ROM102、RAM103、入出力機器I/F104、通信I/F108を有している。これらは、バス109を介して互いに接続されている。
 入出力機器I/F104は、ディスプレイ105、マウス106、キーボード107、周辺情報取得機器205及び視線検出機器206などの入出力機器と接続されている。
 次に運転映像処理装置100の機能構成について説明する。図37は、第2実施形態例にかかる運転映像処理装置の機能構成を示すブロック図の一例である。第2実施形態例にかかる運転映像処理装置100は、第1実施形態例にかかる運転映像処理装置100に加えて、周辺情報取得部220及び視線検出部221を備える。また、第2実施形態例に係る運転映像処理装置100は、情報取得装置200とのデータ、コマンドなどの送受信は不要であるため、送受信部120、222及び取得データDB223は省略した。各機能の処理は第1実施形態例と同様である。
 その他の構成は第1実施形態例と同様である。また、第2実施形態例においても、第1実施形態例の変形例を適用可能である。
 <その他の実施形態例>
 また、前述の方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM(Compact Disc-Read Only Memory)、MO(Magneto Optical disk)、DVD、DVD-ROM、DVD-RAM(DVD-Random Access Memory)、BD(Blue-ray Disc)、USBメモリ、半導体メモリなどを挙げることができる。前記コンピュータプログラムは、前記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。ただし、コンピュータで読み取り可能な記録媒体とは、コンピュータプログラムを埋め込んだ搬送波は含まない。搬送波に埋め込まれて伝送されるコンピュータプログラムであっても、そのプログラムが記録されているコンピュータで読み取り可能な記録媒体は、伝送元のコンピュータに接続されている記録媒体読み取り装置の中で再生される物理的に実体のある記録媒体である。
100:運転映像処理装置    
101:CPU
121:車窓映像生成部      
122:ミラー映像生成部    
123:遮蔽情報算出部      
124:視線処理部   
125:表示映像生成部      
126:周辺情報DB 
127:車窓映像DB 
128:ミラー映像DB      
129:遮蔽情報DB 
130:視線データDB      
131:各種対応表DB      
132:視野算出部   
150:視線  
150a:視線ベクトル      
155:ミラー視線   
155a:ミラー視線ベクトル
200:情報取得装置 
205a~    205d:カメラ
205:周辺情報取得機器    
206:視線検出機器 
220:周辺情報取得部      
221:視線検出部   
250:運転教育用端末      
255:ディスプレイ 
265:車窓表示領域 
266 B:バックミラー表示領域    
266 L:左側ミラー表示領域      
266 R:右側ミラー表示領域      
280 :車体領域    
281:視線軌跡     
300:車両  
303:ミラー
307:ピラー
400:三次元投影面 
400 F:前方車窓映像     
400 R:右側車窓映像     
400 L:左側車窓映像     
400 MR:右側ミラー映像 
400 ML:左側ミラー映像 
500:他車両

Claims (13)

  1.  自車両の周辺を撮影した映像を含む周辺情報を取得する映像取得部と、
     自車両の運転者の視線原点及び視線方向を取得する視線取得部と、
     前記周辺情報から視線原点に対応する視線映像を生成する視線映像生成部と、
     前記運転者の視線を遮る前記自車両の車体領域又は車体映像を含む遮蔽情報を、前記視線原点に基づいて算出する遮蔽情報算出部と、
     前記視線映像と前記遮蔽情報とに基づいて、表示映像を生成する表示映像生成部と、
     を含む映像処理装置。
  2.  前記視線方向は、前記視線原点から前記自車両の窓を介した車窓視線方向を含み、
     前記視線映像は、前記視線原点及び前記車窓視線方向に対応する車窓映像を含み、
     前記遮蔽情報は、前記運転者の前記車窓視線方向への視線を遮る、前記自車両の車体の領域及び/又は車体映像を含む車窓遮蔽情報を含み、
     前記表示映像は、前記運転者が前記自車両の窓を介して観察する車窓表示映像を含み、
     前記視線映像生成部は、前記車窓映像を、前記自車両の周辺映像から生成する車窓映像生成部を有し、
     前記遮蔽情報算出部は、前記車窓遮蔽情報を前記視線原点に基づいて算出し、
     前記表示映像生成部は、前記車窓映像と前記車窓遮蔽情報とに基づいて、前記車窓表示映像を生成する、請求項1に記載の映像処理装置。
  3.  前記視線映像は、前記自車両の少なくとも1のミラーを介して前記運転者が視認可能なミラー視認範囲に対応するミラー映像を含み、
     前記遮蔽情報は、前記運転者の前記ミラー視認範囲へのミラー視線を遮る、前記自車両の車体の領域及び/又は車体映像を含むミラー遮蔽情報を含み、
     前記表示映像は、前記運転者が前記自車両の少なくとも1のミラーを介して観察するミラー表示映像を含み、
     前記視線原点及び前記視線方向に基づいて、前記運転者が視認可能な所定の角度範囲を有する有効視野範囲を算出し、前記有効視野範囲内に前記自車両の少なくとも1のミラーがあるか否かを判定する視線処理部をさらに含み、
     前記視線映像生成部は、前記有効視野範囲内に前記自車両の少なくとも1のミラーがある場合に、前記視線原点と前記ミラーの位置を含むミラー情報とに基づいて、前記ミラーを介して前記運転者が視認可能な前記ミラー視認範囲を算出し、前記ミラー視認範囲に対応する前記ミラー映像を、前記自車両の周辺映像から生成するミラー映像生成部を有し、
     前記遮蔽情報算出部は、前記ミラー遮蔽情報を、前記視線原点及び前記ミラー視認範囲に基づいて算出し、
     前記表示映像生成部は、前記ミラー映像と前記ミラー遮蔽情報とに基づいて、前記ミラー表示映像を生成する、請求項1又は2に記載の映像処理装置。
  4.  前記表示映像生成部は、前記有効視野範囲内に少なくとも1のミラーがある場合に、前記車窓表示映像に、前記有効視野範囲内のミラーに対応する前記ミラー表示映像を重畳する、請求項3に記載の映像処理装置。
  5.  前記運転者の瞳孔、心拍、発汗及び前記視線方向の滞留時間を含む生体情報の少なくとも1の情報に基づいて、前記運転者の視野範囲を算出する視野算出部をさらに含み、
     前記表示映像生成部は、前記視野範囲に基づいて前記表示映像を加工する、請求項1~4のいずれかに記載の映像処理装置。
  6.  前記表示映像生成部は、前記表示映像において、前記視野範囲より外の領域をぼかす、請求項5に記載の映像処理装置。
  7.  前記視線原点及び前記視線方向により特定される、前記視線映像における視線軌跡を生成する視線軌跡生成部をさらに含み、
     前記表示映像生成部は、前記表示映像に前記視線軌跡を重畳する、請求項1~6のいずれかに記載の映像処理装置。
  8.  前記視線原点は、所定時間内の前記運転者の視線原点を平均した平均視線原点であり、
     前記視線方向は、前記所定時間内の前記運転者の視線方向を平均した平均視線方向である、請求項1~7のいずれかに記載の映像処理装置。
  9.  前記視線映像生成部は、仮想空間である三次元投影面に前記自車両の周辺映像を投影して投影映像を生成し、前記投影映像において前記視線原点及び前記視線方向に対応する映像を前記視線映像として生成する、請求項1~8のいずれかに記載の映像処理装置。
  10.  前記表示映像生成部は、前記視線映像から、前記遮蔽情報に含まれる前記自車両の車体の領域の映像を除去して前記表示映像を生成する、請求項1~9のいずれかに記載の映像処理装置。
  11.  前記表示映像生成部は、前記視線映像に、前記遮蔽情報に含まれる前記自車両の車体映像を重畳して前記表示映像を生成する、請求項1~9のいずれかに記載の映像処理装置。
  12.  自車両の周辺を撮影した映像を含む周辺情報を取得し、
     自車両の運転者の視線原点及び視線方向を取得し、
     前記周辺情報から視線原点に対応する視線映像を生成し、
     前記運転者の視線を遮る前記自車両の車体領域又は車体映像を含む遮蔽情報を、前記視線原点に基づいて算出し、
     前記視線映像と前記遮蔽情報とに基づいて表示映像を生成する、処理をプロセッサに実行させる映像処理プログラム。
  13.  自車両の周辺を撮影した映像を含む周辺情報を取得する映像取得ステップと、
     自車両の運転者の視線原点及び視線方向を取得する視線取得ステップと、
     前記周辺情報から視線原点に対応する視線映像を生成する視線映像生成ステップと、
     前記運転者の視線を遮る前記自車両の車体領域又は車体映像を含む遮蔽情報を、前記視線原点に基づいて算出する遮蔽情報算出ステップと、
     前記視線映像と前記遮蔽情報とに基づいて、表示映像を生成する表示映像生成ステップと、
     を含む、映像処理方法。
PCT/JP2010/058774 2010-05-25 2010-05-25 映像処理装置、映像処理方法及び映像処理プログラム WO2011148455A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012517009A JP5387763B2 (ja) 2010-05-25 2010-05-25 映像処理装置、映像処理方法及び映像処理プログラム
PCT/JP2010/058774 WO2011148455A1 (ja) 2010-05-25 2010-05-25 映像処理装置、映像処理方法及び映像処理プログラム
US13/683,601 US9787946B2 (en) 2010-05-25 2012-11-21 Picture processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/058774 WO2011148455A1 (ja) 2010-05-25 2010-05-25 映像処理装置、映像処理方法及び映像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/683,601 Continuation US9787946B2 (en) 2010-05-25 2012-11-21 Picture processing device and method

Publications (1)

Publication Number Publication Date
WO2011148455A1 true WO2011148455A1 (ja) 2011-12-01

Family

ID=45003464

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/058774 WO2011148455A1 (ja) 2010-05-25 2010-05-25 映像処理装置、映像処理方法及び映像処理プログラム

Country Status (3)

Country Link
US (1) US9787946B2 (ja)
JP (1) JP5387763B2 (ja)
WO (1) WO2011148455A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104340141A (zh) * 2013-07-26 2015-02-11 福特全球技术公司 用于自动车辆支持的方法和设备
WO2015166558A1 (ja) * 2014-04-30 2015-11-05 三菱電機株式会社 周辺監視装置、周辺監視システムおよび周辺監視方法
JP2018045067A (ja) * 2016-09-14 2018-03-22 本田技研工業株式会社 模擬運転装置及び模擬運転方法
JP2018092084A (ja) * 2016-12-07 2018-06-14 損害保険ジャパン日本興亜株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN108805932A (zh) * 2018-06-11 2018-11-13 合肥越明交通电子科技有限公司 一种高精度智能评判车辆特征点所在地理位置的方法
JP2021077138A (ja) * 2019-11-11 2021-05-20 マツダ株式会社 運転者状態推定装置
JP2022066265A (ja) * 2017-06-09 2022-04-28 キヤノン株式会社 視線検出機能を備える撮像装置
US20220157099A1 (en) * 2020-11-17 2022-05-19 Honda Motor Co., Ltd. Drive data-recording apparatus, drive assist system, drive data-recording method, and program
JP7404871B2 (ja) 2019-12-27 2023-12-26 船井電機株式会社 電子ミラー

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5387763B2 (ja) * 2010-05-25 2014-01-15 富士通株式会社 映像処理装置、映像処理方法及び映像処理プログラム
DE102011121616A1 (de) * 2011-12-20 2013-06-20 Audi Ag Verfahren zur Ansteuerung einerAnzeigeeinrichtung eines Kraftfahrzeugs
US20150235538A1 (en) * 2014-02-14 2015-08-20 GM Global Technology Operations LLC Methods and systems for processing attention data from a vehicle
US20150310758A1 (en) * 2014-04-26 2015-10-29 The Travelers Indemnity Company Systems, methods, and apparatus for generating customized virtual reality experiences
US9604642B2 (en) * 2014-04-29 2017-03-28 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Positioning autonomous vehicles based on field of view
JP2016057490A (ja) * 2014-09-10 2016-04-21 スズキ株式会社 運転支援システム
JP6313355B2 (ja) * 2016-03-31 2018-04-18 株式会社Subaru 車両周囲監視装置
JP6723820B2 (ja) * 2016-05-18 2020-07-15 株式会社デンソーテン 画像生成装置、画像表示システムおよび画像表示方法
IL246129A0 (en) * 2016-06-08 2016-08-31 Sibony Haim A visual display system to prevent accidents with vehicles
CN109416884B (zh) * 2016-07-05 2021-02-19 三菱电机株式会社 识别区域推定装置、识别区域推定方法及识别区域推定程序
JP2018067198A (ja) * 2016-10-20 2018-04-26 矢崎総業株式会社 走行支援装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021307A (ja) * 2002-06-12 2004-01-22 Matsushita Electric Ind Co Ltd 運転支援装置
JP2004164338A (ja) * 2002-11-13 2004-06-10 Mazda Motor Corp 企画支援プログラム、方法、装置並びに記憶媒体
JP2006088722A (ja) * 2004-09-21 2006-04-06 Nissan Motor Co Ltd 車両用表示装置および車両用表示方法
JP2006290304A (ja) * 2005-04-14 2006-10-26 Aisin Aw Co Ltd 車両外部表示方法及び表示装置
JP2009279146A (ja) * 2008-05-21 2009-12-03 Toyota Central R&D Labs Inc 画像処理装置、及びプログラム
JP2010109684A (ja) * 2008-10-30 2010-05-13 Clarion Co Ltd 車両周辺画像表示システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6200139B1 (en) * 1999-02-26 2001-03-13 Intel Corporation Operator training system
US7212653B2 (en) * 2001-12-12 2007-05-01 Kabushikikaisha Equos Research Image processing system for vehicle
WO2005063114A1 (ja) * 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
JP2007011148A (ja) 2005-07-01 2007-01-18 Atsushi Yagi 交通安全教育支援システム
JP4810953B2 (ja) * 2005-10-07 2011-11-09 日産自動車株式会社 車両用死角映像表示装置
CN101821778A (zh) * 2007-09-28 2010-09-01 富士通天株式会社 行驶状态显示方法
WO2009066465A1 (ja) * 2007-11-20 2009-05-28 Panasonic Corporation 画像表示装置、その表示方法、プログラム、集積回路、眼鏡型ヘッドマウントディスプレイ、自動車、双眼鏡、及び卓上型ディスプレイ
JP5230748B2 (ja) * 2008-09-26 2013-07-10 パナソニック株式会社 視線方向判定装置及び視線方向判定方法
US8872910B1 (en) * 2009-06-04 2014-10-28 Masoud Vaziri Method and apparatus for a compact and high resolution eye-view recorder
JP5387763B2 (ja) * 2010-05-25 2014-01-15 富士通株式会社 映像処理装置、映像処理方法及び映像処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021307A (ja) * 2002-06-12 2004-01-22 Matsushita Electric Ind Co Ltd 運転支援装置
JP2004164338A (ja) * 2002-11-13 2004-06-10 Mazda Motor Corp 企画支援プログラム、方法、装置並びに記憶媒体
JP2006088722A (ja) * 2004-09-21 2006-04-06 Nissan Motor Co Ltd 車両用表示装置および車両用表示方法
JP2006290304A (ja) * 2005-04-14 2006-10-26 Aisin Aw Co Ltd 車両外部表示方法及び表示装置
JP2009279146A (ja) * 2008-05-21 2009-12-03 Toyota Central R&D Labs Inc 画像処理装置、及びプログラム
JP2010109684A (ja) * 2008-10-30 2010-05-13 Clarion Co Ltd 車両周辺画像表示システム

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104340141A (zh) * 2013-07-26 2015-02-11 福特全球技术公司 用于自动车辆支持的方法和设备
CN104340141B (zh) * 2013-07-26 2019-07-12 福特全球技术公司 车辆
US10867516B2 (en) 2014-04-30 2020-12-15 Mitsubishi Electric Corporation Surrounding area monitoring apparatus and surrounding area monitoring method
WO2015166558A1 (ja) * 2014-04-30 2015-11-05 三菱電機株式会社 周辺監視装置、周辺監視システムおよび周辺監視方法
CN106463057A (zh) * 2014-04-30 2017-02-22 三菱电机株式会社 周边监视装置、周边监视系统以及周边监视方法
JPWO2015166558A1 (ja) * 2014-04-30 2017-04-20 三菱電機株式会社 周辺監視装置、周辺監視システムおよび周辺監視方法
US10878700B2 (en) 2014-04-30 2020-12-29 Mitsubishi Electric Cornoration Surrounding area monitoring apparatus and surrounding area monitoring method
CN109243204A (zh) * 2014-04-30 2019-01-18 三菱电机株式会社 周边监视装置、周边监视系统以及周边监视方法
CN109318806A (zh) * 2014-04-30 2019-02-12 三菱电机株式会社 周边监视装置、周边监视系统以及周边监视方法
US10380895B2 (en) 2014-04-30 2019-08-13 Mitsubishi Electric Corporation Surrounding area monitoring apparatus, surrounding area monitoring system and surrounding area monitoring method
US10621870B2 (en) 2014-04-30 2020-04-14 Mitsubishi Electric Corporation Surrounding area monitoring system
JP2018045067A (ja) * 2016-09-14 2018-03-22 本田技研工業株式会社 模擬運転装置及び模擬運転方法
JP2018092084A (ja) * 2016-12-07 2018-06-14 損害保険ジャパン日本興亜株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2022066265A (ja) * 2017-06-09 2022-04-28 キヤノン株式会社 視線検出機能を備える撮像装置
JP7271749B2 (ja) 2017-06-09 2023-05-11 キヤノン株式会社 視線検出機能を備える撮像装置
CN108805932A (zh) * 2018-06-11 2018-11-13 合肥越明交通电子科技有限公司 一种高精度智能评判车辆特征点所在地理位置的方法
JP2021077138A (ja) * 2019-11-11 2021-05-20 マツダ株式会社 運転者状態推定装置
JP7322667B2 (ja) 2019-11-11 2023-08-08 マツダ株式会社 運転者状態推定装置
JP7404871B2 (ja) 2019-12-27 2023-12-26 船井電機株式会社 電子ミラー
US20220157099A1 (en) * 2020-11-17 2022-05-19 Honda Motor Co., Ltd. Drive data-recording apparatus, drive assist system, drive data-recording method, and program
JP7466433B2 (ja) 2020-11-17 2024-04-12 本田技研工業株式会社 運転データ記録装置、運転支援システム、運転データ記録方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2011148455A1 (ja) 2013-07-25
US20130083197A1 (en) 2013-04-04
US9787946B2 (en) 2017-10-10
JP5387763B2 (ja) 2014-01-15

Similar Documents

Publication Publication Date Title
JP5387763B2 (ja) 映像処理装置、映像処理方法及び映像処理プログラム
WO2011064831A1 (ja) 診断装置及び診断方法
CN109917920B (zh) 车载投射处理方法、装置、车载设备及存储介质
US10943409B2 (en) Information processing apparatus, information processing method, and program for correcting display information drawn in a plurality of buffers
US9025819B2 (en) Apparatus and method for tracking the position of a peripheral vehicle
WO2015037268A1 (ja) 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
CN109941277A (zh) 显示汽车a柱盲区图像的方法、装置和车辆
JP2015231828A (ja) 表示装置、移動体
WO2005088970A1 (ja) 画像生成装置、画像生成方法、および画像生成プログラム
WO2022061999A1 (zh) 一种 a 柱成像方法
JP2011227571A (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP2018518863A (ja) 車両の車両周囲を表示するための方法
JP2017520133A (ja) 車両周辺イメージ生成装置および方法
TWM516332U (zh) 具視線死角輔助功能的安全帽
JP2013005233A (ja) 車両周辺監視装置
CN114022565A (zh) 用于显示设备的对齐方法及对齐装置、车载显示系统
JP6160594B2 (ja) 危険運転記録方法、危険運転記録プログラム及び危険運転記録装置
KR20180094717A (ko) Avm을 이용한 운전 지원 장치 및 시스템
JP7029350B2 (ja) 画像処理装置および画像処理方法
WO2021182254A1 (ja) 表示制御装置、および表示制御方法
CN115493614A (zh) 航迹线的显示方法、装置、存储介质及电子设备
JP2010003014A (ja) 車両周辺表示装置およびその表示方法
TWI758717B (zh) 基於汽車a柱的車載顯示裝置、方法、系統及存儲介質
KR102164702B1 (ko) 자동 주차 장치 및 자동 주차 방법
WO2011132313A1 (ja) 映像処理装置、映像処理方法及び映像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10852126

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012517009

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10852126

Country of ref document: EP

Kind code of ref document: A1