WO2006112333A1 - 撮像装置およびドライブレコーダシステム - Google Patents

撮像装置およびドライブレコーダシステム Download PDF

Info

Publication number
WO2006112333A1
WO2006112333A1 PCT/JP2006/307764 JP2006307764W WO2006112333A1 WO 2006112333 A1 WO2006112333 A1 WO 2006112333A1 JP 2006307764 W JP2006307764 W JP 2006307764W WO 2006112333 A1 WO2006112333 A1 WO 2006112333A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
accident
vehicle
moving image
cpu
Prior art date
Application number
PCT/JP2006/307764
Other languages
English (en)
French (fr)
Inventor
Nobuhiro Fujinawa
Hirotake Nozaki
Setsu Mitsuhashi
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to EP06731700A priority Critical patent/EP1874041A4/en
Priority to US11/918,065 priority patent/US20090051515A1/en
Publication of WO2006112333A1 publication Critical patent/WO2006112333A1/ja

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/0875Registering performance data using magnetic data carriers
    • G07C5/0891Video recorder in combination with video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • B60R2300/8026Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Definitions

  • the present invention relates to an imaging apparatus and a drive recorder system that are mounted on a vehicle and that captures and records the periphery of the vehicle in the event of an accident.
  • Patent Document 1 Japanese Patent Laid-Open No. 8-235491
  • Non-Patent Document 1 Website of Japan Traffic Accident Research Institute Drive Recorder Witness [online], [Searched January 11, 2005], ⁇ URL: http: // witness -jp. Com> Disclosure of Invention
  • the present invention has been made to eliminate the above-mentioned drawbacks of the prior art, and an object thereof is to provide an imaging apparatus and a drive recorder system capable of acquiring accident image data suitable for detailed analysis of an accident situation. That is.
  • a first invention is an imaging device that is mounted on a vehicle and images the periphery of the vehicle, It has a photographing lens, an image sensor, an image processing unit, an accident detection sensor, a control unit, and a recording unit.
  • the image sensor photoelectrically converts an image of the object scene based on the light flux from the photographing lens to generate an image signal.
  • the image processing unit generates moving image data during driving of the vehicle based on the image signal.
  • the accident detection sensor detects the occurrence of an accident based on the impact on the vehicle.
  • the control unit causes the image processing unit to generate accident image data indicating the accident situation using a method different from the normal method.
  • Accident image data is recorded in the recording unit.
  • the image processing unit has a still image data having a larger amount of information per frame than the moving image data in the normal time based on the output of the accident detection sensor.
  • One or more frames are generated at a predetermined timing, and the recording unit records moving image data and still image data at the time of the accident as accident image data.
  • the third invention is characterized in that, in the second invention, at least one of the resolution, the number of gradations, and the aspect ratio of the still image data is different from that of one frame of the moving image data at the normal time. To do.
  • the image processing unit generates a plurality of frames of still image data during a shooting period of moving image data constituting the accident image data.
  • control unit In a fifth aspect based on the fourth aspect, the control unit generates supplementary data indicating a correspondence relationship between the moving image data of the accident image data and the frame of the still image data, and associates the supplementary data with the accident image data. To record in the recording section.
  • control unit executes bracketing photographing while changing photographing conditions for each frame of still image data.
  • the image processing unit increases the resolution of the moving image data, the number of gradations, and the aspect ratio based on the output of the accident detection sensor. At least one of the changes is changed, and moving image data constituting the accident image data is generated.
  • An eighth invention according to any one of the first to seventh inventions further includes a brake detection sensor for detecting a sudden brake of the vehicle, and the control unit detects the accident image data when the sudden brake is detected. If the occurrence of an accident is detected within the specified time, the recording unit stores the accident image data.
  • a drive recorder system is the imaging device according to any one of the first to eighth aspects of the present invention, a traveling state detection unit that detects the traveling state of the vehicle, and traveling state data that indicates the traveling state. And a running state recording unit for recording
  • the image processing unit when an accident occurs, the image processing unit generates accident image data indicating the accident situation by a method different from that at the normal time, and the accident situation can be analyzed in detail by the accident image data.
  • FIG. 1 is a block diagram showing a configuration of a drive recorder camera according to a first embodiment.
  • FIG. 5 is a flowchart showing the operation of the drive recorder camera of the first embodiment.
  • FIG. 7 is a chart showing the timing of still image shooting in the first embodiment.
  • FIG. 8 is a chart showing the timing of still image shooting in the second embodiment.
  • FIG. 9 is a flowchart showing the operation of the drive recorder camera of the third embodiment.
  • FIG. 10 is a block diagram showing the configuration of the drive recorder camera of the fourth embodiment.
  • FIG. 11 Block diagram showing an example of a drive recorder system.
  • FIG. 1 is a block diagram showing the configuration of the drive recorder camera of the first embodiment.
  • Fig. 2 is an external view of the drive recorder camera
  • Fig. 3 is a view showing a mounting state of the drive recorder camera.
  • the drive recorder camera 10 of the first embodiment is attached to a position where an area including the field of view in front of the driver's seat in the automobile can be photographed (for example, in the vicinity of a knock mirror in the automobile). It is.
  • the drive recorder camera 10 can capture an image around the vehicle when the vehicle is running (see FIG. 3).
  • a photographing optical system 11 and a flash light emitting unit 17 are arranged on the front surface of the housing of the drive recorder camera 10.
  • an operation switch 22a and a release button 22b constituting the liquid crystal monitor 21 and the operation member 22 are arranged on the rear surface of the housing of the drive recorder camera 10.
  • a connector for detachably connecting a recording medium 26 is formed on the side surface of the housing of the drive recorder camera 10. . Further, the drive recorder camera 10 is connected with a cable 27 for receiving various signal inputs and power supply from the automobile.
  • the drive recorder camera 10 includes a photographing optical system 11, an image sensor 12, an analog signal processing unit 13, an AZD conversion unit 14, an image processing unit 15, a nota memory 16, and a flash emission.
  • a unit 17, a recording IZF 18, a built-in recording device 19, a display IZF 20 and a liquid crystal monitor 21, an operation member 22, a CPU 23, a power supply unit 24, and a data bus 25 are provided.
  • the image processing unit 15, the nother memory 16, the recording IZF 18, the display IZF 20 and the CPU 23 are connected via the data bus 25 !.
  • the imaging optical system 11 includes a focus lens 30 and a front lens 30a for adjusting a focus position, a focus driving unit 31, an optical axis correction lens 32, a swing sensor unit 33, and an optical axis correction lens driving unit. 34, an infrared cut filter 35, and a filter driving unit 36.
  • the focus drive unit 31 changes the position of the focus lens 30 in the optical axis direction.
  • the optical axis correcting lens 32 is configured to be swingable in the direction perpendicular to the optical axis.
  • the swing sensor unit 33 includes a vertical angular velocity sensor that detects the vertical shake of the camera, and a horizontal angular velocity sensor that detects the roll of the camera.
  • the swing sensor unit 33 monitors camera shake during driving of the automobile and outputs camera shake data to the CPU 23.
  • This camera swing data can be used not only to calculate the movement amount of the optical axis correction lens 32 but also to determine the generation of accident image data described later.
  • the swing sensor unit 33 is configured by an angular velocity sensor around three orthogonal axes and an acceleration sensor in three orthogonal axes. Well ...
  • the optical axis correction lens drive unit 34 swings the optical axis correction lens 32 in the vertical swing direction (X direction). And a second drive unit that swings the optical axis correction lens in the lateral swing direction (y direction).
  • the optical axis correction lens driving unit 34 swings the optical axis correction lens 32 on the basis of an instruction from the CPU 23 and executes shake correction.
  • the infrared cut filter 35 cuts the infrared component from the light beam passing through the lens.
  • the infrared cut filter 35 is configured so that the photographing optical path force can be retracted by the filter driving unit 36.
  • the image sensor 12 is disposed on the image space side of the photographing optical system 11. On the light receiving surface of the image sensor 12 (the surface facing the imaging optical system 11), light receiving elements that generate an analog image signal by photoelectrically converting the subject image are two-dimensionally arranged.
  • the output of the image sensor 12 is connected to the analog signal processing unit 13.
  • the image sensor 12 can be either a charge sequential transfer method (CCD, etc.) or an XY address method (CMOS, etc.)!
  • the analog signal processing unit 13 includes a CDS circuit that performs correlated double sampling, a gain circuit that amplifies the output of the analog image signal, a clamp circuit that clamps the waveform of the input signal to a constant voltage level, and the like.
  • the AZD converter 14 converts the analog image signal output from the analog signal processor 13 into a digital image signal.
  • the image processing unit 15 performs image processing (defective pixel correction, gamma correction, interpolation, color conversion, edge enhancement, etc.) on the digital image signal to generate image data (moving image data or still image data).
  • the image processing unit 15 also executes image data compression processing and the like.
  • the buffer memory 16 is composed of SDRAM or the like. In the buffer memory 16, a frame of image data is temporarily stored in a pre-process or post-process of image processing in the image processing unit 15.
  • the flash light emitting unit 17 includes a xenon arc tube, a main capacitor that stores light emission energy, a light emission control circuit that controls the light emission timing of the xenon arc tube according to instructions from the CPU 23, and the like.
  • the flash light emitting unit 17 emits light as necessary during still image shooting, and irradiates the subject with flash light.
  • the recording IZF 18 is connected with the connector of the recording medium 26 and the built-in recording device 19!
  • the recording IZF 18 controls data writing Z reading with respect to the recording medium 26 and the built-in recording device 19.
  • the built-in recording device 19 is, for example, a recording device using a magnetic disk such as a hard disk, an optical disk, a magneto-optical disk, or the like, or It consists of a semiconductor memory.
  • a liquid crystal monitor 21 is connected to the display IZF 20.
  • the LCD monitor 21 has a recording iZFl
  • the playback and display of the image data output from 8 and the setting screen for changing various camera settings are displayed.
  • the operation switch 22a of the operation member 22 is used for input on the above setting screen.
  • the release button 22b of the operation member 22 is used when the user instructs the CPU 23 to take a picture when an accident occurs.
  • the CPU 23 controls the operation of each part of the drive recorder camera 10 according to a sequence program stored in a ROM (not shown). Then, when the vehicle is running, the CPU 23 captures the field of view in front of the driver's seat with the image sensor 12 and causes the image processing unit 15 to generate moving image data.
  • the CPU 23 is connected to a switch group (not shown) provided in each part of the car via a cable 27. Based on the input signal from the above switch group power, the CPU 23 generates a car accident. And brake status can be detected. Then, the CPU 23 causes the image processing unit 15 to generate still image data separately from the moving image data when an accident is detected.
  • the CPU 23 executes the following control (1) to (4).
  • the CPU 23 executes AE calculation based on the image signal of the image sensor 12.
  • the CPU 23 executes the AE calculation based on the image signal on the lower side of the screen and does not use the image signal on the upper side of the screen for the AE calculation. The reason is explained below.
  • the CPU 23 calculates the contrast value of the subject as well as the image signal force, and adjusts the position of the focus lens 30 in the optical axis direction by the hill-climbing method by the focus driving unit 31 to perform AF control.
  • the CPU 23 calculates the correction movement amount of the optical axis correction lens 32 in the X and y directions, and outputs this correction movement amount to the optical axis correction lens drive unit 34. Then perform shake correction.
  • the CPU 23 can change the position of the infrared cut filter 35 by controlling the filter driving unit 36 in accordance with the time of a built-in clock (not shown) or the brightness of the photographed image. Specifically, in order to eliminate the influence of the infrared component of sunlight during the day, the CPU 23 places an infrared cut filter 35 on the photographing optical path. On the other hand, at night or in a tunnel, the CPU 23 retracts the infrared cut filter 35 from the photographing optical path and uses the infrared component to improve the discrimination of humans in the image.
  • the power supply unit 24 is connected to a vehicle battery via a cable 27.
  • a rechargeable battery that is charged with power supplied from the vehicle is disposed inside the power supply unit 24, and power is also supplied to each part of the battery (not shown for power supply lines other than the CPU 23). Therefore, the drive recorder camera 10 can continuously operate with the power of the rechargeable battery in the power supply unit 24 even when the power supply from the automobile is interrupted in the event of an accident.
  • Step S101 The CPU 23 starts moving image shooting in response to detection of the driving state of the vehicle (for example, when engine start of the vehicle or wheel rotation is detected) or a shooting start input by the user.
  • Step S102 The CPU 23 drives the image sensor 12 to capture an image of the visual field in front of the driver seat. Then, the image processing unit 15 generates moving image data at a predetermined frame rate (for example, 15 fps, 30 fps) based on the image signal of the image sensor 12. Then, the CPU 23 records the moving image data on the recording medium 26 or the built-in recording device 19. In S102 The recorded moving image data is overwritten from the oldest order after a lapse of a certain time, and the moving image data is stored in the drive recorder camera 10 for a certain time while being sequentially updated.
  • a predetermined frame rate for example, 15 fps, 30 fps
  • the moving image data is generated for the purpose of grasping the overall rough movement and relative change. Therefore, the CPU 23 applies at least one of the following settings (1) to (3) to generate moving image data.
  • (D CPU 23 sets the resolution of the moving image data to a resolution lower than the resolution when the image sensor 12 is read out of all pixels. For example, in the case of the pixel power 600 x 1200 in the effective pixel area of the image sensor 12, The CPU 23 sets the resolution of the moving image data to the number of pixels of 640 X 480 or 320 X 240. This enables high-speed reading of signals from the imaging element 12 by thinning-out reading, and suppresses the calculation load of the image processing unit 15. In addition, since the amount of moving image data is reduced, the recording time of moving image data can be increased.
  • the CPU 23 sets the number of gradations of the moving image data to be smaller than the number of gradations of the still image data. For example, when the drive recorder camera 10 can shoot a still image with an RGB 8-bit color image, the CPU 23 sets the gradation number of the moving image data to 5-bit RGB color.
  • the data amount of still image data is 24 bits (3 bytes) per pixel, while the data amount of moving image data is reduced to 15 bits (approximately 2 bytes) per pixel. Therefore, according to the above setting, the calculation load of the image processing unit 15 and the data amount of moving image data are suppressed. Note that the amount of data can be further reduced if the moving image data is shot in monochrome.
  • the CPU 23 changes the aspect ratio between the moving image data and the still image data, and sets the image size of the moving image data to be smaller than the image size of the still image data.
  • the CPU 23 may partially read out the image signal of the central portion of the image sensor 12 in the horizontal direction and shoot a moving image with a horizontally long image in which the top and bottom of the screen are cut (see FIG. 6). .
  • the moving image data with the above settings will not cause any inconvenience because the surrounding situation before and after the accident can be fully understood.
  • speeding up of signal readout from the image sensor 12 by partial readout and reduction of the computation load of the image processing unit 15 are realized. Also, Since the data amount of the moving image data is reduced, the recording time of the moving image data can be further increased.
  • Step S103 The CPU 23 determines whether or not an accident has occurred in the vehicle based on the input signal from the switch group of the vehicle and the signal of the swing sensor unit 33.
  • Step S104 In this case, the CPU 23 prohibits overwriting of moving image data recorded on the recording medium 26 or the built-in recording device 19 at the same time as the accident occurs, and secures moving image data indicating the situation before the occurrence of the accident. .
  • the CPU 12 continuously generates moving image data until a predetermined time after the accident occurs, and records moving image data indicating the situation after the accident on the recording medium 26 or the built-in recording device 19.
  • Step S105 The CPU 23 captures a still image at a predetermined timing after the accident occurs, and generates still image data. Then, the CPU 23 records still image data on the recording medium 26 or the built-in recording device 19 and ends the photographing operation.
  • FIG. 7 is a chart showing the timing of still image shooting in the first embodiment.
  • the CPU 23 intermittently executes a plurality of still image shootings while performing moving image shooting immediately after the occurrence of the accident.
  • bracketing shooting may be performed by changing the exposure conditions (such as shirt time and ISO sensitivity) for each frame.
  • the CPU 23 temporarily stops generating a frame of the moving image, and the CPU 23 supplements the still image shooting period of the moving image data with the frame immediately before shooting the still image. This makes it possible to generate moving image data that can sufficiently grasp the situation at the time of the accident, although the movement of the subject is slightly awkward when taking a still image.
  • the above still image data is generated for the purpose of analyzing the video at the time of the accident in detail. Therefore, a clear image with a higher resolution and higher gradation than a moving image frame and an image obtained by photographing a wider range are required. For this reason, in the above still image data, at least one setting of resolution, number of gradations, and aspect ratio is changed to moving image data, and the CPU 23 has a larger amount of information per frame than moving image data.
  • Shoot with settings For example, in the example of S102 described above, during still image shooting, the CPU 23 reads out all pixels of the image signal from the image sensor 12 and generates 1600 ⁇ 1200 pixel color still image data having gradation of 8 bits for each RGB color.
  • the CPU 23 shakes the optical axis correction lens 32 to perform shake correction during still image shooting. Further, it is preferable that the CPU 23 limits the exposure time to a predetermined time (for example, 1Z60 seconds) or less to suppress blurring during still image shooting. If the exposure becomes insufficient due to the limitation of the exposure time, the CPU 23 preferably adjusts the gain in the analog signal processing unit 13 or the image processing unit 15 to correct the image sensitivity. In this case, the SZN ratio is slightly reduced, but a relatively good still image can be secured.
  • the CPU 23 At the time of still image shooting, the CPU 23 generates additional data indicating which frame of the moving image data each still image data corresponds to.
  • This additional data is recorded in association with still image data.
  • the still image data conforms to the Exif (Exchangeable image file format for digital still cameras) standard
  • the above-mentioned additional data can be recorded in the MakerNote tag of the still image data.
  • Step S106 The CPU 23 determines whether or not there is a shooting end instruction based on a user input or the like. If there is a shooting end instruction (YES side), the CPU 23 ends the shooting. On the other hand, if there is no shooting end instruction (NO side), the process returns to S102, and the CPU 23 repeats the above operation. This is the end of the description of the operation of the first embodiment.
  • the drive recorder camera 10 of the first embodiment when an accident occurs, moving image data before and after the occurrence of the accident is recorded, and a plurality of still image data whose details are captured more clearly than the moving image data are captured. Therefore, the process up to the occurrence of the accident can be roughly grasped by moving image data, and the detailed situation at the time of the accident can be determined using still image data. Can be analyzed.
  • each still image data is associated with the frame of the moving image data by the supplementary data, so that it becomes easier to analyze the accident situation using the moving image data and the still image data. Furthermore, when still image data is generated by bracketing shooting, the possibility of obtaining clear still image data shot with an appropriate exposure is further improved.
  • the user can manually shoot a still image using the release button 22b.
  • the CPU 23 executes AE calculation based on the image signal of the entire screen as in a normal electronic camera, and generates still image data.
  • the user can additionally take a still image at the time of the accident, which makes it easier to analyze the accident situation.
  • the drive recorder camera 10 can be used for shooting landscapes while driving, improving the convenience and entertainment of the product.
  • FIG. 8 is a chart showing still image shooting timing in the second embodiment. Note that in the following embodiment, the same reference numerals are given to the same components as those in the first embodiment, and the duplicate description will be omitted.
  • the second embodiment is a modification of the first embodiment, in which the CPU 23 performs moving image shooting for a predetermined time immediately after the occurrence of the accident, and executes still image shooting a plurality of times after moving image shooting ends.
  • moving image shooting is not interrupted by still image shooting. You can get it.
  • FIG. 9 is a flowchart showing the operation of the drive recorder camera of the third embodiment.
  • the generation of accident image data is started in advance during sudden braking.
  • S201 and S202i in FIG. 9 correspond to S101 and S102 in FIG. 5 and correspond to S207 to S210i in FIG. 9 and S103 to S106 in FIG.
  • Step S203 The CPU 23 determines whether or not the automobile has suddenly braked. More specifically, (1) A brake signal is input from the automobile to the CPU 23, and the swing sensor When a swing exceeding the threshold value is detected synchronously from the part 33, (2) When the output pattern of the swing sensor part 33 matches the experimentally determined sudden braking state, the CPU 23 3 suddenly Judge as a brake. In case of sudden braking (YES side), the process proceeds to S204. On the other hand, if sudden braking is not detected (NO side), the process proceeds to S207.
  • Step S204 Since the possibility of an accident occurring immediately after the vehicle is suddenly braked is high, the CPU 23 starts generating accident image data. For example, the CPU 23 shoots moving images and intermittently executes still image shooting a plurality of times after sudden braking. Note that CPU23 changes the resolution, number of gradations, and aspect ratio settings of moving image data to increase the amount of data per frame and shoot moving image data.
  • Step S205 The CPU 23 determines whether or not the vehicle has an accident within a predetermined time since the sudden braking. If an accident occurs within the specified time (YES side), the process proceeds to S206. On the other hand, if no accident occurs, the process returns to S202, and the CPU 23 returns to the normal video shooting operation. In this case, the accident image data generated between S204 and S205 is sequentially deleted by overwriting the moving image data generated in S202.
  • Step S206 In this case, the CPU 23 prohibits overwriting of the accident image data started to be generated at the time of S204, and secures accident image data indicating the situation before the occurrence of the accident. Even after the accident occurs, the CPU 23 continues to capture moving image data and still image data, and records accident image data indicating the situation after the accident on the recording medium 26 or the built-in recording device 19. Thereafter, the CPU 23 ends the shooting operation.
  • accident image data is generated by the same process as in the first embodiment even when a sudden braking force is applied immediately before the accident, such as when a sudden jump occurs. The same effect as the form can be obtained.
  • FIG. 10 is a block diagram showing the configuration of the drive recorder camera of the fourth embodiment.
  • the fourth embodiment there are two sets of imaging systems consisting of the image sensor 12, the analog signal processing unit 13, the AZD conversion unit 14, and the image processing unit 15, and generation of still image data and generation of moving image data are performed. Are processed in parallel by different imaging systems.
  • the half mirror 28 is inclinedly arranged on the image space side of the photographing optical system 11. Then, one of the light fluxes from the subject passes through the half mirror 28 and is guided to one image sensor 12 a disposed on the back surface of the half mirror 28. The other of the luminous flux from the subject is reflected by the half mirror 28 and led to the other image sensor 12b disposed above the half mirror.
  • the CPU 23 may record the driving information of the automobile acquired through the cable in association with the accident image data to constitute a drive recorder system.
  • the CPU 23 obtains various travel information (vehicle speed, acceleration, brake pressure, steering angle, position information by GPS, etc.) from the automobile side and holds it in the recording medium of the drive recorder camera for a certain time. Then, when an accident occurs, the CPU 23 generates accident record data by associating the traveling information before and after the accident with the accident image data. This makes it possible to analyze the car accident situation in more detail.
  • FIG. 11 shows a block diagram of an example of the drive recorder system.
  • the drive recorder camera 10 is connected to each sensor on the vehicle side by a cable 27.
  • the vehicle side sensors include speed sensor 40, brake sensor 41, vehicle behavior sensor 42, and steering angle.
  • a sensor 43, a GPS device 44, and a collision sensor 45 are included.
  • the speed sensor 40 outputs the vehicle speed and acceleration to the drive recorder camera 10.
  • the brake sensor 41 outputs data indicating the operating state of the brake to the drive recorder camera 10.
  • the brake sensor 41 may be, for example, a sensor that detects the operation pressure of the ABS device of the vehicle, or a sensor that detects the pressure applied to the force brake, such as a brake link mechanism.
  • the vehicle behavior sensor 42 is composed of a gyro sensor, and outputs data on the dynamic behavior of the vehicle roll, pitch, and display to the drive recorder camera 10.
  • the steering angle sensor 43 outputs the steering wheel rotation state data to the drive recorder camera 10.
  • the GPS device 44 outputs data on the current position of the vehicle to the drive recorder camera 10 based on the radio wave from the GPS satellite.
  • the collision sensor 45 notifies the drive recorder camera 10 of the occurrence of an accident.
  • the collision detection sensor 45 may detect the operation of an electric motor that deploys an airbag or winds up a seat belt, even if it detects the impact of a bumper, a hood, or the like of a vehicle.
  • the photographing optical system 11 may be set to pan focus, and the focus lens 30 and the focus drive unit 31 may be omitted.
  • the moving mechanism (36) of the infrared cut filter 35 and the shake correcting mechanism by the optical axis correcting lens 32 may be omitted.
  • the shake correction mechanism it is preferable to separately provide a swing sensor unit 33 so that the drive recorder camera 10 can detect a shake caused by a car collision.
  • the blur correction of the drive recorder camera 10 is not limited to a mechanical one caused by the swing of the optical axis correction lens, and the image data cutout range is shifted according to the image blur to cancel the blur. Even electronic blur correction configuration.
  • a photographing optical system may be provided separately for each photographing system without sharing the photographing optical system among the photographing systems for moving image photographing and still image photographing.
  • the drive recorder camera may be made to continuously shoot high-resolution still images during driving.
  • the CPU 23 can start the engine, detect wheel rotation or board the driver. Riga starts shooting high-resolution still images.
  • the CPU 23 sets the resolution of the still image higher than the resolution of the moving image.
  • the CPU 23 captures the above-described still images at regular intervals and normally holds them in the buffer memory 16.
  • the CPU 23 deletes still images from the oldest and holds the still images for a certain period in the buffer memory 16. As an example, 50 frames of still images taken at intervals of 0.1 second are recorded in the noffer memory 16.
  • the CPU 23 prohibits the deletion of the still image data in the buffer memory 16. Thereafter, the CPU 23 transfers the still image group recorded in the nother memory 16 indicating the situation before and after the accident to the built-in recording device 19 or the recording medium 26. In this case, the situation before and after the accident can be easily grasped by continuously capturing high-resolution still images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 車両に搭載されて前記車両の周辺を撮像する撮像装置であって、撮影レンズと、撮像素子と、画像処理部と、事故検知センサと、制御部と、記録部と、を有する。撮像素子は、撮影レンズからの光束に基づく被写界の像を光電変換して画像信号を生成する。画像処理部は、画像信号に基づき車両運転時の動画像データを生成する。事故検知センサは、車両への衝撃に基づいて事故発生を検知する。制御部は、事故検知センサの出力に基づいて、画像処理部に事故状況を示す事故画像データを通常時と異なる方式で生成させる。そして、記録部には事故画像データが記録される。

Description

撮像装置およびドライブレコーダシステム
技術分野
[0001] 本発明は車両に搭載され、事故時において車両の周辺を撮像記録する撮像装置 およびドライブレコーダシステムに関する。
背景技術
[0002] 従来から、車両に動画撮影可能なカメラを搭載し、事故時の映像を記録するドライ ブレコーダが提案されている (特許文献 1および非特許文献 1参照)。これらのドライ ブレコーダでは走行時に車両の周辺を撮像して動画像データを生成し、通常時には 記録部の動画像データを上書きして逐次更新する構成となっている。そして、事故発 生時には記録部の動画像データの上書きを禁止し、記録部に事故前後の一定時間 分の動画像データが保持されるようになっている。なお、ドライブレコーダでは少ない 記録容量で長時間の動画像データを記録する必要から、一般的にドライブレコーダ での動画像データの解像度は比較的低く設定される。
[0003] しかし、上記の動画像データでは事故発生までのプロセスを概略的に把握すること は可能であるが、事故時の映像を詳細に解析する場合には画像の解像度が低 、た め不十分なことも多力つた。
特許文献 1:特開平 8— 235491号公報
非特許文献 1 :日本交通事故鑑識研究所ホームページ ドライブレコーダ Witness [o nline]、 [2005年 1月 11日検索]、 < URL: http: //witness -jp. com> 発明の開示
発明が解決しょうとする課題
[0004] 本発明は上記従来技術の欠点を除くためにされたものであり、その目的は、事故状 況の詳細な解析に適した事故画像データを取得できる撮像装置およびドライブレコ ーダシステムを提供することである。
課題を解決するための手段
[0005] 第 1の発明は、車両に搭載されて前記車両の周辺を撮像する撮像装置であって、 撮影レンズと、撮像素子と、画像処理部と、事故検知センサと、制御部と、記録部と、 を有することを特徴とする。撮像素子は、撮影レンズからの光束に基づく被写界の像 を光電変換して画像信号を生成する。画像処理部は、画像信号に基づき車両運転 時の動画像データを生成する。事故検知センサは、車両への衝撃に基づいて事故 発生を検知する。制御部は、事故検知センサの出力に基づいて、画像処理部に事 故状況を示す事故画像データを通常時と異なる方式で生成させる。そして、記録部 には事故画像データが記録される。
[0006] 第 2の発明は、第 1の発明において、画像処理部は、事故検知センサの出力に基 づいて、通常時の動画像データよりも 1フレーム当たりの情報量が大きい静止画像デ ータを所定のタイミングで 1フレーム以上生成し、記録部は、事故発生時の動画像デ ータと静止画像データとを事故画像データとして記録する。
第 3の発明は、第 2の発明において、静止画像データは、通常時の動画像データ の 1フレームと比べて解像度、階調数およびアスペクト比の少なくとも 1つの設定が相 違することを特徴とする。
[0007] 第 4の発明は、第 2または第 3の発明において、画像処理部は、事故画像データを 構成する動画像データの撮影期間において複数フレームの静止画像データを生成 する。
第 5の発明は、第 4の発明において、制御部は、事故画像データの動画像データと 静止画像データのフレームとの対応関係を示す付記データを生成し、該付記データ を事故画像データに関連付けて記録部に記録する。
[0008] 第 6の発明は、第 2から第 5のいずれかの発明において、制御部は、静止画像デー タの各フレーム毎に撮影条件を変化させてブラケティング撮影を実行する。
第 7の発明は、第 1から第 6のいずれかの発明において、画像処理部は、事故検知 センサの出力に基づいて、動画像データの解像度増加、階調数増加およびァスぺク ト比変更のうちの少なくとも 1つの設定変更を実行し、事故画像データを構成する動 画像データを生成する。
[0009] 第 8の発明は、第 1から第 7のいずれかの発明において、車両の急ブレーキを検知 するブレーキ検知センサをさらに有し、制御部は急ブレーキ検知時に事故画像デー タの生成開始を指示し、急ブレーキ検知時力 所定時間以内に事故発生を検知した 場合には、記録部に事故画像データを保持させる。
第 9の発明に係るドライブレコーダシステムは、第 1から第 8の発明のいずれかの撮 像装置と、前記車両の走行状態を検出する走行状態検出部と、前記走行状態を示 す走行状態データを記録する走行状態記録部と、を有することを特徴とする。
発明の効果
[0010] 本発明によれば、事故発生時には画像処理部が事故状況を示す事故画像データ を通常時と異なる方式で生成し、この事故画像データによって事故時の詳細な状況 を解析できる。
図面の簡単な説明
[0011] [図 1]第 1実施形態のドライブレコーダカメラの構成を示すブロック図
[図 2]ドライブレコーダカメラの外観図
[図 3]ドライブレコーダカメラの取付状態を示す図
[図 4]ドライブレコーダカメラの AE演算の説明図
[図 5]第 1実施形態のドライブレコーダカメラの動作を示す流れ図
[図 6]ドライブレコーダカメラの動画撮影範囲の説明図
[図 7]第 1実施形態での静止画撮影のタイミングを示すチャート図
[図 8]第 2実施形態での静止画撮影のタイミングを示すチャート図
[図 9]第 3実施形態のドライブレコーダカメラの動作を示す流れ図
[図 10]第 4実施形態のドライブレコーダカメラの構成を示すブロック図
[図 11]ドライブレコーダシステムの一例を示すブロック図
発明を実施するための最良の形態
[0012] (第 1実施形態の説明)
図 1は第 1実施形態のドライブレコーダカメラの構成を示すブロック図である。また、 図 2はドライブレコーダカメラの外観図であって、図 3はドライブレコーダカメラの取付 状態を示す図である。
第 1実施形態のドライブレコーダカメラ 10は、自動車における運転席前方の視野を 含む領域を撮影可能な位置 (例えば自動車内のノ ックミラー近傍など)に取り付けら れる。そして、ドライブレコーダカメラ 10は自動車の走行時に自動車周辺の画像を撮 影できるようになつている(図 3参照)。図 2 (a)に示すように、ドライブレコーダカメラ 1 0の筐体正面には撮影光学系 11および閃光発光部 17が配置されている。また、図 2 (b)に示すように、ドライブレコーダカメラ 10の筐体背面には液晶モニタ 21と操作部 材 22を構成する操作スィッチ 22aおよびレリーズ釦 22bとが配置されている。
[0013] さらに、図 2 (c)に示すように、ドライブレコーダカメラ 10の筐体側面には記録媒体 2 6 (公知の半導体メモリなど)を着脱自在に接続するためのコネクタが形成されている 。さらに、ドライブレコーダカメラ 10には、自動車からの各種信号入力や電力供給を 受けるためのケーブル 27が接続されている。
図 1に示すように、ドライブレコーダカメラ 10は、撮影光学系 11と、撮像素子 12と、 アナログ信号処理部 13と、 AZD変換部 14と、画像処理部 15と、ノ ッファメモリ 16と 、閃光発光部 17と、記録 IZF18と、内蔵型記録装置 19と、表示 IZF20および液晶 モニタ 21と、操作部材 22と、 CPU23と、電源ユニット 24と、データバス 25と、を有し ている。なお、画像処理部 15、ノ ッファメモリ 16、記録 IZF18、表示 IZF20および CPU23はデータバス 25を介して接続されて!、る。
[0014] 撮影光学系 11は、合焦位置調節用のフォーカスレンズ 30および前レンズ 30aと、 フォーカス駆動部 31と、光軸補正レンズ 32と、揺動センサ部 33と、光軸補正レンズ 駆動部 34と、赤外カットフィルタ 35と、フィルタ駆動部 36と、を有している。
フォーカス駆動部 31はフォーカスレンズ 30の光軸方向位置を変化させる。光軸補 正レンズ 32は光軸直角方向に揺動可能に構成されている。揺動センサ部 33は、カメ ラの縦揺れを検出する縦方向角速度センサと、カメラの横揺れを検出する横方向角 速度センサとを有している。この揺動センサ部 33は自動車の走行時におけるカメラの 揺れをモニタし、 CPU23にカメラ揺動データを出力する。このカメラ揺動データは光 軸補正レンズ 32の移動量の演算のほかに、後述の事故画像データの生成判定にも 用いることができる。なお、カメラ揺動データを事故画像データの生成判定に用いる 場合には、直交する 3軸周りの角速度センサと、直交する 3軸方向の加速度センサと によって揺動センサ部 33を構成するようにしてもょ 、。
[0015] 光軸補正レンズ駆動部 34は、光軸補正レンズ 32を縦揺動方向(X方向)に揺動さ せる第 1駆動部と、光軸補正レンズを横揺動方向 (y方向)を揺動させる第 2駆動部と で構成される。この光軸補正レンズ駆動部 34は、 CPU23の指示に基づいて光軸補 正レンズ 32を揺動させてぶれ補正を実行する。赤外カットフィルタ 35はレンズを通過 する光束から赤外成分をカットする。この赤外カットフィルタ 35は、フィルタ駆動部 36 によって撮影光路力 退避できるように構成されて 、る。
[0016] 撮像素子 12は撮影光学系 11の像空間側に配置されている。撮像素子 12の受光 面 (撮影光学系 11と相対する面)には被写体像を光電変換してアナログ画像信号を 生成する受光素子が 2次元配列されている。この撮像素子 12の出力はアナログ信号 処理部 13に接続されている。なお、撮像素子 12は、電荷順次転送方式 (CCD等)ま たは XYアドレス方式(CMOS等)の!、ずれであってもよ!/、。
[0017] アナログ信号処理部 13は、相関二重サンプリングを行う CDS回路、アナログ画像 信号の出力を増幅するゲイン回路、入力信号の波形を一定の電圧レベルにクランプ するクランプ回路等で構成されて 、る。 AZD変換部 14はアナログ信号処理部 13か ら出力されたアナログ画像信号をデジタル画像信号に変換する。
画像処理部 15は、デジタル画像信号に画像処理 (欠陥画素補正、ガンマ補正、補 間、色変換、エッジ強調など)を施して画像データ (動画像データまたは静止画像デ ータ)を生成する。また、画像処理部 15は画像データの圧縮処理なども実行する。バ ッファメモリ 16は SDRAM等で構成される。このバッファメモリ 16には、画像処理部 1 5での画像処理の前工程または後工程で画像データのフレームが一時的に保存さ れる。
[0018] 閃光発光部 17は、キセノン発光管、発光のエネルギを蓄えるメインコンデンサ、 CP U23の指示によりキセノン発光管の発光タイミングを制御する発光制御回路などから 構成されている。この閃光発光部 17は、静止画撮影時において必要に応じて発光し 、被写体に閃光を照射する。
記録 IZF 18には記録媒体 26のコネクタと内蔵型記録装置 19が接続されて!、る。 そして、記録 IZF18は、記録媒体 26および内蔵型記録装置 19に対するデータ書き 込み Z読み込みを制御する。なお、内蔵型記録装置 19は、例えば、ハードディスク 等の磁気ディスク、光ディスク、光磁気ディスク、などを用いた記録装置や、あるいは 半導体メモリなどで構成される。
[0019] 表示 IZF20には液晶モニタ 21が接続されている。液晶モニタ 21には、記録 iZFl
8から出力された画像データの再生表示や、カメラの各種設定を変更するための設 定画面などが表示される。操作部材 22の操作スィッチ 22aは上記の設定画面での入 力等に用いられる。操作部材 22のレリーズ釦 22bは、事故発生時等においてユーザ 一が CPU23に対して撮影指示するときに用いられる。
[0020] CPU23は、図示しない ROMに格納されたシーケンスプログラムに従ってドライブ レコーダカメラ 10の各部動作を制御する。そして、自動車の走行時には CPU23は 撮像素子 12で運転席前方の視野を撮影し、画像処理部 15に動画像データを生成 させる。
また、 CPU23は自動車の各部に設けられたスィッチ群(図示を省略する)とケープ ル 27を介して接続されており、上記のスィッチ群力ゝらの入力信号に基づいて CPU23 が自動車の事故発生やブレーキ状態などを検出できるようになつている。そして、 CP U23は事故の検知時には動画像データとは別に画像処理部 15に静止画像データ を生成させる。
[0021] CPU23は、その他にも以下の(1)から (4)に示す制御などを実行する。
(1) CPU23は撮像素子 12の画像信号に基づいて AE演算などを実行する。なお、 第 1実施形態での AE演算では、 CPU23は画面下側の画像信号に基づ 、て AE演 算を実行し、画面上側の画像信号を AE演算に使用しないことが好ましい。以下、そ の理由を説明する。
[0022] 図 4に示すように、ドライブレコーダカメラ 10の撮影画像では、一般的に撮影画面の 中央から下半分の領域に道路、自動車および通行人などの重要被写体が位置し、 撮影画面の上半分は空が占める構図となることが多い。この場合に撮影画面全体の 画像信号に基づいて AE演算を行うと、空の明るさに影響されて画像全体の露出が アンダー側に調整されてしまう場合がある。その結果、画像の下半分の領域に撮影さ れている重要被写体が暗く沈んでしまうことがある。特に逆光撮影時にはその傾向が 一層顕著となる。そのため、図 4に示すように CPU23が画面下側の画像信号に基づ V、て AE演算を実行すれば、画面上側の空の露出が若干オーバー側になるが画面 下側の露出が適正になる。この場合には、事故状況を把握しやすい画像が撮影でき ることとなる。
[0023] (2) CPU23は画像信号力も被写体のコントラスト値を演算し、フォーカス駆動部 31 によりフォーカスレンズ 30の光軸方向位置を山登り方式で調整して AF制御を行う。
(3) CPU23はカメラ揺動データに基づ!/、て光軸補正レンズ 32の X方向および y方 向の補正移動量を演算し、この補正移動量を光軸補正レンズ駆動部 34に出力して ぶれ補正を実行する。
[0024] (4) CPU23は内蔵時計 (不図示)の時刻や撮影画像の明るさなどに応じてフィルタ 駆動部 36を制御して赤外カットフィルタ 35の位置を変更することができる。具体的に は、日中は太陽光の赤外成分の影響を除去するため、 CPU23は赤外カットフィルタ 35を撮影光路上に配置する。一方、夜間やトンネル内などでは CPU23は赤外カット フィルタ 35を撮影光路カゝら退避させて、赤外成分を利用することで画像中の人間な どの識別性を向上させる。
[0025] 電源ユニット 24はケーブル 27を介して自動車のバッテリーと接続されている。電源 ユニット 24の内部には自動車からの供給電力で充電される充電池が配置され、充電 池力もカメラ各部に電力が供給される(なお、 CPU23以外への電力供給線の図示は 省略する)。そのため、事故時に自動車からの電力供給が遮断された場合にも、ドラ イブレコーダカメラ 10は、電源ユニット 24内の充電池の電力によって継続的に動作 することができる。
[0026] 以下、第 1実施形態のドライブレコーダカメラの動作を図 5の流れ図を参照しつつ説 明する。
ステップ S101 : CPU23は、自動車の走行状態の検出(例えば、自動車のエンジン 始動または車輪の回転が検出された場合など)またはユーザーによる撮影開始入力 に応じて、動画撮影を開始する。
[0027] ステップ S102 : CPU23は、撮像素子 12を駆動させて運転席前方の視野の画像を 撮影する。そして、画像処理部 15は撮像素子 12の画像信号に基づいて所定のフレ ームレート(例えば 15fps、 30fps)で動画像データを生成する。そして、 CPU23は 記録媒体 26または内蔵型記録装置 19に動画像データを記録する。なお、 S102で 記録された動画像データは一定時間経過後に古い順から上書きされ、ドライブレコ 一ダカメラ 10には動画像データが逐次更新されつつ一定時間分保存されることとな る。
[0028] ここで、上記の動画像データは全体の大まかな動きや相対的な変化を把握する目 的で生成される。そのため、 CPU23は以下の(1)〜(3)の少なくともいすれか 1つの 設定を適用して動画像データを生成する。
(D CPU23は、動画像データの解像度を撮像素子 12を全画素読み出しした場合 の解像度よりも低い解像度に設定する。例えば、撮像素子 12の有効画素領域の画 素数力 600 X 1200の場合において、 CPU23は動画像データの解像度を 640 X 4 80または 320 X 240の画素数に設定する。これにより、間引き読み出しによる撮像素 子 12からの信号読み出しの高速ィ匕ゃ画像処理部 15の演算負荷抑制などが実現さ れる。また、動画像データのデータ量が小さくなるので、動画像データの記録時間を より長くすることがでさる。
[0029] (2) CPU23は、動画像データの階調数を静止画像データの階調数よりも少なく設 定する。例えば、ドライブレコーダカメラ 10が RGB各色 8bitのカラー画像で静止画像 を撮影できる場合に、 CPU23は動画像データの階調数を RGB各色 5bitに設定す る。上記の設定例では静止画像データのデータ量が 1画素当たり 24bit (3バイト)と なるのに対し、動画像データのデータ量は 1画素当たり 15bit (約 2バイト)に減少する 。そのため、上記設定によれば、画像処理部 15の演算負荷や動画像データのデー タ量が抑制される。なお、動画像データをモノクロで撮影すればさらにデータ量を減 少させることができる。
[0030] (3) CPU23は、動画像データと静止画像データとでアスペクト比を変更し、動画像 データの画像サイズを静止画像データの画像サイズよりも小さく設定する。例えば、 C PU23は撮像素子 12の中央部分の画像信号を水平方向に部分読みだしして、画面 上部および画面下部がカットされた横長の画像で動画撮影するようにしてもよい(図 6 参照)。上記設定の動画像データでも事故前後の周囲の状況を十分把握できるので 特に不都合が生じることはない。その一方で、部分読み出しによる撮像素子 12から の信号読み出しの高速化や画像処理部 15の演算負荷抑制などが実現する。また、 動画像データのデータ量が小さくなるので、動画像データの記録時間をより長くする ことができる。
[0031] ステップ S103 : CPU23は、自動車のスィッチ群からの入力信号や揺動センサ部 3 3の信号に基づ 、て、自動車に事故が発生したか否かを判定する。
より具体的には、(1)衝突により自動車のエアバックの展開信号が CPU23に入力 された場合、 (2)衝突時にシートベルトを巻き取る電動モータの動作信号が CPU23 に入力された場合、 (3)自動車のバンパー、ボンネットフード等に設けられた衝突検 知センサ力も CPU23に衝突検出信号が入力された場合、(4)揺動センサ部 33から 閾値以上の揺れが検出された場合、などに CPU23は事故発生と判定する。
[0032] そして、事故が発生した場合 (YES側)には S104に移行する。一方、事故発生を 検知しな!、場合 (NO側)〖こは S 106に移行する。
ステップ S104 :この場合には、 CPU23は事故発生と同時に記録媒体 26または内 蔵型記録装置 19に記録された動画像データの上書きを禁止し、事故発生前の状況 を示す動画像データを確保する。なお、 CPU12は事故発生後も所定時間まで動画 像データを継続的に生成し、事故発生後の状況を示す動画像データを記録媒体 26 または内蔵型記録装置 19に記録する。
[0033] ステップ S105 : CPU23は事故発生後に所定のタイミングで静止画の撮影を行い、 静止画像データを生成する。そして、 CPU23は記録媒体 26または内蔵型記録装置 19に静止画像データを記録して、撮影動作を終了する。
図 7は第 1実施形態での静止画撮影のタイミングを示すチャート図である。第 1実施 形態では CPU23は事故発生直後も動画撮影を行いつつ、複数回の静止画撮影を 間欠的に実行する。静止画撮影では、各フレーム毎に露出条件 (シャツタ秒時や IS O感度など)を変化させてブラケティング撮影を行うようにしてもよい。なお、静止画撮 影時には CPU23は動画像のフレーム生成を一時中止し、 CPU23が静止画撮影直 前のフレームによって動画像データの静止画撮影期間を補完する。これにより、静止 画撮影時には若干被写体の動きがぎこちなくなるが、事故発生時の状況を十分把握 可能な動画像データを生成することができる。
[0034] ここで、上記の静止画像データは事故時の映像を詳細に解析する目的で生成され 、動画像のフレームよりも高解像度、高階調の鮮明な画像や、より広い範囲を撮影し た画像が要求される。そのため、上記の静止画像データでは、解像度、階調数およ びアスペクト比の少なくとも 1つの設定を動画像データと変化させて、 CPU23は 1フ レーム当たりの情報量が動画像データよりも大きくなる設定で撮影を行う。例えば、上 記 S102の例であれば、静止画撮影時には CPU23は撮像素子 12から画像信号を 全画素読み出しし、 RGB各色 8bitの階調を有する 1600 X 1200画素のカラー静止 画像データを生成する。
[0035] また、静止画データでは、撮影された被写体がぶれて ヽると事故解析に用いること のできない撮影失敗画像として扱われる。そのため、静止画撮影時には CPU23は 光軸補正レンズ 32を揺動させてぶれ補正を実行することが好ましい。さらに、静止画 撮影時には CPU23は露光時間を所定時間(例えば 1Z60秒)以下に制限してぶれ の発生を抑制するのが好ましい。なお、露光時間の制限により露出が不十分となる場 合には、 CPU23はアナログ信号処理部 13または画像処理部 15でのゲインを調整し て画像の感度を補正するのが好まし 、。この場合には SZN比が若干低下するが比 較的良好な静止画像を確保することができる。
[0036] さらに、上記の静止画撮影時には、各静止画像データが動画像データのどのフレ ームに対応するかを示す付記データを CPU23が生成する。この付記データは静止 画像データと関連付けされて記録される。例えば、静止画像データが Exif (Exchange able image file format for digital still cameras)規格に準拠する場合、静止画像デー タの MakerNoteタグに上記の付記データを記録しておくことも可能である。
[0037] ステップ S106 : CPU23は、ユーザーの入力等による撮影終了指示がある力否か を判定する。撮影終了指示がある場合 (YES側)には CPU23は撮影を終了する。一 方、撮影終了指示がない場合 (NO側)には S 102に戻って、 CPU23は上記動作を 繰り返す。以上で第 1実施形態の動作説明を終了する。
第 1実施形態のドライブレコーダカメラ 10では、事故発生時には事故発生前後の 動画像データが記録されるとともに、動画像データよりも細部が鮮明に撮影された静 止画像データが複数撮影される。そのため、事故発生までのプロセスを動画像デー タによって概略的に把握でき、かつ静止画像データを用いて事故時の詳細な状況を 解析できる。
[0038] また、各静止画像データは付記データによって動画像データのフレームと対応付 けされて!/ヽるため、動画像データおよび静止画像データによる事故状況の解析作業 はより容易となる。さらに、ブラケティング撮影で静止画像データを生成した場合には 、適正な露出で撮影された鮮明な静止画像データを取得できる可能性がより向上す る。
なお、第 1実施形態ではレリーズ釦 22bによりユーザーが手動で静止画を撮影する こともできる。この場合には、 CPU23は通常の電子カメラと同様に画面全体の画像 信号に基づ 、て AE演算を実行して静止画像データを生成する。このようにすれば、 必要に応じてユーザーが事故時の静止画を追加撮影することもでき、事故状況の解 析をより容易にすることもできる。また、運転中の風景の撮影用途にもドライブレコー ダカメラ 10を利用でき、製品の利便性、娯楽性もより向上する。
[0039] (第 2実施形態の説明)
図 8は第 2実施形態での静止画撮影のタイミングを示すチャート図である。なお、以 下の実施形態において第 1実施形態と共通の構成には同一符号を付して重複説明 を省略する。
第 2実施形態は第 1実施形態の変形例であって、 CPU23は事故発生直後に所定 時間の動画撮影を実行し、動画撮影の終了後に複数回の静止画撮影を実行する。
[0040] この第 2実施形態では、上記の第 1実施形態とほぼ同様の効果に加えて、静止画 の撮影によって動画撮影が中断することがないので、被写体の動きが自然な動画像 データを取得できる。
(第 3実施形態の説明)
図 9は第 3実施形態のドライブレコーダカメラの動作を示す流れ図である。この第 3 実施形態は急ブレーキ時に予め事故画像データの生成を開始する構成である。な お、図 9の S201、 S202iま図 5の S101、 S102に対応し、図 9の S207〜S210iま図 5 の S103〜S106にそれぞれ対応するので説明を省略する。
[0041] ステップ S203 : CPU23は、自動車が急ブレーキをかけたか否かを判定する。より 具体的には、(1)自動車からブレーキ信号が CPU23に入力され、かつ揺動センサ 部 33から閾値以上の揺れが同期して検出された場合、(2)揺動センサ部 33の出力 パターンが予め実験的に求めた急ブレーキ時の状態と一致する場合、などに CPU2 3は急ブレーキと判定する。そして、急ブレーキの場合 (YES側)には S204に移行す る。一方、急ブレーキを検知しない場合 (NO側)には S207に移行する。
[0042] ステップ S204:自動車が急ブレーキをかけた場合にはその直後に事故が発生する 可能性が高いため、 CPU23は事故画像データの生成を開始する。例えば、 CPU2 3は動画撮影を行 、つつ、急ブレーキ後から複数回の静止画撮影を間欠的に実行 する。なお、 CPU23は動画像データの解像度、階調数およびアスペクト比の設定を 変更し、 1フレーム当たりのデータ量を大きくして動画像データを撮影するようにして ちょい。
[0043] ステップ S205 : CPU23は、急ブレーキ時から所定時間内に自動車に事故が発生 した力否かを判定する。所定時間内に事故が発生した場合 (YES側)には S206に 移行する。一方、事故が発生しない場合には、 S202に戻って CPU23は通常の動 画撮影動作に復帰する。なお、この場合には、 S204から S205の間に生成された事 故画像データは、 S 202で生成される動画像データの上書き等により順次消去される
[0044] ステップ S206 :この場合には、 CPU23は S204の時点で生成開始された事故画 像データの上書きを禁止し、事故発生前の状況を示す事故画像データを確保する。 そして、事故発生後も CPU23は動画像データの撮影と静止画像データの撮影を継 続し、事故発生後の状況を示す事故画像データを記録媒体 26または内蔵型記録装 置 19に記録する。その後に CPU23は撮影動作を終了する。
[0045] この第 3実施形態では、急ブレーキのかかった時点から事故画像データの生成を 開始するので、第 1実施形態の場合よりも事故発生前の画像情報をより多く収集でき 、事故状況の解析作業がさらに容易となる。なお、不意の飛び出しなどのように、事 故の直前に急ブレーキがな力つた場合にも第 1実施形態と同様のプロセスで事故画 像データが生成されるので、この場合にも第 1実施形態と同様の効果を得ることがで きる。
[0046] (第 4実施形態の説明) 図 10は第 4実施形態のドライブレコーダカメラの構成を示すブロック図である。第 4 実施形態では、撮像素子 12、アナログ信号処理部 13、 AZD変換部 14および画像 処理部 15からなる撮影系統を 2組有しており、静止画像データの生成と動画像デー タの生成とが、異なる撮影系統によって並行処理される。
[0047] また、撮影光学系 11の像空間側にはハーフミラー 28が傾斜配置されて 、る。そし て、被写体からの光束の一方はハーフミラー 28を透過し、ハーフミラー 28の背面に 配置された一方の撮像素子 12aに導かれる。また、被写体からの光束の他方はハー フミラー 28で反射され、ハーフミラーの上側に配置された他方の撮像素子 12bに導 かれるようになつている。
[0048] この第 4実施形態では、動画撮影と静止画撮影とが別の撮影系統で生成されるの で、動画撮影中に静止画撮影を行った場合においても、被写体の動きが自然な動 画像データを取得できる。また、 2つの撮像素子 12は同じ撮影光学系による画像を 撮影するので、動画像データと静止画像データとで視差が生じることもない。さら〖こ、 一方の撮影系統が故障した場合でも他方の撮影系統により事故画像データを生成 できるので、より確実に事故画像データを確保することができる。
[0049] (実施形態の補足事項)
以上、本発明を上記の実施形態によって説明してきたが、本発明の技術的範囲は 上記実施形態に限定されるものではなぐ例えば以下のような形態であってもよい。
(1)上記実施形態にぉ 、て、 CPU23はケーブルを介して取得した自動車の走行 情報を事故画像データに対応付けて記録し、ドライブレコーダシステムを構成するよ うにしてもよい。例えば、 CPU23は自動車側から各種の走行情報(車速、加速度、ブ レーキ圧、ハンドル舵角、 GPSによる位置情報など)を取得し、ドライブレコーダカメラ の記録媒体に一定時間保持する。そして、 CPU23は、事故発生時には事故発生前 後の走行情報を事故画像データに関連付けして事故記録データを生成する。これに より、自動車の事故状況をより詳細に解析することが可能となる。
[0050] なお、図 11にドライブレコーダシステムの一例のブロック図を示す。ドライブレコー ダカメラ 10は、ケーブル 27によって車両側の各センサと接続されている。車両側の センサには、速度センサ 40と、ブレーキセンサ 41と、車両挙動センサ 42と、操舵角 センサ 43と、 GPS装置 44と、衝突センサ 45が含まれる。速度センサ 40は車速およ び加速度をドライブレコーダカメラ 10に出力する。ブレーキセンサ 41は、ブレーキの 動作状態を示すデータをドライブレコーダカメラ 10に出力する。このブレーキセンサ 4 1は、例えば、車両の ABS装置の動作状態を検出するものでもよぐブレーキのリンク 機構など力 ブレーキに対する踏圧力を検出するものでもよい。車両挙動センサ 42 はジャイロセンサで構成されており、車両のロール、ピッチ、ョ一の動的挙動のデータ をドライブレコーダカメラ 10に出力する。操舵角センサ 43は、ハンドルの回転状態の データをドライブレコーダカメラ 10に出力する。 GPS装置 44は、 GPS衛星からの電 波に基づ 、て車両の現在位置のデータをドライブレコ一ダカメラ 10に出力する。衝 突センサ 45は、事故発生をドライブレコーダカメラ 10に通知する。なお、衝突検知セ ンサ 45は、例えば、車両のバンパー、ボンネットフード等の衝撃を検知するものでも よぐエアバックの展開やシートベルトを巻き取る電動モータの動作を検出するもので ちょい。
[0051] (2)本発明では上記実施形態のドライブレコーダカメラ 10の構成を一部省略しても よい。例えば、撮影光学系 11をパンフォーカスに設定し、フォーカスレンズ 30および フォーカス駆動部 31を省略してもよい。また、赤外カットフィルタ 35の移動機構(36) や、光軸補正レンズ 32によるぶれ補正機構を省略してもよい。なお、ぶれ補正機構 を省略する場合には、自動車の衝突による揺れをドライブレコーダカメラ 10で検知す るために揺動センサ部 33を別途設けるのが好ま 、。
[0052] (3)ドライブレコーダカメラ 10のぶれ補正は光軸補正レンズの揺動による機械的な ものに限定されず、画像のぶれに応じて画像データの切り出し範囲をシフトさせてぶ れを相殺する電子式ブレ補正の構成であってもよ 、。
(4)第 4実施形態では、動画撮影用および静止画撮影用の各撮影系統で撮影光 学系を共有することなぐ各撮影系統ごとに撮影光学系をそれぞれ別々に設けてもよ い。
[0053] (5)上記実施形態にお!、て、ドライブレコーダカメラに高解像度の静止画像を運転 時に連続撮影させるようにしてもよい。
例えば、 CPU23は、エンジンの始動、車輪の回転の検出または運転手の搭乗をト リガとして高解像度の静止画像の撮影を開始する。この場合、 CPU23は静止画像の 解像度を動画像の解像度よりも高く設定する。上記実施形態の例であれば、事故発 生時に撮影する静止画像と同等の解像度で運転時にも静止画像を撮影することが 好ましい。
[0054] そして、 CPU23は通常時には一定間隔ごとに上記の静止画像を撮影してバッファ メモリ 16に保持する。ノ ッファメモリ 16に蓄積されたフレーム数が所定以上となった 場合には、 CPU23は静止画像を古い順に消去して、一定期間分の静止画像をバッ ファメモリ 16に保持する。一例として、ノッファメモリ 16には 0. 1秒間隔で撮影された 静止画像が 50フレーム分記録される。
[0055] 事故の発生を検知した場合、 CPU23はバッファメモリ 16の静止画像のデータの消 去を禁止する。その後、 CPU23は、ノ ッファメモリ 16に記録されている事故発生前 後の状況を示す静止画像群を内蔵型記録装置 19または記録媒体 26に転送する。 この場合には、連続的に撮影された高解像度の静止画像によって事故前後の状況 を容易に把握することができる。

Claims

請求の範囲
[1] 車両に搭載されて前記車両の周辺を撮像する撮像装置であって、
撮影レンズと、
前記撮影レンズ力 の光束に基づく被写界の像を光電変換して画像信号を生成す る撮像素子と、
前記画像信号に基づき車両運転時の動画像データを生成する画像処理部と、 前記車両への衝撃に基づいて事故発生を検知する事故検知センサと、 前記事故検知センサの出力に基づ!/、て、前記画像処理部に事故状況を示す事故 画像データを通常時と異なる方式で生成させる制御部と、
前記事故画像データを記録する記録部と、
を有することを特徴とする撮像装置。
[2] 前記画像処理部は、前記事故検知センサの出力に基づ!/、て、通常時の動画像デ ータよりも 1フレーム当たりの情報量が大きい静止画像データを所定のタイミングで 1 フレーム以上生成し、
前記記録部は、事故発生時の動画像データと前記静止画像データとを前記事故 画像データとして記録することを特徴とする請求項 1に記載の撮像装置。
[3] 前記静止画像データは、通常時の動画像データの 1フレームと比べて解像度、階 調数およびアスペクト比の少なくとも 1つの設定が相違することを特徴とする請求項 2 に記載の撮像装置。
[4] 前記画像処理部は、前記事故画像データを構成する動画像データの撮影期間に おいて複数フレームの前記静止画像データを生成することを特徴とする請求項 2また は請求項 3に記載の撮像装置。
[5] 前記制御部は、前記事故画像データの動画像データと前記静止画像データのフレ ームとの対応関係を示す付記データを生成し、該付記データを前記事故画像データ に関連付けて前記記録部に記録することを特徴とする請求項 4に記載の撮像装置。
[6] 前記制御部は、前記静止画像データの各フレーム毎に撮影条件を変化させてブラ ケティング撮影を実行することを特徴とする請求項 2から請求項 5のいずれか 1項に 記載の撮像装置。
[7] 前記画像処理部は、前記事故検知センサの出力に基づ!/、て、前記動画像データ の解像度増加、階調数増加およびアスペクト比変更のうちの少なくとも 1つの設定変 更を実行し、前記事故画像データを構成する動画像データを生成することを特徴と する請求項 1から請求項 6のいずれか 1項に記載の撮像装置。
[8] 前記車両の急ブレーキを検知するブレーキ検知センサをさらに有し、
前記制御部は急ブレーキ検知時に前記事故画像データの生成開始を指示し、前 記急ブレーキ検知時力 所定時間以内に事故発生を検知した場合には、前記記録 部に前記事故画像データを保持させることを特徴とする請求項 1から請求項 7のいず れか 1項に記載の撮像装置。
[9] 請求項 1から請求項 8の 、ずれか 1項に記載の撮像装置と、
前記車両の走行状態を検出する走行状態検出部と、
前記走行状態を示す走行状態データを記録する走行状態記録部と、 を有することを特徴とするドライブレコーダシステム。
PCT/JP2006/307764 2005-04-15 2006-04-12 撮像装置およびドライブレコーダシステム WO2006112333A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06731700A EP1874041A4 (en) 2005-04-15 2006-04-12 PICTURE DEVICE AND DRIVE RECORDING SYSTEM
US11/918,065 US20090051515A1 (en) 2005-04-15 2006-04-12 Imaging Apparatus and Drive Recorder System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-118655 2005-04-15
JP2005118655 2005-04-15

Publications (1)

Publication Number Publication Date
WO2006112333A1 true WO2006112333A1 (ja) 2006-10-26

Family

ID=37115057

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/307764 WO2006112333A1 (ja) 2005-04-15 2006-04-12 撮像装置およびドライブレコーダシステム

Country Status (3)

Country Link
US (1) US20090051515A1 (ja)
EP (1) EP1874041A4 (ja)
WO (1) WO2006112333A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018207494A (ja) * 2013-04-09 2018-12-27 株式会社ユピテル 車載用電子機器及びプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027497A1 (en) 2007-07-26 2009-01-29 Stephen Thomas Peacock Camera light
JP2009032143A (ja) * 2007-07-30 2009-02-12 Seiko Epson Corp ドライブレコーダ、ドライブレコーダシステム、ドライブレコーダの制御方法およびプログラム
CA2691780C (en) 2009-02-11 2015-09-22 Certusview Technologies, Llc Management system, and associated methods and apparatus, for providing automatic assesment of a locate operation
CA2761794C (en) * 2009-04-03 2016-06-28 Certusview Technologies, Llc Methods, apparatus, and systems for acquiring and analyzing vehicle data and generating an electronic representation of vehicle operations
JP5350928B2 (ja) * 2009-07-30 2013-11-27 オリンパスイメージング株式会社 カメラ及びカメラの制御方法
US20110115911A1 (en) * 2009-11-19 2011-05-19 Fang Kuo-Tsai On-board rear view mirror with an electronic video-audio recorder
JP5414588B2 (ja) * 2010-03-24 2014-02-12 株式会社東芝 車両運転支援用処理装置及び車両運転支援装置
JP5045785B2 (ja) * 2010-05-25 2012-10-10 株式会社ニコン 撮像装置
US20120286974A1 (en) * 2011-05-11 2012-11-15 Siemens Corporation Hit and Run Prevention and Documentation System for Vehicles
FR2983295A1 (fr) * 2011-11-29 2013-05-31 Renault Sa Systeme de detection de l'eblouissement, par les rayons du soleil, d'une camera equipant un vehicule automobile et procede correspondant
US20130264325A1 (en) * 2012-04-04 2013-10-10 GM Global Technology Operations LLC Remote high voltage switch for controlling a high voltage heater located inside a vehicle cabin
WO2014031834A1 (en) * 2012-08-23 2014-02-27 Smugmug, Inc. System and method for pre-recording video
EP3031695B1 (en) * 2013-08-06 2021-03-03 Mitsubishi Electric Corporation Train interior monitoring method, and train interior monitoring system
US20150112542A1 (en) * 2013-10-23 2015-04-23 Xrs Corporation Transportation event recorder for vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0638157A (ja) * 1992-07-17 1994-02-10 Hitachi Ltd ビデオカメラ
JPH10210395A (ja) * 1997-01-22 1998-08-07 Sankyo Seiki Mfg Co Ltd 画像記録装置
JP2002209173A (ja) * 2001-01-09 2002-07-26 Digitalact:Kk ドライブレコーダ及び該ドライブレコーダの機能を実現するための記録媒体
JP2003002256A (ja) * 2001-06-22 2003-01-08 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ
JP2003111071A (ja) * 2001-09-28 2003-04-11 Denso Corp 車載監視カメラ装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638273A (en) * 1995-03-29 1997-06-10 Remote Control Systems, Inc. Vehicle data storage and analysis system and methods
JPH10148858A (ja) * 1996-11-19 1998-06-02 Canon Inc 防振制御装置
US7088387B1 (en) * 1997-08-05 2006-08-08 Mitsubishi Electric Research Laboratories, Inc. Video recording device responsive to triggering event
US20030025599A1 (en) * 2001-05-11 2003-02-06 Monroe David A. Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events
AU5908000A (en) * 1999-07-02 2001-01-22 Hypermed Imaging, Inc. Imaging apparatus with means for fusing thermal and hyperspectral images
US6246933B1 (en) * 1999-11-04 2001-06-12 BAGUé ADOLFO VAEZA Traffic accident data recorder and traffic accident reproduction system and method
JP2002133117A (ja) * 2000-10-19 2002-05-10 Hirofumi Kawahara 自動車保険システム、自動車保険センターおよび自動車
US20020198640A1 (en) * 2001-06-25 2002-12-26 Gehlot Narayan L. Automatic vehicle logging system and method
US20030043292A1 (en) * 2001-08-31 2003-03-06 Pyle Norman C. System and method for automatic capture of light producing scenes
JP4018368B2 (ja) * 2001-10-30 2007-12-05 キヤノン株式会社 撮像装置及び該撮像装置の操作制御システム
US20030210806A1 (en) * 2002-05-07 2003-11-13 Hitachi, Ltd. Navigational information service with image capturing and sharing
JP2005014686A (ja) * 2003-06-24 2005-01-20 Matsushita Electric Ind Co Ltd ドライブレコーダ
US7667731B2 (en) * 2003-09-30 2010-02-23 At&T Intellectual Property I, L.P. Video recorder
US7492400B2 (en) * 2004-06-01 2009-02-17 The Board Of Trustees Of The Leland Stanford Junior University Adaptive pixel for high dynamic range and disturbance detection and correction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0638157A (ja) * 1992-07-17 1994-02-10 Hitachi Ltd ビデオカメラ
JPH10210395A (ja) * 1997-01-22 1998-08-07 Sankyo Seiki Mfg Co Ltd 画像記録装置
JP2002209173A (ja) * 2001-01-09 2002-07-26 Digitalact:Kk ドライブレコーダ及び該ドライブレコーダの機能を実現するための記録媒体
JP2003002256A (ja) * 2001-06-22 2003-01-08 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ
JP2003111071A (ja) * 2001-09-28 2003-04-11 Denso Corp 車載監視カメラ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1874041A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018207494A (ja) * 2013-04-09 2018-12-27 株式会社ユピテル 車載用電子機器及びプログラム

Also Published As

Publication number Publication date
EP1874041A1 (en) 2008-01-02
EP1874041A4 (en) 2009-07-29
US20090051515A1 (en) 2009-02-26

Similar Documents

Publication Publication Date Title
WO2006112333A1 (ja) 撮像装置およびドライブレコーダシステム
JP4872425B2 (ja) 撮像装置およびドライブレコーダシステム
WO2006120911A1 (ja) 撮像装置およびドライブレコーダシステム
JP2006345491A (ja) 撮像装置およびドライブレコーダシステム
US8290356B2 (en) Imaging device with image blurring reduction function
EP2571249B1 (en) Image synthesizing device, image synthesizing method and computer readable medium
KR101247645B1 (ko) 표시 제어 장치, 표시 제어 방법, 및 기록 매체
JP7151234B2 (ja) カメラシステムおよびイベント記録システム
US8072497B2 (en) Imaging apparatus and recording medium
JP4441919B2 (ja) 撮像装置及びそのプログラム
JP2011096063A (ja) ドライブレコーダ装置
KR20190089855A (ko) 촬상 소자 및 촬상 방법, 및 전자 기기
JP5102552B2 (ja) 画像処理システム、撮像装置及び出力装置
JP2006245815A (ja) 撮像装置
JP4710659B2 (ja) 撮像装置
JP2007325183A (ja) セキュリティ機能付き撮像装置
JP2007013586A (ja) 撮像装置
KR100951584B1 (ko) 신호 합성형 다중촬영 자동차용 영상기록장치
JP7231092B2 (ja) イベント記録システム
JP5278410B2 (ja) 映像記憶装置
JP5610818B2 (ja) 撮像装置及びその制御方法
JP2006222731A (ja) 撮像装置
KR101446896B1 (ko) 차량에서의 영상 기록 장치 및 그 운용 방법
JP2021158540A (ja) 表示制御装置、表示制御方法およびプログラム
JP2004158905A (ja) デジタルカメラの撮影方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006731700

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWE Wipo information: entry into national phase

Ref document number: 11918065

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2006731700

Country of ref document: EP