WO2007135856A1 - 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体 - Google Patents

撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体 Download PDF

Info

Publication number
WO2007135856A1
WO2007135856A1 PCT/JP2007/059504 JP2007059504W WO2007135856A1 WO 2007135856 A1 WO2007135856 A1 WO 2007135856A1 JP 2007059504 W JP2007059504 W JP 2007059504W WO 2007135856 A1 WO2007135856 A1 WO 2007135856A1
Authority
WO
WIPO (PCT)
Prior art keywords
photographing
image
moving body
unit
imaging
Prior art date
Application number
PCT/JP2007/059504
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Publication of WO2007135856A1 publication Critical patent/WO2007135856A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • B60R11/0235Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes of flat type, e.g. LCD
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/406Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components using wireless transmission
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Definitions

  • Imaging control apparatus imaging control method, imaging control program, and recording medium
  • the present invention relates to an imaging control device, an imaging control method, an imaging control program, and a recording medium that can output information related to an object existing around a moving body.
  • the use of the present invention is not limited to the above-described photographing control device, photographing control method, photographing control program, and recording medium.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 8-2977736
  • the imaging control device exists in the vicinity of the moving body and detection means for detecting an object existing in the vicinity of the moving body.
  • a control unit that controls an imaging unit that captures an image of the object to capture an image of the object detected by the detection unit; and an output unit that outputs the image captured by the imaging unit.
  • the imaging control method according to the invention of claim 9 controls a detection step of detecting an object existing around a moving body and an imaging means for imaging an image of the object existing around the moving body. And a control process for capturing an image of the object detected by the detection process, and an output process for outputting the image captured by the imaging means.
  • an imaging control program according to claim 10 causes a computer to execute the imaging control method according to claim 9.
  • a recording medium which is advantageous for the invention of claim 11 is characterized in that the photographing control program according to claim 10 is recorded in a computer-readable manner.
  • FIG. 1 is a block diagram showing a functional configuration of an imaging control apparatus according to the present embodiment.
  • FIG. 2 is a flowchart showing a procedure of imaging control processing by the imaging control apparatus according to the present embodiment.
  • FIG. 3 is an explanatory diagram showing an outline of a navigation device.
  • FIG. 4 is a block diagram showing a hardware configuration of the navigation device.
  • FIG. 5 is a flowchart showing a procedure of imaging control processing by the navigation device.
  • FIG. 6 is an explanatory view showing an example of a method for detecting an object existing around a vehicle by various sensors.
  • FIG. 7 is an explanatory diagram showing an example of attention information displayed on the display screen.
  • FIG. 1 is a block diagram showing a functional configuration of an imaging control apparatus that works according to the present embodiment.
  • the imaging control apparatus 100 includes a detection unit 101, a control unit 102, an imaging unit 103, a recognition unit 104, a determination unit 105, and an output unit 106.
  • the detection unit 101 detects an object existing around the moving body.
  • the object existing around the moving object is an object that can be an obstacle when the moving object moves, such as a building, a person, or another moving object that exists in front and side of the moving object.
  • the detection unit 101 detects an object existing around the moving body by using various sensors such as an ultrasonic sensor, an infrared sensor, and a radio wave sensor provided outside the moving body.
  • the detection by the detection unit 101 may be performed while the moving body is moving or stopped.
  • the detection target by the detection unit 101 is not limited to the object existing in front and side of the moving body, and for example, an object existing behind or above the moving object may be detected.
  • the detection unit 101 detects, for example, an object existing around the moving body, You may make it detect whether the said detected object exists in the predetermined angle range or predetermined distance range with respect to the said mobile body.
  • the predetermined angle range and the predetermined distance range are set in advance at the time of shipment of the imaging control apparatus 100, for example, and the setting values may be changed by the user.
  • the setting value may be dynamically changed based on information on the number of cameras that constitute the photographing unit 103, information on the installation direction, information on the moving speed of the moving object, and the like.
  • the control unit 102 controls the imaging unit 103 that captures an image of an object existing around the moving body, and captures an image of the object detected by the detection unit 101.
  • the control unit 102 controls the shooting direction, shooting size, focus, shutter speed, shutter timing, and the like of the shooting unit 103 based on information about the result detected by the detection unit 101, for example, by the detection unit 101. Take an image of the detected object.
  • the control unit 102 controls the plurality of cameras such as switching a camera to be further photographed.
  • the control unit 102 determines that the object detected by the detection unit 101 cannot be captured by a single camera, the control unit 102 combines the images captured by a plurality of cameras to create an entire image of the object. Control multiple cameras so that can be generated.
  • the information related to the result detected by the detecting unit 101 is information related to the direction, distance, size, etc. of the detected object, for example.
  • the control unit 102 controls the imaging unit 103 based on information on the state of the moving object such as the traveling speed of the moving object, so that shooting with higher accuracy can be performed. Also good.
  • the image capturing unit 103 captures an image of an object existing around the moving body.
  • the photographing unit 103 is provided on the moving body, for example, and photographs an image of an object existing around the moving body by a movable camera or a fixed camera controlled by the control unit 102.
  • the image photographed by the photographing unit 103 may be a still image or a moving image.
  • the camera that composes the shooting unit 103 has a zoom function and an autofocus function. As long as it has a function that can be controlled by the control unit 102, the function configuration and form thereof are not limited.
  • the photographing unit 103 may be constituted by a single camera, for example, or may be constituted by a plurality of cameras.
  • the recognition unit 104 recognizes the object detected by the detection unit 101 based on the image photographed by the photographing unit 103. For example, the recognition unit 104 first digitizes the image captured by the imaging unit 103. Next, corrections such as distortion and noise removal, enlargement, reduction, and rotation are performed on the image so that pattern matching can be performed accurately.
  • feature quantities feature parameters and feature patterns
  • the object detected by the detection unit 101 can be recognized by performing pattern matching between the extracted feature pattern and a standard pattern recorded in a database or the like. Further, the recognition unit 104 generates information related to the result of the recognition processing (hereinafter referred to as “recognition result information”).
  • the determination unit 105 determines whether or not the object detected by the detection unit 101 is a predetermined dangerous substance. For example, when the object force recognition unit 104 detected by the detection unit 101 determines that the person is a “person”, the determination unit 105 includes the “person” in the dangerous goods list recorded on a predetermined recording medium. It is determined whether or not the “person” is a predetermined dangerous object depending on whether or not it is. In addition, the determination unit 105 generates information (hereinafter referred to as “determination result information”) regarding the result of the determination process. Note that the determination unit 105 may determine the risk of the object detected by the detection unit 101 in a stepwise manner, such as “safety”, “caution”, and “danger”.
  • the output unit 106 outputs caution information for alerting the driver of the moving object.
  • the output unit 106 outputs at least one of the image captured by the imaging unit 103, the recognition result information generated by the recognition unit 104, and the determination result information generated by the determination unit 105 as attention information.
  • the output unit 106 is a display composed of text data, graphic data, image data, etc. for alerting the driver of the mobile body based on the determination result information generated by the determination unit 105. Data is generated and this display data is displayed on the screen of the display provided inside the mobile unit.
  • the output unit 106 displays an image photographed by the photographing unit 103 together with the display data on a display screen. Further, for example, the output unit 106 generates voice data for calling attention to the driver of the moving body based on the determination result information generated by the determining unit 105, and the voice data is provided inside the moving body. Output from the specified speech force.
  • the output from the output unit 106 gives attention to the driver of the moving body, for example, by turning on a warning lamp provided inside the moving body or operating a vibrator provided inside the moving body. Any form can be used as long as it can be encouraged.
  • the output unit 106 may detect the object force S detected by the detection unit 101, and the detection unit 101 may perform the output process only when the determination unit 105 determines that the object is a predetermined dangerous substance. Therefore, even if the detected object is not determined to be a predetermined dangerous object, the above output process may be performed. Further, the output method by the output unit 106 may be selected by the user.
  • FIG. 2 is a flowchart showing the procedure of the imaging control process performed by the imaging control apparatus 100 that is effective in the present embodiment.
  • the detection unit 101 detects an object existing around the moving body (step S201).
  • the control unit 102 controls the imaging unit 103 that captures an image of an object existing around the moving body, and captures an image of the object detected by the detection unit 101 (step S202).
  • the recognition unit 104 recognizes the object detected in step S201 based on the image photographed in step S202 (step S203).
  • the determination unit 105 determines whether or not the object detected in step S201 is a predetermined dangerous object based on the result recognized in step S203 (step S204).
  • the output unit 106 outputs caution information for alerting the driver of the moving body (step S2 05), and the series of processes is terminated.
  • the imaging control device 100 that is effective in the present embodiment, the timing at which a dangerous substance exists around the moving body without causing the moving body driver to perform an operation other than driving. The image of this dangerous material can be displayed on the display screen. For this reason, the driver can be alerted effectively. As a result, the safety of the moving body can be improved.
  • the functional configuration of the imaging control device 100 is not limited to the functional configuration of the imaging control device 100 described with reference to FIG. 1, and for example, the imaging configuration described with reference to FIG.
  • a determination unit that determines whether or not the object detected by the detection unit 101 is within a predetermined angle range or a predetermined distance range with respect to the moving object.
  • the functional configuration may further include a movement control unit that controls the moving body so as to avoid the object detected by the detection unit 101 based on information on the result determined by the unit 105.
  • a dangerous object is present in the vicinity of the moving body and within a predetermined angle range or a predetermined distance range without allowing the driver of the moving body to perform an operation other than driving.
  • the image of this dangerous article can be displayed on the display screen at the timing when the symbol exists, and the moving body can be controlled to avoid the dangerous article. For this reason, the driver can be alerted effectively and the moving body can be operated to avoid dangerous goods. As a result, the safety of the moving object can be further improved.
  • an imaging control device an imaging control method, an imaging control program, and a recording medium according to the present invention will be described below in detail with reference to the accompanying drawings.
  • the imaging control device, the imaging control method, the imaging control program, and the recording medium according to the present invention are provided by a navigation device mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle). An example of the implementation will be described.
  • FIG. 3 is an explanatory diagram showing an outline of the navigation device 300.
  • the navigation system provided in the vehicle 310 The shadow device 300 includes a navigation device main body (not shown), a display 301, a speaker 302, and a camera 303.
  • the navigation device main body is provided in, for example, a trunk room inside the vehicle 310, and controls the entire navigation device 300.
  • the display 301 is provided in front of the driver's seat inside the vehicle 310, and displays caution information such as map information composed of image data, text data, and the like under the control of the navigation device body.
  • the display 301 displays, for example, a warning message that there is a predetermined dangerous object around the vehicle 310, an image of the dangerous object photographed by the camera 303, and the like under the control of the navigation apparatus body.
  • the display 301 is configured in any form as long as it is capable of displaying the above caution information, such as a CRT, a TFT ⁇ night crystal display, or a plasma display.
  • a plurality of displays 301 such as a combination of a main display and a sub display may be used.
  • Speaker 302 is provided on the side of the driver's seat and passenger seat inside vehicle 310, and outputs various audio information under the control of the navigation device body.
  • the speaker 302 outputs a warning message to the effect that a predetermined dangerous object exists around the vehicle 310, for example, under the control of the navigation device body.
  • the camera 303 is provided on, for example, a bonnet, a dashboard, or a roof, and is movable so that the photographing angle can be changed.
  • the camera 303 is movable by, for example, control of the navigation apparatus main body, and captures images (still images and moving images) of objects existing in front of or on the side of the vehicle 310.
  • the camera 303 may be, for example, a fixed type whose imaging angle cannot be changed. In this case, a plurality of cameras 303 are arranged so that different directions can be taken.
  • the camera 303 may be arranged so that an image of an object existing behind or above the vehicle 310 can be taken.
  • the device configuration of the navigation device 300 is not limited to the above, and the navigation device main body, the display 301, the speaker 302, and the camera 303, for example, are a single body. It may be. Further, the navigation device 300 may be a removable device having portability.
  • FIG. 4 is a block diagram showing a hardware configuration of the navigation device 300. As shown in FIG. 4
  • the navigation device 300 includes a CPU 401, a ROM 402, a RAM 403, a magnetic disk drive 404, a magnetic disk 405, an optical disk drive 406, an optical disk 407, and an audio IZF ( Interface) 408, microphone 409, input device 410, video I / F 411, communication IZF 412, GPS unit 413, various sensors 414, display 301, speaker 302, and camera 303.
  • a bus 420 or the like is connected to a bus 420 or the like.
  • the CPU 401 governs overall control of the navigation device 300.
  • the ROM 402 records programs such as a boot program and a shooting control program.
  • the RAM 403 is used as a work area for the CPU 401. That is, the CPU 401 controls the entire navigation apparatus 300 by executing various programs recorded in the ROM 402 while using the RAM 403 as a work area.
  • the magnetic disk drive 404 controls reading / writing of data with respect to the magnetic disk 405 according to the control of the CPU 401.
  • the magnetic disk 405 records data written under the control of the magnetic disk drive 404.
  • the magnetic disk 405 for example, HD (node disk) or FD (flexible disk) can be used.
  • the optical disc drive 406 controls reading / writing of data with respect to the optical disc 407 according to the control of the CPU 401.
  • the optical disc 407 is a detachable recording medium from which data is read according to the control of the optical disc drive 406.
  • the optical disk 407 can also use a writable recording medium.
  • a detachable recording medium an optical disk 407, a memory card, or the like may be used.
  • Examples of information recorded on the magnetic disk 405 and the optical disk 407 include map data and function data.
  • the map data includes background data representing features such as buildings, rivers, and the ground surface, and road shape data representing the shape of the road. It consists of multiple data files divided by district.
  • the road shape data further includes traffic condition data.
  • the traffic condition data includes, for example, the presence or absence of traffic lights and pedestrian crossings for each node, the presence or absence of entrances and junctions on highways, the length (distance) for each link, road width, direction of travel, road type (high speed Road, toll road, general road, etc.).
  • the functional data is three-dimensional data representing the shape of the facility on the map, character data representing the description of the facility, and other various data other than the map data.
  • Map data and function data are recorded in blocks divided by district or function. Specifically, for example, the map data is recorded in such a state that each map can be divided into blocks such that each map represents a predetermined area on the map displayed on the display screen. Also, for example, the function data is recorded in a state where each function can be divided into a plurality of blocks so as to realize one function.
  • the function data is data for realizing functions such as program data that realizes route search, calculation of required time, route guidance, and the like.
  • Each of the map data and function data is composed of multiple data files divided by district or function.
  • Audio I / F 408 is connected to microphone 409 for audio input and speaker 302 for audio output.
  • the sound received by the microphone 409 is A / D converted in the sound I / F 408.
  • the microphone 409 is installed near the sun visor of the vehicle 310, and the number may be one or more. Note that the sound input from the microphone 409 can be recorded on the magnetic disk 405 or the optical disk 407 as sound data.
  • Examples of the input device 410 include a remote controller, a keyboard, and a touch panel that include a plurality of keys for inputting characters, numerical values, various instructions, and the like.
  • the input device 410 may be realized by any one form of the remote control, the keyboard, and the touch panel.
  • the input device 410 may be realized by a plurality of forms.
  • the video I / F 411 is connected to the display 301 and the camera 303.
  • the video IZF411 has a graphic controller that controls the entire display 301 and a VRAM (Video RAM) that temporarily records image information that can be displayed immediately. It consists of a buffer memory and a control IC that controls the display 301 based on image data output from the graphic controller.
  • VRAM Video RAM
  • the communication I / F 412 is connected to a network via radio and functions as an interface between the navigation device 300 and the CPU 401.
  • the communication I / F 412 is further connected to a communication network such as the Internet via a radio, and functions as an interface between the communication network and the CPU 401.
  • Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like.
  • the communication I / F 412 is composed of, for example, an FM tuner, a VICS (Vehicle Information and Communication System) / beacon receiver, a radio navigation device, and other navigation devices, and traffic congestion distributed from the VICS center.
  • Road traffic information such as traffic regulations.
  • VICS is a registered trademark.
  • the 0-3 unit 413 receives radio waves from the GPS satellites and outputs information indicating the current position of the vehicle 310.
  • the output information of the GPS unit 413 is used when the CPU 401 calculates the current position of the vehicle 310 together with output values of various sensors 414 described later.
  • the information indicating the current position is information for specifying one point on the map data such as latitude'longitude and altitude.
  • Various sensors 414 output information for determining the position and state of the vehicle 310, such as a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor. Information output by these various sensors 414 is used for the calculation of the current position of the vehicle 310 by the CPU 401 and the calculation of the amount of change in speed and direction.
  • various sensors 414 such as a radio wave sensor, an infrared sensor, and an ultrasonic sensor provided outside the vehicle 310 detect information existing around the vehicle 310, and information for photographing the object with the camera 303. Is output.
  • the display 301 displays icons, cursors, menus, windows, or various data such as characters and images.
  • this display 301 for example, a CRT, TFT liquid crystal display, plasma display, or the like can be adopted.
  • the sound 302 outputs a sound obtained by DZA-converting a predetermined sound signal in the sound I / F 408.
  • the speaker 302 is not limited to a fixed type as shown in FIG. 3, and may be a headphone, for example.
  • the camera 303 captures an image outside the vehicle 310.
  • the image taken by the camera 303 is not limited to a still image, but may be a movie.
  • an image photographed by the camera 303 is temporarily recorded in the RAM 403 or the like and used for photographing control processing according to the procedure described with reference to FIG.
  • the determination unit 105 realizes the functions of the CPU 401, the photographing unit 103, the camera 303, and the output unit 106, the display 301 and the speaker 302.
  • FIG. 5 is a flowchart showing the procedure of the imaging control process by the navigation device 300.
  • step S501 it is determined whether or not an object existing around the vehicle 310 has been detected.
  • Objects existing around the vehicle 310 are detected by various sensors 414 such as an ultrasonic sensor, an infrared sensor, and a radio wave sensor provided outside the vehicle 310, for example. If it is determined in step S501 that an object existing around the vehicle 310 has been detected (step S501: Yes), the process proceeds to step S502.
  • step S501 determines whether an object existing around the vehicle 310 has not been detected. If it is determined in step S501 that an object existing around the vehicle 310 has not been detected (step S501: No), the process returns to step S501 and it is determined that an object present around the vehicle 310 has been detected. Repeat until the detection process in step S501. Note that an example of a method for detecting an object existing around the vehicle 310 by the various sensors 414 will be described later with reference to FIG.
  • the position of the object detected in step S501 is calculated (step S502).
  • the position of the object detected in step S501 is information on the position of the object output from various sensors 414 such as an ultrasonic sensor, infrared sensor, and radio wave sensor (for example, information on the direction of the object and information on the distance to the object). ).
  • step S503 based on the information on the position of the object calculated in step S502, It is determined whether or not the body position is within a predetermined angle range (step S503).
  • the predetermined angle range is set in advance at the time of shipment of the navigation device 300, for example, and the set value may be changed by the user. Further, the setting value may be dynamically changed based on information related to the number of cameras 303 set and the installation direction, information related to the vehicle speed of the vehicle 310, and the like.
  • step S503 If it is determined in step S503 that the position of the object is within the predetermined angle range (step S503: Yes), the process proceeds to step S504. On the other hand, if it is determined in step S503 that the position of the object is not within the predetermined angle range (step S503: No), the process returns to step S501, and the processing from step S501 is performed.
  • step S504 based on the information regarding the position of the object calculated in step S502, it is determined whether the position of the object is within a predetermined distance range (step S504).
  • the predetermined distance range is set in advance at the time of shipment of the navigation device 300, for example, and the set value may be changed by the user. Further, the setting value may be dynamically changed based on information related to the number of cameras 303 set and the installation direction, information related to the vehicle speed of the vehicle 310, and the like.
  • step S504 If it is determined in step S504 that the position of the object is within the predetermined distance range (step S504: Yes), the process proceeds to step S505. On the other hand, if it is determined in step S504 that the position of the object is not within the predetermined distance range (step S504: No), the process returns to step S501, and the processing from step S501 is performed.
  • an image of the object detected in step S501 is taken by the camera 303 (step S505).
  • the camera 303 uses the control program for controlling the camera 303 based on the information on the position of the object calculated in step S502 and the like, so that the shooting direction, shooting size, focus, shutter speed, shutter timing, Etc. are controlled.
  • the camera 303 is constituted by a plurality of cameras, in addition to the above, switching of the camera 303 for further photographing is controlled.
  • the object detected in step S501 is recognized based on the image taken in step S505 (step S506).
  • the object detected in step S501 is, for example, an image.
  • various processes such as image digitization processing, image correction processing, feature amount extraction from images (feature parameters and feature patterns), and pattern matching processing between extracted feature patterns and standard patterns Be recognized.
  • step S507 based on the information regarding the result recognized in step S506, it is determined whether or not the object detected in step S501 is a predetermined dangerous substance (step S507).
  • the determination process in step S507 is determined based on, for example, a dangerous goods list recorded on a predetermined recording medium.
  • the result of the judgment process in step S507 is not limited to the judgment of whether or not it is a dangerous substance. For example, “safety”, “caution”, “danger”, etc. are judged in stages. It may be a thing.
  • step S507 If it is determined in step S507 that the object detected in step S501 is a predetermined dangerous substance (step S507: Yes), the process proceeds to step S508. On the other hand, if it is determined in step S507 that the object detected in step S501 is not a predetermined dangerous substance (step S507: No), the process returns to step S501, and the processing from step S501 is performed. Even if it is determined in step S507 that the object detected in step S501 is not a predetermined dangerous object (step S507: No), the process proceeds to step S508 without returning to step S501. Moyo-Ryo.
  • attention information is output based on the image taken in step S505, information on the result recognized in step S506, information on the result determined in step S507, and the like (step S508).
  • an image photographed by the photographing unit 103 is displayed on the screen of the display 301.
  • it is composed of text data, graphic data, image data, etc. for alerting the driver of the vehicle 310 based on information on the result recognized in step S506 and information on the result determined in step S507.
  • Display data to be generated is generated as attention information, and this display data is displayed on the screen of the display 301.
  • voice data for alerting the driver of the vehicle 310 based on information on the result recognized in step S506 and information on the result determined in step S507 is generated as attention information.
  • This audio data is output from a speaker provided inside the vehicle 310.
  • the warning information displayed on the screen of display 301 An example of the report will be described later with reference to FIG.
  • the process may return to step S501 without ending the series of processes, and subsequently perform the process from step S501.
  • FIG. 6 is an explanatory view showing an example of a method for detecting an object existing around the vehicle 310 by various sensors 414.
  • a region 610 is a region having a predetermined angle range or a predetermined distance range with respect to the vehicle 310, and is a region where an object can be detected by various sensors 414.
  • a pedestrian 601 shown in FIG. , 602, 603, only the pedestrian 602 present in this area 610 is detected by the various sensors 414, for example, by a movable camera 303 provided on the hood of the vehicle 310 as shown in FIG. Taken.
  • FIG. 7 is an explanatory diagram showing an example of attention information displayed on the screen of the display 301.
  • a screen 700 is output on the screen of the display 301 in order to call attention to the driver of the vehicle 310 in the photographing control process according to the procedure described with reference to FIG. Yes, it includes a captured image display area 710, an object position display area 720, and a warning message 730.
  • this screen 700 for example, in the photographed image display area 710, in the photographing control process according to the procedure described with reference to FIG. 5, as detected with various sensors 414 as described with reference to FIG.
  • An image of pedestrian 602 taken by camera 303 is displayed.
  • the object position display area 720 a plan view showing the relative position of the pedestrian 602 with the vehicle 310 is displayed.
  • "Warning! There is a person on the left side” is displayed as warning message 730.
  • a screen 700 is displayed on the screen of the display 301, and at the same time, a sound for alerting the driver of the vehicle 310 is also output from the speaker 302 as shown in FIG. .
  • the display method and display layout of the caution information for alerting the driver of the vehicle 310 are not limited to the above.
  • the image of the pedestrian 602 taken by the camera 303 is displayed.
  • it may be displayed on the screen of the display 301 so as to be superimposed on the map data or aligned with the map data.
  • map data is displayed on one display (for example, the main display), and attention is paid to the driver of the vehicle 310.
  • Attention information for prompting may be displayed on the other display (for example, sub display).
  • attention information for alerting the driver of the vehicle 310 may be displayed on both displays. Further, for example, even when various operation menus are displayed on the display 301, warning information for alerting the driver of the vehicle 310 may be displayed in an interrupted manner. Further, for example, a plurality of images of an object photographed by the camera 303 may be displayed on the screen of the display 301.
  • the guidance object such as a sign is displayed on the screen of the display 301, so that the contents described in the guidance object for the driver are displayed. Can be confirmed on the display screen. For this reason, for example, a driver can concentrate on driving without overlooking guides such as signs. As a result, the safety of the vehicle 310 can be further improved.
  • the imaging control process by the navigation device 300 that is useful in the present embodiment is not limited to the imaging control process according to the procedure described with reference to FIG. 5, but is based on, for example, the procedure described with reference to FIG.
  • a movement control process for controlling the traveling of the vehicle 310 so as to avoid dangerous objects, such as applying a brake, based on the result determined in step S507 is further performed. Also good.
  • an image of the dangerous object is displayed on the display 301 at the timing when the dangerous object is present around the vehicle 310 without causing the driver of the vehicle 310 to perform an operation other than driving.
  • the vehicle 310 can be controlled to avoid dangerous materials. For this reason, the driver can be alerted effectively and the vehicle 310 can be driven to avoid dangerous goods. As a result, the safety of the vehicle 310 can be further improved.
  • the imaging control method described in the present embodiment can be realized by executing a program prepared in advance on a computer included in navigation device 300.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer.
  • the program may be a transmission medium that can be distributed via a network such as the Internet.

Abstract

 撮影制御装置(100)は、検出部(101)と、制御部(102)と、撮影部(103)と、認識部(104)と、判断部(105)と、出力部(106)とを備える。検出部(101)は、移動体周辺に存在する物体を検出する。制御部(102)は、撮影部(103)を制御して、検出部(101)によって検出された物体の画像を撮影する。撮影部(103)は、移動体周辺に存在する物体の画像を撮影する。認識部(104)は、検出部(101)によって検出された物体を認識する。判断部(105)は、検出部(101)によって検出された物体が所定の危険物であるか否かを判断する。出力部(106)は、撮影部(103)によって撮影された画像、認識部(104)によって認識された結果に関する情報、および判断部(105)によって判断された結果に関する情報の少なくともいずれか一つを出力する。

Description

明 細 書
撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体 技術分野
[0001] この発明は、移動体周辺に存在する物体に関する情報を出力することができる撮 影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体に関する。ただ し、この発明の利用は、上述した撮影制御装置、撮影制御方法、撮影制御プロダラ ム、および記録媒体には限られない。
背景技術
[0002] 従来より、たとえば四輪車による左折巻き込み事故など、車両の運転者からの死角 に位置する危険物(たとえば、人物、障害物、他の走行車両など)との交通事故が後 を絶たない。そこで、このような交通事故を防止するため、たとえば車両外部に搭載さ れたカメラによって車両周辺の画像を撮影し、この画像を車両内部に設けられたディ スプレイの画面上に表示することにより、運転者に対して車両周辺の状況を認識させ ることができる車両用撮影装置が提供されている (たとえば、下記特許文献 1参照。 )
[0003] 特許文献 1 :特開平 8— 297736号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上記特許文献 1に記載の従来技術にあっては、車両の周辺に危険 物が存在してレ、るか否かの判断は、ディスプレイの画面上に表示された画像に基づ いて運転者がおこなわなければならなレ、。このため、車両の周辺に危険物が存在し ている場合であっても、運転者に対して効果的に注意を促すことができず、車両の安 全性を高めることができないなどといった問題が生じていた。また、一般に一台のカメ ラでの撮影角度 (範囲)には限界があるため危険物が存在していても十分撮影しきれ ない場合があり、また、複数のカメラを設置して撮影したとしても、今度は逆にディス プレイの表示画面の領域に限界があるため、撮影した映像を十分に表示しきれない 場合があり、また、ディスプレイを大きくして映像を表示したとしても情報量が多くなる ことが懸念され、運転者にとって瞬時に危険物を把握 (認識)することが難しくなり、よ つて、的確な判断ができなくなる虞があった。
課題を解決するための手段
[0005] 上述した課題を解決し、 目的を達成するため、請求項 1の発明にかかる撮影制御 装置は、移動体周辺に存在する物体を検出する検出手段と、前記移動体周辺に存 在する物体の画像を撮影する撮影手段を制御して、前記検出手段によって検出され た物体の画像を撮影する制御手段と、前記撮影手段によって撮影された画像を出力 する出力手段と、を備えたことを特徴とする。
[0006] また、請求項 9の発明にかかる撮影制御方法は、移動体周辺に存在する物体を検 出する検出工程と、前記移動体周辺に存在する物体の画像を撮影する撮影手段を 制御して、前記検出工程によって検出された物体の画像を撮影する制御工程と、前 記撮影手段によって撮影された画像を出力する出力工程と、を含んだことを特徴とす る。
[0007] また、請求項 10の発明に力かる撮影制御プログラムは、請求項 9に記載の撮影制 御方法をコンピュータに実行させることを特徴とする。
[0008] また、請求項 11の発明に力、かる記録媒体は、請求項 10に記載の撮影制御プログ ラムをコンピュータに読み取り可能に記録したことを特徴とする。
図面の簡単な説明
[0009] [図 1]図 1は、本実施の形態にかかる撮影制御装置の機能的構成を示すブロック図で ある。
[図 2]図 2は、本実施の形態にかかる撮影制御装置による撮影制御処理の手順を示 すフローチャートである。
[図 3]図 3は、ナビゲーシヨン装置の概要を示す説明図である。
[図 4]図 4は、ナビゲーシヨン装置のハードウェア構成を示すブロック図である。
[図 5]図 5は、ナビゲーシヨン装置による撮影制御処理の手順を示すフローチャートで ある。
[図 6]図 6は、各種センサによる車両周辺に存在する物体の検出方法の一例を示す 説明図である。 [図 7]図 7は、ディスプレイの画面上に表示された注意情報の一例を示す説明図であ る。
符号の説明
[0010] 100 撮影制御装置
101 検出部
102 制御部
103 撮影部
104 認識部
105 判断部
106 出力部
発明を実施するための最良の形態
[0011] 以下に添付図面を参照して、この発明にかかる撮影制御装置、撮影制御方法、撮 影制御プログラムおよび記録媒体の好適な実施の形態を詳細に説明する。
[0012] (実施の形態)
(撮影制御装置の機能的構成)
まず、本実施の形態にかかる撮影制御装置の機能的構成について説明する。図 1 は、本実施の形態に力かる撮影制御装置の機能的構成を示すブロック図である。図 1において、撮影制御装置 100は、検出部 101と、制御部 102と、撮影部 103と、認 識部 104と、判断部 105と、出力部 106とによって構成されている。
[0013] 検出部 101は、移動体周辺に存在する物体を検出する。ここで、移動体周辺に存 在する物体とは、たとえば移動体の前方および側方に存在する建物、人物、他の移 動体など、移動体が移動するにあたり障害物となりえるものである。この検出部 101 は、たとえば移動体外部に設けられた超音波センサ、赤外線センサ、電波センサな どの各種センサなどにより、移動体周辺に存在する物体を検出する。
[0014] ここで、検出部 101による検出は、移動体の移動中であっても停止中であってもよ レ、。また、検出部 101による検出対象物は、移動体の前方および側方に存在する物 体に限らず、たとえば移動体の後方や上方に存在する物体を検出するようにしてもよ レ、。また、検出部 101は、たとえば移動体周辺に存在する物体を検出するとともに、 当該検出した物体が当該移動体に対して所定の角度範囲内または所定の距離範囲 内にあるかを検出するようにしてもよい。なお、上記所定の角度範囲および上記所定 の距離範囲は、たとえば撮影制御装置 100の出荷時にあらかじめ設定されているも のであり、ユーザによって設定値を変更することができるようにしてもよい。また、撮影 部 103を構成するカメラの設定台数や設置方向に関する情報、移動体の移動速度 に関する情報などに基づいて設定値を動的に変更することができるようにしてもよレヽ
[0015] 制御部 102は、移動体周辺に存在する物体の画像を撮影する撮影部 103を制御 して、検出部 101によって検出された物体の画像を撮影する。制御部 102は、たとえ ば検出部 101によって検出された結果に関する情報に基づいて、撮影部 103の撮 影方向、撮影サイズ、フォーカス、シャッタースピード、シャッタータイミングなどを制御 することによって、検出部 101によって検出された物体の画像を撮影する。
[0016] また、制御部 102は、たとえば撮影部 103が複数台のカメラによって構成されてい る場合は、上記に加え、さらに撮影をおこなうカメラを切り替えるなど複数台のカメラを 制御する。また、制御部 102は、検出部 101によって検出された物体を 1台のカメラ で撮影しきれないと判断した場合は、複数台のカメラによって撮影された画像を合成 することによってこの物体の全体画像を生成することができるように、複数台のカメラ を制御する。
[0017] ここで、検出部 101によって検出された結果に関する情報とは、たとえば検出され た物体の方向、距離、大きさなどに関する情報である。なお、制御部 102は、上記情 報に加えて、さらに移動体の走行速度など移動体の状態に関する情報に基づいた 撮影部 103の制御をおこなうことによって、より精度の高い撮影をおこなうようにしても よい。
[0018] 撮影部 103は、移動体周辺に存在する物体の画像を撮影する。この撮影部 103は 、たとえば移動体に設けられ、制御部 102によって制御された可動式のカメラまたは 固定式のカメラなどによって、移動体周辺に存在する物体の画像を撮影する。ここで 、撮影部 103が撮影する画像は、静止画であっても動画であってもよい。また、撮影 部 103を構成するカメラは、ズーム機能を備えたもの、オートフォーカス機能を備えた ものなど、制御部 102による制御が可能な機能を備えたものであれば、その機能構 成や形態は問わない。なお、撮影部 103は、たとえば 1台のカメラによって構成され てレ、てもよく、複数台のカメラによって構成されてレ、てもよレ、。
[0019] 認識部 104は、撮影部 103によって撮影された画像に基づいて、検出部 101によ つて検出された物体を認識する。たとえば、認識部 104は、まず、撮影部 103によつ て撮影された画像をデジタル化する。つぎに、パターンマッチングを正確におこなうこ とができるように、この画像に対する歪みやノイズの除去、拡大、縮小、回転などの補 正をおこなう。
[0020] そして、この画像に写し出されている物体の特徴量 (特徴パラメータおよび特徴パタ ーン)が抽出される。そして抽出された特徴パターンと、データベースなどに記録され ている標準パターンとのパターンマッチングをおこなうことによって、検出部 101によ つて検出された物体を認識することができる。また、認識部 104は、上記認識処理を おこなった結果に関する情報 (以下、「認識結果情報」という)を生成する。
[0021] 判断部 105は、認識部 104によって認識された結果に基づいて、検出部 101によ つて検出された物体が所定の危険物であるか否かを判断する。たとえば検出部 101 によって検出された物体力 認識部 104によって「人物」であると判断された場合、判 断部 105は、この「人物」が所定の記録媒体に記録された危険物リストに含まれてい るか否かによって、「人物」が所定の危険物であるか否かを判断する。また、判断部 1 05は、上記判断処理をおこなった結果に関する情報 (以下、「判断結果情報」という) を生成する。なお、判断部 105は、たとえば「安全」、「注意」、「危険」など、検出部 10 1によって検出された物体の危険性を段階的に判断するようにしてもよい。
[0022] 出力部 106は、移動体の運転者に対して注意を促すための注意情報を出力する。
出力部 106は、注意情報として、撮影部 103によって撮影された画像、認識部 104 によって生成された認識結果情報、および判断部 105によって生成された判断結果 情報の少なくともいずれか一つを出力する。たとえば出力部 106は、判断部 105によ つて生成された判断結果情報に基づいて、移動体の運転者に対して注意を促すた めのテキストデータ、図形データ、画像データなどによって構成される表示データを 生成し、この表示データを移動体内部に設けられたディスプレイの画面上に表示す る。
[0023] また、たとえば出力部 106は、上記表示データとともに、撮影部 103によって撮影さ れた画像をディスプレイの画面上に表示する。また、たとえば出力部 106は、判断部 105によって生成された判断結果情報に基づいて、移動体の運転者に対して注意を 促すための音声データを生成し、この音声データを移動体内部に設けられたスピー 力から出力する。
[0024] なお、出力部 106による出力は、たとえば移動体内部に設けられた警告ランプを点 灯させる、移動体内部に設けられたバイブレータを作動させるなど、移動体の運転者 に対して注意を促すことができるものであれば、その形態は問わない。また、出力部 1 06は、検出部 101によって検出された物体力 S、判断部 105によって所定の危険物で あると判断された場合のみ上記出力処理をおこなうようにしてもよぐ検出部 101によ つて検出された物体が、所定の危険物であると判断されなかった場合であっても上 記出力処理をおこなうようにしてもよレ、。また、出力部 106による出力方法をユーザに よってあら力じめ選択しておくことができるようにしてもよい。
[0025] (撮影制御装置 100による撮影制御処理の手順)
つぎに、本実施の形態に力かる撮影制御装置 100による撮影制御処理の手順に ついて説明する。図 2は、本実施の形態に力かる撮影制御装置 100による撮影制御 処理の手順を示すフローチャートである。
[0026] まず、検出部 101によって、移動体周辺に存在する物体を検出する(ステップ S20 1)。つぎに、制御部 102によって、移動体周辺に存在する物体の画像を撮影する撮 影部 103を制御して、検出部 101によって検出された物体の画像を撮影する(ステツ プ S202)。
[0027] つぎに、認識部 104によって、ステップ S202で撮影された画像に基づいて、ステツ プ S201で検出された物体を認識する(ステップ S203)。つぎに、判断部 105によつ て、ステップ S203で認識された結果に基づいて、ステップ S201で検出された物体 が所定の危険物であるか否力、を判断する(ステップ S204)。そして、出力部 106によ つて、移動体の運転者に対して注意を促すための注意情報を出力して (ステップ S2 05)、一連の処理を終了する。 [0028] 以上説明したように、本実施の形態に力かる撮影制御装置 100によれば、移動体 の運転者に運転以外の操作をおこなわせることなぐ移動体の周辺に危険物が存在 したタイミングで、この危険物の画像をディスプレイの画面上に表示することができる 。このため、運転者に対して効果的に注意を促すことができる。この結果、移動体の 安全性を高めることができる。
[0029] なお、本実施の形態にかかる撮影制御装置 100の機能的構成は、図 1を用いて説 明した撮影制御装置 100の機能的構成に限らず、たとえば図 1を用いて説明した撮 影制御装置 100の機能的構成に加え、検出部 101によって検出された物体が移動 体に対して所定の角度範囲内または所定の距離範囲内にあるか否力 ^判定する判 定部や、判断部 105によって判断された結果に関する情報などに基づいて、検出部 101によって検出された物体を回避するように移動体を制御する移動制御部をさら に備えた機能的構成であってもよい。
[0030] このような撮影制御装置 100によれば、移動体の運転者に運転以外の操作をおこ なわせることなぐ移動体の周辺、かつ所定の角度範囲内または所定の距離範囲内 に危険物が存在したタイミングで、この危険物の画像をディスプレイの画面上に表示 することができるうえ、危険物を回避するように移動体を制御することができる。このた め、運転者に対して効果的に注意を促すことができるうえ、危険物を回避するように 移動体を動作させることができる。この結果、移動体の安全性をより高めることができ る。
実施例
[0031] 以下に添付図面を参照して、この発明にかかる撮影制御装置、撮影制御方法、撮 影制御プログラムおよび記録媒体の好適な実施例を詳細に説明する。本実施例で は、たとえば車両(四輪車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン 装置によって、この発明にかかる撮影制御装置、撮影制御方法、撮影制御プロダラ ムおよび記録媒体を実施した場合の一例について説明する。
[0032] (ナビゲーシヨン装置 300の概要)
まず、ナビゲーシヨン装置 300の概要について説明する。図 3はナビゲーシヨン装 置 300の概要を示す説明図である。図 3において、車両 310に設けられたナビゲー シヨン装置 300は、図示を省略するナビゲーシヨン装置本体と、ディスプレイ 301と、 スピーカ 302と、カメラ 303とを備えて構成されている。
[0033] このうち、ナビゲーシヨン装置本体は、たとえば車両 310内部のトランクルームなど に設けられており、ナビゲーシヨン装置 300全体の制御を司る。ディスプレイ 301は、 車両 310内部の運転席前方に設けられており、ナビゲーシヨン装置本体の制御によ つて、画像データやテキストデータなどによって構成された地図情報などの注意情報 を表示する。ディスプレイ 301は、たとえばナビゲーシヨン装置本体の制御によって、 車両 310の周辺に所定の危険物が存在する旨の警告メッセージや、カメラ 303によ つて撮影された危険物の画像などを表示する。
[0034] なお、ディスプレイ 301は、 CRT、 TFT^夜晶ディスプレイ、プラズマディスプレイなど 上記注意情報を表示することが可能なものであればどのような形態のものであっても ィ 301によって構成されていてもよぐメインディスプレイとサブディスプレイとの組み 合わせなど複数台のディスプレイ 301によって構成されていてもよい。
[0035] スピーカ 302は、車両 310内部の運転席および助手席の側方に設けられており、 ナビゲーシヨン装置本体の制御によって、各種音声情報を出力する。スピーカ 302は 、たとえばナビゲーシヨン装置本体の制御によって、車両 310の周辺に所定の危険 物が存在する旨の警告メッセージを音声出力する。
[0036] カメラ 303は、たとえばボンネット上、ダッシュボード上、屋根上などに設けられてお り、撮影角度が変更可能な可動式である。このカメラ 303は、たとえばナビゲーシヨン 装置本体の制御によって可動し、車両 310の前方や側方に存在する物体の画像(静 止画および動画)を撮影する。
[0037] なお、カメラ 303は、たとえば撮影角度が変更不可能な固定式のものであってもよく 、この場合、それぞれ異なる方向を撮影することができるように複数のカメラ 303を配 置するようにしてもよレ、。また、たとえば車両 310の後方や上方に存在する物体の画 像を撮影することができるようにカメラ 303を配置するようにしてもょレ、。
[0038] なお、ナビゲーシヨン装置 300の装置構成は、上記に限らず、たとえばナビグーショ ン装置本体、ディスプレイ 301、スピーカ 302およびカメラ 303がー体となっているも のであってもよい。また、ナビゲーシヨン装置 300は、可搬性を有する着脱可能なもの であってもよい。
[0039] (ナビゲーシヨン装置 300のハードウェア構成)
つぎに、ナビゲーシヨン装置 300のハードウェア構成について説明する。図 4は、ナ ピゲーシヨン装置 300のハードウェア構成を示すブロック図である。
[0040] 図 4におレヽて、ナビゲーシヨン装置 300は、 CPU401と、 ROM402と、 RAM403と 、磁気ディスクドライブ 404と、磁気ディスク 405と、光ディスクドライブ 406と、光デイス ク 407と、音声 IZF (インターフェース) 408と、マイク 409と、入力デバイス 410と、映 像 I/F411と、通信 IZF412と、 GPSユニット 413と、各種センサ 414と、ディスプレ ィ 301と、スピーカ 302と、カメラ 303とを備えており、上記各構成部は、バス 420など によつてそれぞれ接続されてレ、る。
[0041] まず、 CPU401は、ナビゲーシヨン装置 300の全体の制御を司る。 ROM402は、 ブートプログラム、撮影制御プログラムなどのプログラムを記録している。また、 RAM 403は、 CPU401のワークエリアとして使用される。すなわち、 CPU401は、 RAM4 03をワークエリアとして使用しながら、 ROM402に記録された各種プログラムを実行 することによって、ナビゲーシヨン装置 300の全体の制御を司る。
[0042] 磁気ディスクドライブ 404は、 CPU401の制御にしたがって磁気ディスク 405に対 するデータの読み取り/書き込みを制御する。磁気ディスク 405は、磁気ディスクドラ イブ 404の制御で書き込まれたデータを記録する。磁気ディスク 405としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用レ、ること力 Sできる。
[0043] また、光ディスクドライブ 406は、 CPU401の制御にしたがって光ディスク 407に対 するデータの読み取り/書き込みを制御する。光ディスク 407は、光ディスクドライブ 406の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディ スク 407は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体 として、光ディスク 407のほカ MO、メモリカードなどであってもよい。
[0044] 磁気ディスク 405および光ディスク 407に記録される情報の一例としては、地図デ ータゃ機能データが挙げられる。地図データは、建物、河川、地表面などの地物(フ ィーチヤ)をあらわす背景データと、道路の形状をあらわす道路形状データとを含ん でおり、地区ごとに分けられた複数のデータファイルによって構成されている。
[0045] 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえ ば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンク シヨンの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道 路、有料道路、一般道路など)などの情報が含まれている。
[0046] 機能データは、地図上の施設の形状をあらわす 3次元データ、当該施設の説明を あらわす文字データ、その他地図データ以外の各種のデータである。地図データや 機能データは、地区ごとあるいは機能ごとにブロック分けされた状態で記録されてい る。具体的には、たとえば、地図データは、各々が、表示画面に表示された地図にお いて所定の地区をあらわすように、地区ごとにブロック分けすることができる状態で記 録されている。また、たとえば、機能データは、各々が、 1つの機能を実現するように、 機能ごとに複数にブロック分けすることができる状態で記録されている。
[0047] また、機能データは、上述した 3次元データや文字データに加えて、経路探索、所 要時間の算出、経路誘導などを実現するプログラムデータなどの機能を実現するた めのデータである。地図データおよび機能データは、それぞれ、地区ごとあるいは機 能ごとに分けられた複数のデータファイルによって構成されている。
[0048] 音声 I/F408は、音声入力用のマイク 409および音声出力用のスピーカ 302に接 続される。マイク 409に受音された音声は、音声 I/F408内で A/D変換される。マ イク 409は、たとえば、車両 310のサンバイザー付近に設置され、その数は単数でも 複数でもよレ、。なお、マイク 409から入力された音声は、音声データとして磁気ディス ク 405あるいは光ディスク 407に記録可能である。
[0049] 入力デバイス 410は、文字、数値、各種指示などの入力のための複数のキーを備 えたリモコン、キーボード、タツチパネルなどが挙げられる。入力デバイス 410は、リモ コン、キーボード、タツチパネルのうちいずれか 1つの形態によって実現されてもよい 力 複数の形態によって実現することも可能である。
[0050] 映像 I/F411は、ディスプレイ 301およびカメラ 303に接続される。映像 IZF411 は、具体的には、たとえば、ディスプレイ 301全体を制御するグラフィックコントローラ と、即時表示可能な画像情報を一時的に記録する VRAM (Video RAM)などのバ ッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプ レイ 301を制御する制御 ICなどによって構成される。
[0051] 通信 I/F412は、無線を介してネットワークに接続され、ナビゲーシヨン装置 300と CPU401とのインターフェースとして機能する。通信 I/F412は、さらに、無線を介し てインターネットなどの通信網に接続され、この通信網と CPU401とのインターフエ一 スとしても機能する。
[0052] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 I/F412は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) /ビーコンレシーバ、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンターから配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。
[0053] 0?3ュニット413は、 GPS衛星からの電波を受信し、車両 310の現在位置を示す 情報を出力する。 GPSユニット 413の出力情報は、後述する各種センサ 414の出力 値とともに、 CPU401による車両 310の現在位置の算出に際して利用される。現在 位置を示す情報は、たとえば緯度'経度、高度などの、地図データ上の 1点を特定す る情報である。
[0054] 各種センサ 414は、車速センサ、加速度センサ、角速度センサなどの、車両 310の 位置や状態を判断するための情報を出力する。これら各種センサ 414によって出力 された情報は、 CPU401による車両 310の現在位置の算出や、速度や方位の変化 量の算出などに用いられる。一方、車両 310外部に複数設けられた電波線センサ、 赤外線センサ、超音波センサなどの各種センサ 414は、車両 310の周辺に存在する 物体を検出し、この物体をカメラ 303によって撮影するための情報を出力する。
[0055] ディスプレイ 301には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画 像などの各種データが表示される。このディスプレイ 301としては、たとえば、 CRT, TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。また、スピ 一力 302からは、所定の音声信号を音声 I/F408内で DZA変換した音声が出力さ れる。なお、スピーカ 302は図 3に示したような固定式のものに限らず、たとえばヘッド フォンなどであってもよい。 [0056] カメラ 303は、車両 310外部の画像を撮影する。カメラ 303によって撮影される画像 は、静止画に限らず動画であってもよレ、。また、カメラ 303によって撮影された画像は 、一時的に RAM403などに記録され、図 5を用いて説明する手順による撮影制御処 理などに利用される。
[0057] なお、図 1に示した実施の形態に力、かる撮影制御装置 100の機能的構成は、具体 的には、たとえば検出部 101は、各種センサ 414が、制御部 102、認識部 104およ び判断部 105は、 CPU401が、撮影部 103は、カメラ 303が、出力部 106は、デイス プレイ 301およびスピーカ 302が、それぞれその機能を実現する。
[0058] (ナビゲーシヨン装置 300による撮影制御処理の手順)
つぎに、ナビゲーシヨン装置 300による撮影制御処理の手順について説明する。図 5は、ナビゲーシヨン装置 300による撮影制御処理の手順を示すフローチャートであ る。
[0059] まず、車両 310周辺に存在する物体を検出したか否かを判断する(ステップ S501) 。車両 310周辺に存在する物体は、たとえば車両 310外部に設けられた超音波セン サ、赤外線センサ、電波センサなどの各種センサ 414によって検出される。ステップ S 501において、車両 310周辺に存在する物体を検出したと判断した場合 (ステップ S 501 : Yes)は、ステップ S502へ進む。
[0060] 一方、ステップ S501において、車両 310周辺に存在する物体を検出していないと 判断した場合(ステップ S501 : No)は、ステップ S501へ戻り、車両 310周辺に存在 する物体を検出したと判断されるまで繰り返しステップ S501による検出処理をおこな う。なお、各種センサ 414による車両 310周辺に存在する物体の検出方法の一例に ついては図 6を用いて後述する。
[0061] つぎに、ステップ S501で検出された物体の位置(車両 310に対する位置)を算出 する(ステップ S502)。ステップ S501で検出された物体の位置は、超音波センサ、赤 外線センサ、電波センサなどの各種センサ 414から出力された物体の位置に関する 情報 (たとえば物体の方向に関する情報や物体までの距離に関する情報など)に基 づいておこなわれる。
[0062] つぎに、ステップ S502で算出された物体の位置に関する情報に基づいて、この物 体の位置は所定の角度範囲内か否力を判断する (ステップ S503)。ここで、上記所 定の角度範囲は、たとえばナビゲーシヨン装置 300の出荷時にあらかじめ設定されて いるものであり、ユーザによって設定値が変更されたものであってもよい。また、カメラ 303の設定台数や設置方向に関する情報、車両 310の車速に関する情報などに基 づいて設定値が動的に変更されたものであってもよい。
[0063] ステップ S503において、この物体の位置は所定の角度範囲内であると判断した場 合(ステップ S503 :Yes)は、ステップ S504へ進む。一方、ステップ S503において、 この物体の位置は所定の角度範囲内ではないと判断した場合 (ステップ S503 : No) は、ステップ S501へ戻り、ひきつづきステップ S501からの処理をおこなう。
[0064] つぎに、ステップ S502で算出された物体の位置に関する情報に基づいて、この物 体の位置は所定の距離範囲内か否力 ^判断する (ステップ S504)。ここで、上記所 定の距離範囲は、たとえばナビゲーシヨン装置 300の出荷時にあらかじめ設定されて いるものであり、ユーザによって設定値が変更されたものであってもよい。また、カメラ 303の設定台数や設置方向に関する情報、車両 310の車速に関する情報などに基 づいて設定値が動的に変更されたものであってもよい。
[0065] ステップ S504において、この物体の位置は所定の距離範囲内であると判断した場 合(ステップ S504 :Yes)は、ステップ S505へ進む。一方、ステップ S504において、 この物体の位置は所定の距離範囲内ではなレ、と判断した場合 (ステップ S504: No) は、ステップ S 501へ戻り、ひきつづきステップ S 501からの処理をおこなう。
[0066] つぎに、カメラ 303によってステップ S501で検出された物体の画像を撮影する(ス テツプ S505)。ここでカメラ 303は、たとえばステップ S502で算出された物体の位置 に関する情報などに基づいて、このカメラ 303を制御する制御プログラムなどによって 撮影方向、撮影サイズ、フォーカス、シャッタースピード、シャッタータイミング、スト口 ボなどが制御される。また、たとえばカメラ 303が複数台のカメラによって構成されて いる場合は、上記に加え、さらに撮影をおこなうカメラ 303の切り替えなどが制御され る。
[0067] つぎに、ステップ S505で撮影された画像に基づいて、ステップ S501で検出された 物体を認識する(ステップ S506)。ステップ S501で検出された物体は、たとえば、画 像のデジタル化処理、画像補正処理、画像からの特徴量(特徴パラメータおよび特 徴パターン)の抽出処理、抽出された特徴パターンと標準パターンとのパターンマツ チング処理などの各種処理がおこなわれることによって認識される。
[0068] つぎに、ステップ S506で認識された結果に関する情報に基づいて、ステップ S501 で検出された物体が所定の危険物であるか否力、を判断する(ステップ S507)。ここで 、ステップ S507における判断処理は、たとえば所定の記録媒体に記録された危険物 リストに基づいて判断される。また、ステップ S507における判断処理の結果は、危険 物であるか否力、を判断したものに限らず、たとえば「安全」、「注意」、「危険」など、危 険性を段階的に判断したものであってもよい。
[0069] ステップ S507において、ステップ S501で検出された物体が所定の危険物であると 判断した場合(ステップ S507 : Yes)は、ステップ S508へ進む。一方、ステップ S507 において、ステップ S501で検出された物体が所定の危険物ではないと判断した場 合(ステップ S507 : No)は、ステップ S501へ戻り、ひきつづきステップ S501からの処 理をおこなう。なお、ステップ S507において、ステップ S501で検出された物体が所 定の危険物ではなレ、と判断した場合(ステップ S507: No)であっても、ステップ S501 へ戻らずに、ステップ S508へ進むようにしてもよレヽ。
[0070] つぎに、ステップ S505で撮影された画像、ステップ S506で認識された結果に関す る情報、ステップ S507で判断された結果に関する情報などに基づく注意情報を出力 して (ステップ S508)、一連の処理を終了する。たとえば撮影部 103によって撮影さ れた画像をディスプレイ 301の画面上に表示する。また、たとえばステップ S506で認 識された結果に関する情報およびステップ S507で判断された結果に関する情報に 基づいて車両 310の運転者に対して注意を促すためのテキストデータ、図形データ 、画像データなどによって構成される表示データを注意情報として生成し、この表示 データをディスプレイ 301の画面上に表示する。
[0071] また、たとえばステップ S506で認識された結果に関する情報およびステップ S507 で判断された結果に関する情報に基づいて車両 310の運転者に対して注意を促す ための音声データを注意情報として生成し、この音声データを車両 310内部に設け られたスピーカから出力する。なお、ディスプレイ 301の画面上に表示された注意情 報の一例については図 7を用いて後述する。また、上述したステップ S508の出力処 理をおこなった後、一連の処理を終了せずに、ステップ S501へ戻り、ひきつづきステ ップ S501からの処理をおこなうようにしてもよい。
[0072] (各種センサ 414による車両 310周辺に存在する物体の検出方法の一例)
つぎに、各種センサ 414による車両 310周辺に存在する物体の検出方法の一例に ついて説明する。図 6は、各種センサ 414による車両 310周辺に存在する物体の検 出方法の一例を示す説明図である。
[0073] 図 6において、車両 310周辺には、歩行者 601 , 602, 603力 S存在する。また車両 3 10外部に設けられた各種センサ 414 (図示省略)によって、常に車両 310の前方お よび側方に存在する物体が検出されるようになっている。図 6において、領域 610は 、車両 310に対する所定の角度範囲または所定の距離範囲をもつ領域であり、また 、各種センサ 414による物体の検出が可能な領域であり、たとえば図 6に示す歩行者 601 , 602, 603のうち、この領域 610内に存在する歩行者 602のみ力 S各種センサ 4 14によって検出され、たとえば図 6に示すように車両 310のボンネット上に設けられた 可動式のカメラ 303によって撮影される。
[0074] (ディスプレイ 301の画面上に表示された注意情報の一例)
つぎに、ディスプレイ 301の画面上に表示された注意情報の一例について説明す る。図 7は、ディスプレイ 301の画面上に表示された注意情報の一例を示す説明図で ある。
[0075] 図 7において、画面 700は、図 5を用いて説明した手順による撮影制御処理におい て、車両 310の運転者に対して注意を促すためにディスプレイ 301の画面上に出力 されたものであり、撮影画像表示領域 710と、対象物位置表示領域 720と、警告メッ セージ 730とによって構成されている。
[0076] この画面 700において、たとえば撮影画像表示領域 710には、図 5を用いて説明し た手順による撮影制御処理において、図 6を用いて説明したように各種センサ 414に よって検出され、かつカメラ 303によって撮影された歩行者 602の画像が表示されて いる。また、たとえば対象物位置表示領域 720には、歩行者 602の車両 310との相 対的な位置を示す平面図が表示されている。 [0077] さらに、画面 700には、警告メッセージ 730として「注意! ! 左側方 人物あり」が 表示されている。また、このような画面 700がディスプレイ 301の画面上に表示される と同時に、図 3に示したようなスピーカ 302からも車両 310の運転者に対して注意を 促すための音声が出力されている。
[0078] ここで、車両 310の運転者に対して注意を促すための注意情報の表示方法や表示 レイアウトは上記に限らず、たとえばカメラ 303によって撮影された歩行者 602の画像 のみを表示するようにしてもよレ、。また、たとえば地図データと重ね合わせて、または 地図データと並べてディスプレイ 301の画面上に表示するようにしてもよい。
[0079] また、たとえばディスプレイ 301がメインディスプレイとサブディスプレイとによる複数 台によって構成されている場合、地図データを一方のディスプレイ(たとえばメインデ イスプレイ)に表示し、車両 310の運転者に対して注意を促すための注意情報を他方 のディスプレイ(たとえばサブディスプレイ)に表示するようにしてもよい。
[0080] また、たとえば車両 310の運転者に対して注意を促すための注意情報を両方のデ イスプレイに表示するようにしてもよい。また、たとえばディスプレイ 301に各種操作メ ニューなどが表示されている場合であっても、車両 310の運転者に対して注意を促 すための注意情報を割り込み表示させるようにしてもよい。また、たとえばカメラ 303 によって撮影された物体の画像をディスプレイ 301の画面上に複数表示するようにし てもよい。
[0081] 以上説明したように、本実施例に力かるナビゲーシヨン装置 300によれば、運転者 に運転以外の操作をおこなわせることなぐ車両 310の周辺に危険物が存在したタイ ミングで、この危険物の画像をディスプレイ 301の画面上に表示することができる。こ のため、運転者に対して効果的に注意を促すことができる。この結果、車両 310の安 全性を高めることができる。
[0082] また、本実施例に力、かるナビゲーシヨン装置 300によれば、ディスプレイ 301の画面 上に標識などの案内物を表示することによって、運転者に対して案内物に記載され ている内容をディスプレイの画面上で確認させることができる。このため、たとえば運 転者は、標識などの案内物を見落としたりすることなく運転に集中することができる。 この結果、車両 310の安全性をより高めることができる。 [0083] なお、本実施例に力かるナビゲーシヨン装置 300による撮影制御処理は、図 5を用 レ、て説明した手順による撮影制御処理に限らず、たとえば図 5を用いて説明した手 順による撮影制御処理に加え、ステップ S507で判断された結果などに基づいて、た とえばブレーキをかけるなど、危険物を回避するように車両 310の走行を制御する移 動制御処理をさらにおこなうようにしてもよい。
[0084] このようなナビゲーシヨン装置 300によれば、車両 310の運転者に運転以外の操作 をおこなわせることなぐ車両 310の周辺に危険物が存在したタイミングで、この危険 物の画像をディスプレイ 301の画面上に表示することができるうえ、危険物を回避す るように車両 310の走行を制御することができる。このため、運転者に対して効果的 に注意を促すことができるうえ、危険物を回避するように車両 310を走行させることが できる。この結果、車両 310の安全性をより高めることができる。
[0085] なお、本実施の形態で説明した撮影制御方法は、あらかじめ用意されたプログラム をナビゲーシヨン装置 300が有するコンピュータで実行することにより実現することが できる。このプログラムは、ハードディスク、フレキシブルディスク、 CD— ROM、 MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによつ て記録媒体から読み出されることによって実行される。またこのプログラムは、インタ 一ネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。

Claims

請求の範囲
[1] 移動体周辺に存在する物体を検出する検出手段と、
前記移動体周辺に存在する物体の画像を撮影する撮影手段を制御して、前記検 出手段によって検出された物体の画像を撮影する制御手段と、
前記撮影手段によって撮影された画像を出力する出力手段と、
を備えたことを特徴とする撮影制御装置。
[2] 前記検出手段は、前記移動体周辺に存在する物体を検出するとともに、当該検出 した物体が当該移動体に対して所定の角度範囲内または所定の距離範囲内にある かを検出することを特徴とする請求項 1に記載の撮影制御装置。
[3] 前記検出手段により検出された物体が前記移動体に対して所定の角度範囲内また は所定の距離範囲内にあるか否力を判定する判定手段をさらに備えたことを特徴と する請求項 1に記載の撮影制御装置。
[4] 前記制御手段は、前記撮影手段の撮影角度を前記検出手段によって検出された 物体に向ける角度にすることを特徴とする請求項 1に記載の撮影制御装置。
[5] 前記検出手段は、前記移動体に設けられた複数のセンサのいずれかによつて前記 移動体周辺に存在する物体を検出することを特徴とする請求項 1に記載の撮影制御 装置。
[6] 前記撮影手段によって撮影された画像に基づいて、前記検出手段によって検出さ れた物体を認識する認識手段をさらに備え、
前記出力手段は、前記撮影手段によって撮影された画像、および前記認識手段に よって認識された結果に関する情報の少なくともいずれか一方を出力することを特徴 とする請求項:!〜 5のいずれか一つに記載の撮影制御装置。
[7] 前記認識手段によって認識された結果に基づいて、前記検出手段によって検出さ れた物体が所定の危険物であるか否力、を判断する判断手段をさらに備え、
前記出力手段は、前記撮影手段によって撮影された画像、前記認識手段によって 認識された結果に関する情報、および前記判断手段によって判断された結果に関す る情報の少なくともいずれか一つを出力することを特徴とする請求項 6に記載の撮影 制御装置。
[8] 前記判断手段によって判断された結果に基づいて、前記検出手段によって検出さ れた物体を回避するように前記移動体を制御する移動制御手段をさらに備えたこと を特徴とする請求項 7に記載の撮影制御装置。
[9] 移動体周辺に存在する物体を検出する検出工程と、
前記移動体周辺に存在する物体の画像を撮影する撮影手段を制御して、前記検 出工程によって検出された物体の画像を撮影する制御工程と、
前記撮影手段によって撮影された画像を出力する出力工程と、
を含んだことを特徴とする撮影制御方法。
[10] 請求項 9に記載の撮影制御方法をコンピュータに実行させることを特徴とする撮影 制御プログラム。
[11] 請求項 10に記載の撮影制御プログラムを記録したことを特徴とするコンピュータに 読み取り可能な記録媒体。
PCT/JP2007/059504 2006-05-19 2007-05-08 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体 WO2007135856A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006139765 2006-05-19
JP2006-139765 2006-05-19

Publications (1)

Publication Number Publication Date
WO2007135856A1 true WO2007135856A1 (ja) 2007-11-29

Family

ID=38723169

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/059504 WO2007135856A1 (ja) 2006-05-19 2007-05-08 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体

Country Status (1)

Country Link
WO (1) WO2007135856A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009042437A1 (de) 2008-10-24 2010-04-29 Mitsubishi Electric Corp. Informationsbereitstellungsvorrichtung und Informationsbereitstellungsverfahren
JP2011091549A (ja) * 2009-10-21 2011-05-06 Toyota Motor Corp 車両用夜間視界支援装置
WO2019193830A1 (ja) * 2018-04-03 2019-10-10 株式会社Jvcケンウッド 警告処理装置、警告処理方法およびプログラム
EP2410740B1 (en) * 2009-07-29 2020-05-06 Clarion Co., Ltd. Surrounding-area monitoring device for vehicles and surrounding-area image display method for vehicles
CN113879266A (zh) * 2021-11-11 2022-01-04 深圳市尖峰时刻电子有限公司 一种利用bsd盲区影像控制车辆刹车的系统及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60174999U (ja) * 1984-04-24 1985-11-20 本田技研工業株式会社 車載視界モニタ
JPS62273477A (ja) * 1986-05-22 1987-11-27 Nippon Denso Co Ltd 車両周囲監視装置
JPH0274437A (ja) * 1988-09-08 1990-03-14 Matsuyama Seisakusho:Kk 車両の障害物検出装置
JPH05342497A (ja) * 1992-06-09 1993-12-24 Mazda Motor Corp 車両の障害物検出装置
JPH0644498A (ja) * 1992-07-23 1994-02-18 Mazda Motor Corp 車両の情報伝達装置
JP2002207077A (ja) * 2001-01-09 2002-07-26 Hitachi Ltd 車載レーダ走行支援装置
JP2003143596A (ja) * 2001-10-30 2003-05-16 Fujitsu Ten Ltd 車両用モニタ装置
JP2004026012A (ja) * 2002-06-25 2004-01-29 Auto Network Gijutsu Kenkyusho:Kk 車輌周辺視認装置
JP2005309797A (ja) * 2004-04-22 2005-11-04 Nissan Motor Co Ltd 歩行者警報装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60174999U (ja) * 1984-04-24 1985-11-20 本田技研工業株式会社 車載視界モニタ
JPS62273477A (ja) * 1986-05-22 1987-11-27 Nippon Denso Co Ltd 車両周囲監視装置
JPH0274437A (ja) * 1988-09-08 1990-03-14 Matsuyama Seisakusho:Kk 車両の障害物検出装置
JPH05342497A (ja) * 1992-06-09 1993-12-24 Mazda Motor Corp 車両の障害物検出装置
JPH0644498A (ja) * 1992-07-23 1994-02-18 Mazda Motor Corp 車両の情報伝達装置
JP2002207077A (ja) * 2001-01-09 2002-07-26 Hitachi Ltd 車載レーダ走行支援装置
JP2003143596A (ja) * 2001-10-30 2003-05-16 Fujitsu Ten Ltd 車両用モニタ装置
JP2004026012A (ja) * 2002-06-25 2004-01-29 Auto Network Gijutsu Kenkyusho:Kk 車輌周辺視認装置
JP2005309797A (ja) * 2004-04-22 2005-11-04 Nissan Motor Co Ltd 歩行者警報装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009042437A1 (de) 2008-10-24 2010-04-29 Mitsubishi Electric Corp. Informationsbereitstellungsvorrichtung und Informationsbereitstellungsverfahren
DE102009042437B4 (de) * 2008-10-24 2013-07-25 Mitsubishi Electric Corp. Informationsbereitstellungsvorrichtung und Informationsbereitstellungsverfahren
EP2410740B1 (en) * 2009-07-29 2020-05-06 Clarion Co., Ltd. Surrounding-area monitoring device for vehicles and surrounding-area image display method for vehicles
JP2011091549A (ja) * 2009-10-21 2011-05-06 Toyota Motor Corp 車両用夜間視界支援装置
CN102596643A (zh) * 2009-10-21 2012-07-18 丰田自动车株式会社 车辆夜间视野支持系统及其控制方法
CN102596643B (zh) * 2009-10-21 2015-03-04 丰田自动车株式会社 车辆夜间视野支持系统及其控制方法
US9061632B2 (en) 2009-10-21 2015-06-23 Toyota Jidosha Kabushiki Kaisha Vehicle night vision support system and control method for the same
WO2019193830A1 (ja) * 2018-04-03 2019-10-10 株式会社Jvcケンウッド 警告処理装置、警告処理方法およびプログラム
CN113879266A (zh) * 2021-11-11 2022-01-04 深圳市尖峰时刻电子有限公司 一种利用bsd盲区影像控制车辆刹车的系统及方法

Similar Documents

Publication Publication Date Title
US20230311749A1 (en) Communication between autonomous vehicle and external observers
US8600655B2 (en) Road marking recognition system
JP4421549B2 (ja) 運転支援装置
JP4783430B2 (ja) 駆動制御装置、駆動制御方法、駆動制御プログラムおよび記録媒体
EP2085944A1 (en) Driving assistance device, driving assistance method, and program
JP4719590B2 (ja) 車載周辺状況提示装置
JP5896505B2 (ja) 車両運転支援装置
JP4792948B2 (ja) 車車間通信システム
JP2009193135A (ja) 車載モニタ装置
US20080055056A1 (en) Intersection information provision system and driving assist system
JP2010026618A (ja) 車載用ナビゲーション装置及び交差点進入案内方法
WO2007135856A1 (ja) 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JP4802686B2 (ja) 車車間通信システム
KR101671327B1 (ko) Led전광판과 음성통보 기능을 이용한 실시간 불법 주정차 단속 시스템 및 그 방법
WO2007032427A1 (ja) 運転支援装置、撮影制御方法、撮影制御プログラムおよび記録媒体
JP4986070B2 (ja) 車両用周囲監視装置
JP2006172215A (ja) 運転支援システム
JP4917609B2 (ja) データ記録装置、データ記録方法、データ記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2009105741A (ja) 車載周辺監視装置
WO2007148698A1 (ja) 通信端末装置、通信方法、通信プログラム、および記録媒体
JP2014044458A (ja) 車載機器、及び、危険報知方法
JP2016143308A (ja) 報知装置、制御方法、プログラム及び記憶媒体
JP4725310B2 (ja) 車車間通信システム
WO2007145257A1 (ja) 表示装置、表示方法、表示プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007055241A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07742939

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07742939

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP