WO2007135865A1 - 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体 - Google Patents

撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体 Download PDF

Info

Publication number
WO2007135865A1
WO2007135865A1 PCT/JP2007/059662 JP2007059662W WO2007135865A1 WO 2007135865 A1 WO2007135865 A1 WO 2007135865A1 JP 2007059662 W JP2007059662 W JP 2007059662W WO 2007135865 A1 WO2007135865 A1 WO 2007135865A1
Authority
WO
WIPO (PCT)
Prior art keywords
photographing
driver
behavior
passenger
unit
Prior art date
Application number
PCT/JP2007/059662
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to JP2008516596A priority Critical patent/JP4421668B2/ja
Publication of WO2007135865A1 publication Critical patent/WO2007135865A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • B60R11/0235Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes of flat type, e.g. LCD

Definitions

  • Imaging control apparatus imaging control method, imaging control program, and recording medium
  • the present invention relates to a photographing control device that controls photographing, a photographing control method, a photographing control program, and a recording medium.
  • a photographing control device that controls photographing
  • a photographing control method that controls photographing
  • a photographing control program that controls photographing
  • a recording medium that stores digital images
  • the use of the present invention is not limited to the above-described imaging control device, imaging control method, imaging control program, and recording medium.
  • a driving behavior analysis device that easily realizes driving behavior analysis based on synchronous display of captured images related to driving behavior and moving body detection data.
  • the transition on the time axis of multiple vehicle detection data detected using sensors is displayed on the display monitor of the analysis PC.
  • a cursor indicating a specific time point is superimposed on the display screen of the display monitor on which the transition of the vehicle detection data on the time axis is displayed.
  • the captured image captured by the CCD camera at a specific time point indicated by the cursor is displayed on the TV monitor (for example, see Patent Document 1 below).
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2005-188998
  • driving behavior can be analyzed by photographing the driver. For example, when a speed exceeding a specified speed is detected. For example, when a driver such as a sudden brake or a sudden handle shows a dangerous behavior, a warning that prompts the driver to drive safely cannot be given as an example.
  • the imaging control device includes a detection unit that detects a behavior of a passenger in a moving body, and a result detected by the detection unit. Based on the determination means for determining whether the occupant has performed the predetermined behavior, and the determination means that the occupant has performed the predetermined behavior.
  • Control means for taking an image of the occupant by controlling an image taking means for taking an image of the moving body, and an output means for outputting the image of the passenger taken by the image taking means. It is characterized by providing.
  • a determination step for determining whether or not the force has caused the behavior of the vehicle, and when the determination step determines that the occupant has performed the predetermined behavior, the imaging means for shooting the image in the moving body is controlled. It includes a control step of shooting the passenger's video and an output step of outputting the passenger's video shot by the shooting means.
  • an imaging control program according to claim 7 causes a computer to execute the imaging control method according to claim 6.
  • a recording medium according to the invention of claim 8 is characterized in that the photographing control program according to claim 7 is recorded in a computer-readable state.
  • the photographing control device is provided with photographing means arranged at a position where it can be visually recognized by the driver of the moving body, and the behavior of the driver is a driving operation!
  • a judgment means for judging whether or not the behavior is abnormal a recognition means for making the driver recognize that the driver is a main object in photographing by the photographing means, and a judgment means.
  • FIG. 1 is a block diagram showing a functional configuration of an imaging control apparatus that works according to an embodiment.
  • FIG. 2 is a flowchart showing a photographing control processing procedure of the photographing control device.
  • FIG. 3 is an explanatory diagram showing an example of the inside of a vehicle in which the display device according to the example is mounted.
  • FIG. 4 is a block diagram showing a hardware configuration of the navigation device.
  • FIG. 5 is a flowchart showing the contents of processing of the navigation device. Explanation of symbols
  • FIG. 1 is a block diagram illustrating a functional configuration of the imaging control apparatus according to the embodiment.
  • the imaging control device 100 includes an imaging unit 101, an output unit 102, a detection unit 103, a determination unit 104, a control unit 105, a storage unit 106, a communication unit 107, and a recognition unit. 110.
  • the imaging unit 101 captures an image of a passenger in the moving body.
  • the video can be either a video or a still image.
  • the passenger is, for example, a driver, a passenger on the passenger seat, or a passenger on the rear seat.
  • the imaging unit 101 is disposed at a position that enters the field of view of the passenger, for example, in front of the moving body.
  • the photographing unit 101 is movable, rotatable, or photographing angle. It may be possible to change the degree.
  • the photographing unit 101 may always face in the direction in which the passenger is photographed, and when it has other functions, it may usually face in front of the vehicle.
  • the other functions are, for example, a driving assistance function and a drive recorder function.
  • the output unit 102 outputs an image of the passenger photographed by the photographing unit 101.
  • the output unit 102 is, for example, disposed at a position that can be visually recognized by a passenger who has taken a video by the photographing unit 101, and outputs a video of the passenger photographed by the photographing unit 101 or another passenger. Specifically, for example, it is arranged at a position that can be visually recognized by the driver of the moving body, and outputs a driver's image and other passenger's image captured by the image capturing unit 101. Specifically, for example, it is arranged at a position where the passengers in the passenger seat and the rear seat can visually recognize, and the driver's image captured by the imaging unit 101 and other passenger's images are output.
  • the detection unit 103 detects the behavior of the passenger.
  • the behavior of the passenger is, for example, the behavior of the driver, and the driver's operation or operation may be detected based on the output of various sensors mounted on the moving body.
  • the various sensors are, for example, vibration sensors, G sensors, contact sensors for moving objects, and sensors that can output information related to operations such as the operation of the handlebars, the operation of the direction indicator signal, the operation of the accelerator pedal, and the operation of the brake pedal. Good. Also, a sensor that can output information about a living body such as a pulse may be used.
  • the behavior of the driver may be detected by inputting the driver's facial expression with a camera (not shown) or the like.
  • the camera analyzes the input video and detects the driver's fatigue and sleepiness from the analyzed video.
  • the behavior of the passenger may be, for example, the behavior of a passenger other than the driver.
  • the passenger's behavior may be detected based on the output of a microphone or various sensors mounted on the moving body, such as voice or action that hinders driving.
  • the microphone detects the volume of the voice produced by the passenger.
  • the determination unit 104 determines whether the passenger has performed a predetermined behavior.
  • the predetermined behavior is, for example, an abnormal behavior in the driving operation of the driver, and the output values of various sensors such as vibration sensors and G sensors are regulated. It may be determined as an abnormal behavior in a driving operation when the value is greater than a certain value, approximated to a predetermined pattern indicating abnormality, or when a contact sensor is activated. Further, based on the information related to the operation of the moving body, it may be determined that the operation is an abnormal behavior in the driving operation when the operation is dangerous.
  • the operation of the moving object is abnormal. Even if it is judged as an operation that causes a lot of behavior.
  • the determination unit 104 may determine that a predetermined behavior has been performed on a moving body that is performing route guidance when the moving body approaches a route that is out of the guidance route.
  • the predetermined behavior may be judged by calculating the current position of the moving body from the output values of the GPS unit and various sensors, or judgment of information ability regarding the steering wheel operation and the direction operation signal input operation. May be.
  • the control unit 105 controls the imaging unit 101 to shoot a video of the occupant.
  • the photographing unit 101 may be moved or rotated and then photographing of the passenger may be started.
  • the timing for moving or rotating the imaging unit 101 may be the timing to move or rotate immediately when the determination unit 104 determines that the behavior is abnormal in driving operation, or the other function is also used to rotate the force. It ’s time to do it.
  • control unit 105 may set the photographing angle of the photographing unit 101 to an angle toward the passenger when the judging unit 104 determines that the passenger has performed a predetermined behavior.
  • the shooting angle is, for example, an angle directed toward the passenger's eyes.
  • the control unit 105 turns on the photographing unit 101 when the judging unit 104 determines that the passenger has performed a predetermined behavior. You may do it.
  • the storage unit 106 stores an image of the passenger photographed by the photographing unit 101.
  • the storage unit 106 may store an image of the occupant each time the occupant performs a predetermined behavior by the control unit 105.
  • the video stored by the storage unit 106 is specifically For example, it is used as a video for so-called drive recorder type monitoring to investigate the cause of an accident.
  • the communication unit 107 transmits the video of the passenger photographed by the photographing unit 101 to the supervisor's terminal via a server (not shown).
  • the communication unit 107 may receive a warning from the terminal of the supervisor via the server. Specifically, for example, when a passenger in the rear seat performs a predetermined behavior in a taxi or a bus, the image of the passenger in the rear seat is transmitted to the terminal of the office via the server. Then, a warning is received through the terminal power server at the office.
  • the recognizing unit 110 allows the driver to recognize that the driver is a main object in photographing by the photographing means. If the determination unit 104 determines that the behavior is abnormal, the recognition unit 110 is controlled by the control unit 105 to allow the driver to recognize that it is the main object.
  • the recognition unit 110 may be a changing unit 111 that changes the shooting direction of the shooting unit 101.
  • the changing unit 111 is controlled by the control unit 105 and directs the shooting direction of the shooting unit 101 to the driver.
  • the recognition unit 110 may be a lighting unit 112 that is turned on to notify that the main object in the shooting of the shooting unit 101 is a driver.
  • the voice output unit 113 may output a voice to notify that the target object is a driver.
  • the lighting unit 112 and the sound output unit 113 are controlled by the control unit 105 to make the driver recognize that the main object is to be obtained.
  • FIG. 2 is a flowchart showing a photographing control processing procedure of the photographing control device.
  • the detection unit 103 detects the behavior of the passenger (step S201).
  • the determination unit 104 determines whether or not the passenger has a predetermined behavior (step S202).
  • step S202 when the passenger performs a predetermined behavior (step S 202: Yes), the control unit 105 sets the shooting angle of the shooting unit 101 to an angle toward the passenger (step S202). S203). Then, an image of the passenger is shot by the shooting unit 101 (step S204). The video is output by the output unit 102 (step S205). On the other hand, when the passenger does not perform the predetermined behavior in step S202 (step S202: No), the process returns to step S201 and the series of processes is repeated.
  • the shooting angle of the shooting unit is set to the angle toward the passenger in step S203, but the present invention is not limited to this.
  • the other functions may be performed to move or rotate the photographing unit 101, and the force may change the photographing angle.
  • a specific passenger for example, without changing the physical shooting angle of the shooting unit 101
  • Driver may be included in the shooting.
  • the occupant when a specific occupant performs a predetermined behavior, the occupant focuses on the specific occupant, or the indicator lights, voice output such as onomatopoeia and voice guidance is output. You may do it.
  • the force that is used to capture the image of the passenger in step S204 is not limited to this.
  • the photographing unit 101 does not shoot the video. Also good. In this case, no video is output in step S205.
  • step S204 it is assumed that the image of the passenger is taken in step S204, but the present invention is not limited to this.
  • a video of the passenger may be taken and the video may be stored every time the passenger performs a predetermined behavior.
  • the video is output in step S205, but the present invention is not limited to this.
  • the video may be transmitted to the supervisor via the server by the communication unit 107.
  • the communication unit 107 may receive a warning from the supervisor via the server.
  • the imaging unit 101 is controlled by the control unit 105 when the determination unit 104 determines that the passenger has performed a predetermined behavior.
  • a video of the passenger can be captured and output by the output unit 102. This means that if the passenger or his / her passenger performs a predetermined behavior, You can monitor yourself or your passengers by watching the video of yourself or your passengers.
  • the control unit 105 when the determination unit 104 determines that the driver's behavior is an abnormal behavior in the driving operation, the control unit 105 causes the imaging unit 101 to operate.
  • the video of the driver can be taken by control, and the video can be output by the output unit 102. This allows the driver or passenger to monitor the driver if the driver behaves abnormally.
  • an image is output to the output unit 102 arranged at a position that can be visually recognized by the passenger who has captured the image by the imaging unit 101. Can do.
  • the passenger can perform self-monitoring by viewing his / her video when he / she performs a predetermined behavior.
  • the control unit 105 boards the imaging angle of the imaging unit 101.
  • the angle can be directed to the person. Therefore, for example, the control unit 105 can set the photographing unit 101 to an angle that matches the sight line of the passenger. As a result, it is possible to encourage the driver to drive safely by recognizing that the photographing unit 101 is pointing at him and being aware that he is being monitored.
  • the control unit 105 can store the video of the passenger in the storage unit 106 every time the passenger performs a predetermined behavior. Therefore, the storage unit 106 can store a predetermined behavior of the passenger. Accordingly, the passenger can investigate the cause of the accident using the stored video when an accident occurs, for example.
  • the recognition unit 110 is controlled by the control unit 105, and the driver is mainly targeted. Be able to recognize that things are a bit tricky. Accordingly, it is possible to promote safe driving by making the driver recognize that he / she will be the main subject of the photographing unit 101 and conscious that he / she is being monitored.
  • Examples of the present invention will be described below.
  • a vehicle four wheels
  • An example in which the imaging control device of the present invention is implemented by a navigation device mounted on a moving body such as a car or a motorcycle will be described.
  • FIG. 3 is an explanatory diagram showing an example of the interior of the vehicle on which the display device according to the embodiment is mounted.
  • the vehicle interior 310 includes a driver seat 311, a passenger seat 312, and a rear seat 313, and a display device 300 a is provided around the driver seat 311 and the passenger seat 312. And a speaker 301 are provided.
  • the passenger seat 312 is provided with a display device 300b toward the passenger of the rear seat 313.
  • Display devices 300a and 300b have displays 302a and 302b, respectively, and display images.
  • one or more speakers 301 may be provided in the vehicle interior 310.
  • the speaker 301 reproduces sound such as guidance sound even in a configuration provided around the rear seat 313.
  • These display devices 300a and 300b may have a structure that can be attached to and detached from the vehicle.
  • the camera 303 is installed near the dashboard of the interior 310 of the vehicle.
  • FIG. 4 is a block diagram showing the hardware configuration of the navigation device.
  • the navigation device 400 includes a CPU 401, a ROM 402, a RAM 403, a magnetic disk drive 404, a magnetic disk 405, an optical disk drive 406, an optical disk 407, an audio l / F (interface) 408, and a microphone. 409, a speaker 410, an input device 411, an image I ZF 412, a display 413, a communication I / F 414, a GPS unit 415, various sensors 416, and a camera 417.
  • Each component 401 to 417 is connected by a bus 420.
  • the CPU 401 governs overall control of the navigation device 400.
  • the ROM 402 records programs such as a boot program, a video analysis program, and a shooting control program.
  • the RAM 403 is used as a work area for the CPU 401. That is, the CPU 401 recorded the data in the ROM 402 while using the RAM 403 as a work area. It controls the entire navigation device 400 by executing various programs.
  • the video analysis program analyzes the driver's facial expression based on the input video power, such as a camera 417 described later, and detects the driver's fatigue level, drowsiness level, and the like.
  • the driver's facial expression is, for example, the frequency of the driver's blink or the shaking of the driver's upper body.
  • the magnetic disk drive 404 controls reading and writing of data to the magnetic disk 405 according to the control of the CPU 401.
  • the magnetic disk 405 records data written under the control of the magnetic disk drive 404.
  • the magnetic disk 405 for example, HD (node disk) or FD (flexible disk) can be used.
  • the optical disk drive 406 controls reading and writing of data to the optical disk 407 according to the control of the CPU 401.
  • the optical disc 407 is a detachable recording medium from which data is read according to the control of the optical disc drive 406.
  • the optical disk 407 can also use a writable recording medium.
  • the removable recording medium may be a power MO of the optical disc 407, a memory card, or the like.
  • Examples of information recorded on the magnetic disk 405 and the optical disk 407 include map data and function data.
  • Map data includes background data that represents features such as buildings, rivers, and the surface of the earth, and road shape data that represents the shape of the road, and is composed of multiple data files divided by region. Has been.
  • the road shape data further includes traffic condition data.
  • the traffic condition data includes, for example, the presence / absence of traffic lights and pedestrian crossings, the presence / absence of highway doorways and junctions, the length (distance) of each link, road width, direction of travel, road type (high speed). Road, toll road, general road, etc.).
  • the function data is three-dimensional data representing the shape of the facility on the map, character data representing the description of the facility, and other various data other than the map data.
  • Map data and function data are recorded in blocks divided by district or function. Specifically, for example, the map data is recorded in a state where each block can be divided into blocks such that each map represents a predetermined area on the map displayed on the display screen. It is recorded. Also, for example, the function data is recorded in a state where each function can be divided into a plurality of blocks so as to realize one function.
  • the function data is data for realizing functions such as program data that realizes route search, calculation of required time, route guidance, and the like.
  • Each of the map data and function data is composed of multiple data files divided by district or function.
  • the audio IZF 408 is connected to a microphone 409 for audio input and a speaker 410 for audio output.
  • the sound received by the microphone 409 is AZD converted in the sound IZF 408.
  • the microphones 409 are installed, for example, near the sun visor of the vehicle, and the number may be one or more.
  • the speaker 410 outputs a sound obtained by DZA-converting a predetermined sound signal in the sound IZF 408. Note that the sound input from the microphone 409 can be recorded on the magnetic disk 405 or the optical disk 407 as sound data.
  • the speaker 410 in FIG. 4 realizes the function of the speaker 301 in FIG.
  • Examples of the input device 411 include a remote controller, a keyboard, and a touch panel provided with a plurality of keys for inputting characters, numerical values, various instructions, and the like.
  • the input device 411 may be realized by any one form of the remote control, the keyboard, and the touch panel.
  • the input device 411 may be realized by a plurality of forms.
  • the video IZF 412 is connected to the display 413.
  • the video IZF412 is output from, for example, a graphic controller that controls the entire display 413, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller.
  • a control IC that controls the display 413 based on image data.
  • the display 413 displays icons, cursors, menus, windows, or various data such as characters and images.
  • the above map data force is drawn in two or three dimensions.
  • the map data displayed on the display 413 can be displayed with a mark representing the current position of the vehicle on which the navigation device 400 is mounted.
  • the current position of the vehicle is calculated by the CPU 401.
  • Examples of the display 413 include a CRT, a TFT liquid crystal display, and a plasma device. Play etc. can be used.
  • the display 413 is installed near the dashboard of the vehicle, for example.
  • a plurality of displays 413 may be installed on the vehicle, for example, near the dashboard of the vehicle or around the rear seat of the vehicle.
  • the display 413 in FIG. 4 realizes the functions of the displays 302a and 302b in FIG.
  • Communication IZF 414 is connected to a network via radio and functions as an interface between navigation device 400 and CPU 401.
  • the communication I / F 414 is further connected to a communication network such as the Internet via radio, and functions as an interface between the communication network and the CPU 401.
  • Communication networks include LANs, WANs, public line networks and mobile phone networks.
  • the communication IZF414 is composed of, for example, FM tuner, VICS (Vehicle Information and Communication System) Z beacon Resino, wireless navigation device, and other navigation devices. Get road traffic information such as traffic regulations. VICS is a registered trademark.
  • the 0-3 boot 415 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle.
  • the output information of the GPS unit 415 is used when the CPU 401 calculates the current position of the vehicle together with output values of various sensors 416 described later.
  • the information indicating the current position is information that identifies one point on the map data, such as latitude'longitude and altitude.
  • Various sensors 416 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor.
  • the output values of the various sensors 416 are used by the CPU 401 to calculate the current position of the vehicle and the amount of change in speed and direction.
  • the various sensors 416 also include a sensor that detects each operation of the vehicle by the driver. For example, the detection of each operation of the vehicle may be configured to detect steering wheel operation, direction indicator input, accelerator pedal depression, or brake pedal depression.
  • the various sensors 416 may be sensors that can output information about a living body such as a pulse. Specifically, the information related to the living body may be configured to detect a pulse using, for example, a handle.
  • the camera 417 captures an image inside or outside the vehicle. Video is still or moving For example, the behavior of the driver inside the vehicle is photographed by the camera 417, and the photographed image is displayed on the display 413. The video is output to a recording medium such as the magnetic disk 405 or the optical disk 407 via the video IZF 412. In addition, the camera 417 captures the situation inside or outside the vehicle, and outputs the captured image to a recording medium such as the magnetic disk 405 or the optical disk 407 via the video IZF 412.
  • the camera 417 may be movable, rotatable, or changeable in shooting angle.
  • the camera 417 normally shoots images outside the vehicle, and when abnormal behavior is detected in the driving operation by various sensors 416 or the like, the camera 417 moves and rotates to shoot the driver. Good.
  • the camera 417 is always turned to the inside of the vehicle. Normally, the power is not turned on, and when abnormal behavior is detected in the driving operation by various sensors 416, the power is turned on. ⁇ ⁇ .
  • the camera 417 relatively compares the surface temperature distribution of an object existing inside the vehicle based on an image captured using an infrared camera function that may have an infrared camera function. be able to.
  • the video output to the recording medium is overwritten and saved.
  • the camera 417 in FIG. 4 realizes the function of the camera 303 in FIG.
  • the CPU 401 executes predetermined programs and realizes its functions by controlling each part in the navigation device 400 To do.
  • the navigation device 400 of the embodiment has the functions provided in the shooting control device shown in FIG. 1 by executing the shooting control program recorded in the ROM 402 as a recording medium in the navigation device 400. Can be executed by the imaging control processing procedure shown in FIG.
  • FIG. 5 is a flowchart showing the contents of processing of the navigation device.
  • the speed exceeding the speed limit is detected by the various sensors 416 provided in the vehicle. It is determined whether or not it has been performed (step S501). If a speed exceeding the speed limit is not detected (step S501: No), it is determined whether or not a sudden handle or sudden brake is detected (step S502).
  • step S502 if a sudden handle or a sudden brake is not detected! (Step S502: No), it is determined whether or not the vehicle deviates from the guidance path force (step S503). If the vehicle does not deviate from the guidance path force in step S503 (step S503: No), the process returns to step S501 and the subsequent processing is repeated.
  • step S501 if a speed exceeding the speed limit is detected in step S501 (step S5 01: Yes), if a sudden handle or a sudden brake is detected in step S502 (step S502: Yes), in step S503 If the vehicle also loses the guidance path force (Step S503: Yes), it is determined that the driver has behaved abnormally during the driving operation (Step S504), and the camera 417 is turned on (Step S505).
  • step S506 the camera 417 is pointed at the driver (step S506), the shooting angle of the camera 417 is pointed at the driver (step S507), and the driver's video is shot (step S508).
  • step S508 the driver's video is shot, the shot video is stored (step S509), and the video is output to the display 413 (step S510).
  • step S511 the camera 417 is returned to its original orientation (step S512), and the series of processing ends.
  • step S511 Yes
  • the process returns to step S508 and the subsequent processing is repeated.
  • Step S501, step S502, and step S503 are out of order, and if any one of the determination results is Yes, the process may proceed to step S504.
  • the force for turning on the camera in step S505 is not limited to this.
  • the configuration may be such that step S505 is omitted and the process proceeds to step S506.
  • the control unit 105 controls the photographing unit 101 to board the vehicle. An image of the person can be taken and output by the output unit 102. Accordingly, when the passenger or the passenger performs a predetermined behavior, the passenger can monitor the passenger or the passenger by viewing the video of the passenger or the passenger.
  • the control unit 105 controls the photographing unit 101.
  • the driver's image can be taken and the output unit 102 can output the image. This allows the driver or passenger to monitor the driver if the driver behaves abnormally.
  • the navigation device 400 of the embodiment it is possible to output a video to the output unit 102 arranged at a position that is visible to a passenger who has taken a video by the imaging unit 101. it can. As a result, the passenger can perform self-monitoring by viewing his / her video when he / she performs a predetermined behavior.
  • the control unit 105 determines the shooting angle of the shooting unit 101 as the passenger.
  • the angle can be turned to. Therefore, for example, the control unit 105 can set the imaging unit 101 at an angle that matches the eyes of the passenger.
  • the driver can be encouraged to drive safely by recognizing that the photographing unit 101 is facing himself / herself and that he / she is monitored!
  • the control unit 105 can store the video of the passenger in the storage unit 106 every time the passenger performs a predetermined behavior. Therefore, the storage unit 106 can store a predetermined behavior of the passenger. Accordingly, the passenger can investigate the cause of the accident using the stored video when an accident occurs, for example.
  • the recognition unit 110 is controlled by the control unit 105, so that the driver can It can be recognized that the object is a little bit different. This allows the driver to recognize that he / she will be the primary subject of the shooting unit 101 and to be aware that he / she is being monitored.
  • the imaging control device when the determination unit 104 determines that the occupant has performed a predetermined behavior, the control unit 105 can control the photographing unit 101 to take a picture of the passenger, and the output unit 102 can output it. Therefore, the passenger can monitor himself or her passenger by watching the video of the passenger or the passenger when the passenger or the passenger performs a predetermined behavior. This makes it possible for a driver who has behaved abnormally in driving operation to recognize that he / she is seen and encourage safe driving.
  • the imaging control method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed when the recording medium force is also read by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

 検出部(103)によって、搭乗者の挙動を検出する。つぎに、検出部(103)において検出された検出結果に基づいて、判断部(104)によって搭乗者が所定の挙動をおこなったか否かを判断する。判断部(104)において搭乗者が所定の挙動をおこなったと判断された場合、制御部(105)によって撮影部(101)の撮影角度を搭乗者に向ける角度にする。そして、撮影部(101)によって搭乗者の映像を撮影して、出力部(102)によって映像を出力する。

Description

明 細 書
撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体 技術分野
[0001] この発明は、撮影を制御する撮影制御装置、撮影制御方法、撮影制御プログラム、 および記録媒体に関する。ただし、この発明の利用は、上述した撮影制御装置、撮 影制御方法、撮影制御プログラム、および記録媒体には限られない。
背景技術
[0002] 従来、運転行動に関する撮像画像と移動体検出データとの同期表示に基づく運転 行動解析を容易に実現させる運転行動解析装置がある。この運転行動解析装置に よれば、解析用 PCの表示モニタに、センサ類を用いて検出された複数の車両検出 データの時間軸上での推移を表示する。また、その車両検出データの時間軸上での 推移が表示された表示モニタの表示画面に、特定時点を示すカーソルを重畳表示 する。そして、 TVモニタに、そのカーソルの示す特定時点で CCDカメラにより撮影さ れた撮像画像を表示する (たとえば、下記特許文献 1参照。 ) o
[0003] 特許文献 1 :特開 2005— 188998号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、上述の特許文献 1に記載された技術では、運転者を撮影することで 運転行動を解析することはできるが、たとえば、規定の速度を超えた速度を検知した 場合や、急ブレーキや急ハンドルなどの運転者が危険な挙動を示した場合に、運転 者に安全運転を促す警告を与えることができないという問題が一例として挙げられる 課題を解決するための手段
[0005] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる撮影制御 装置は、移動体内の搭乗者の挙動を検出する検出手段と、前記検出手段によって 検出された結果に基づいて、前記搭乗者が所定の挙動をおこなった力否力判断す る判断手段と、前記判断手段によって前記搭乗者が所定の挙動をおこなったと判断 された場合に、前記移動体内の映像を撮影する撮影手段を制御して当該搭乗者の 映像を撮影する制御手段と、前記撮影手段によって撮影された前記搭乗者の映像を 出力する出力手段と、を備えることを特徴とする。
[0006] また、請求項 6の発明に力かる撮影制御方法は、移動体内の搭乗者の挙動を検出 する検出工程と、前記検出工程によって検出された検出結果に基づいて、前記搭乗 者が所定の挙動をおこなった力否か判断する判断工程と、前記判断工程によって前 記搭乗者が所定の挙動をおこなったと判断された場合に、前記移動体内の映像を撮 影する撮影手段を制御して当該搭乗者の映像を撮影する制御工程と、前記撮影手 段によって撮影された前記搭乗者の映像を出力する出力工程と、を含むことを特徴 とする。
[0007] また、請求項 7の発明に力かる撮影制御プログラムは、請求項 6に記載の撮影制御 方法をコンピュータに実行させることを特徴とする。
[0008] また、請求項 8の発明に力かる記録媒体は、請求項 7に記載の撮影制御プログラム をコンピュータに読み取り可能な状態で記録したことを特徴とする。
[0009] また、請求項 9の発明に力かる撮影制御装置は、移動体の運転者により視認可能と なる位置に配置された撮影手段と、前記運転者の挙動が運転操作にお!、て異常な 挙動であるか否かを判断する判断手段と、前記運転者を前記撮影手段の撮影にお ける主の対象物とすることを当該運転者に認知させる認知手段と、前記判断手段に より異常な挙動であると判断した場合、前記認知手段を制御して、前記運転者に主 の対象物になることを認知させる制御手段と、を備えたことを特徴とする。
図面の簡単な説明
[0010] [図 1]図 1は、実施の形態に力かる撮影制御装置の機能的構成を示すブロック図であ る。
[図 2]図 2は、撮影制御装置の撮影制御処理手順を示すフローチャートである。
[図 3]図 3は、実施例にかかる表示装置が搭載された車両内部の一例を示す説明図 である。
[図 4]図 4は、ナビゲーシヨン装置のハードウェア構成を示すブロック図である。
[図 5]図 5は、ナビゲーシヨン装置の処理の内容を示すフローチャートである。 符号の説明
100 撮影制御装置
101 撮影部
102 出力部
103 検出部
104 判断部
105 制御部
106 じ' 1思 p:[5
107 通信部
110 認知部
111 変化部
112 点灯部
113 音声出力部
発明を実施するための最良の形態
[0012] 以下に添付図面を参照して、この発明にかかる撮影制御装置、撮影制御方法、撮 影制御プログラム、および記録媒体の好適な実施の形態を詳細に説明する。
[0013] (実施の形態)
(撮影制御装置の機能的構成)
はじめに、この発明の実施の形態に力かる撮影制御装置 100の機能的構成につい て説明する。図 1は、実施の形態にかかる撮影制御装置の機能的構成を示すブロッ ク図である。
[0014] 図 1において、撮影制御装置 100は、撮影部 101と、出力部 102と、検出部 103と、 判断部 104と、制御部 105と、記憶部 106と、通信部 107と、認知部 110と、を備えて いる。
[0015] 撮影部 101は、移動体内の搭乗者の映像を撮影する。映像は、動画あるいは静止 画のどちらでもよい。また、搭乗者は、たとえば、運転者や助手席の搭乗者や後部座 席の搭乗者である。撮影部 101は、たとえば、移動体内前方などの搭乗者の視野に 入る位置に配置される。また、撮影部 101は、移動可能、回転可能、もしくは撮影角 度の変更が可能であってもよい。さらに、撮影部 101は、常に搭乗者を撮影する方向 を向いていてもよいし、他の機能を併せ持つている場合、通常は車外前方などを向 いていてもよい。他の機能とは、具体的には、たとえば、運転補助機能やドライブレコ ーダ機能である。
[0016] 出力部 102は、撮影部 101によって撮影された搭乗者の映像を出力する。出力部 102は、たとえば、撮影部 101によって映像を撮影された搭乗者にとって視認可能な 位置に配置され、撮影部 101によって撮影された搭乗者、もしくは他の搭乗者の映 像を出力する。具体的には、たとえば、移動体の運転者に視認可能な位置に配置さ れ、撮影部 101で撮影された運転者の映像や他の搭乗者の映像を出力する。また、 具体的には、たとえば、助手席や後部座席の搭乗者が視認可能な位置に配置され、 撮影部 101で撮影された運転者の映像や他の搭乗者の映像を出力する。
[0017] 検出部 103は、搭乗者の挙動を検出する。搭乗者の挙動は、たとえば、運転者の 挙動であり、運転者の動作や操作などを、移動体に搭載された各種センサの出力な どに基づいて検出されるようにしてもよい。各種センサは、たとえば、振動センサや G センサや移動体に対する接触センサ、およびノ、ンドル操作や方向指示信号の入力 操作やアクセルペダルの操作やブレーキペダルの操作などの操作に関する情報を 出力できるセンサでもよい。また、脈拍などの生体に関する情報を出力できるセンサ でもよい。
[0018] また、運転者の挙動は、具体的には、たとえば、運転者の表情を、図示しないカメラ などによって入力することで検出されるようにしてもよい。カメラは、入力された映像を 解析し、解析された映像から、運転者の疲労度、眠気の度合いなどを検出する。
[0019] また、搭乗者の挙動は、たとえば、運転者以外の同乗者の挙動であってもよい。同 乗者の挙動は、運転の妨げになる音声や動作など、移動体に搭載されたマイクや各 種センサの出力などに基づいて検出されるようにしてもよい。マイクは、たとえば、同 乗者の発した音声の音量などを検出する。
[0020] 判断部 104は、検出部 103によって検出された検出結果に基づいて、搭乗者が所 定の挙動をおこなった力否力判断する。所定の挙動は、たとえば、運転手の運転操 作において異常な挙動であり、振動センサや Gセンサなど各種センサの出力値が規 定以上の値であったり、異常を示す所定のパターンと近似した場合や、接触センサ が作動した場合などを運転操作において異常な挙動として判断してもよい。また、移 動体の操作に関する情報に基づいて、危険な操作であった場合に、運転操作にお いて異常な挙動となる操作と判断するものであってもよい。より具体的には、たとえば 、所定の角度以上の急なハンドル操作や方向指示の伴わな 、ハンドル操作ゃ不必 要な加速および減速などの情報の出力があった場合に、移動体の操作が異常な挙 動となる操作と判断してもよ 、。
[0021] また、判断部 104は、経路誘導中の移動体に対しては、移動体が誘導経路から外 れた経路に差し掛かった場合に、所定の挙動をおこなったと判断してもよい。この場 合、所定の挙動は、 GPSユニットおよび各種センサの出力値から、移動体の現在位 置を算出することにより判断してもよいし、ハンドル操作や方向指示信号の入力操作 に関する情報力 判断してもよい。
[0022] 制御部 105は、判断部 104によって搭乗者が所定の挙動をおこなったと判断され た場合に、撮影部 101を制御して搭乗者の映像を撮影する。ここで、撮影部 101が、 他の機能を併せ持つている場合は、撮影部 101を移動もしくは回転させてから、搭乗 者の撮影を開始するようにしてもよい。撮影部 101を移動もしくは回転させるタイミン グは、判断部 104によって運転操作において異常な挙動であると判断した場合、す ぐに移動もしくは回転させるタイミングでもよいし、併せ持った他の機能をおこなって 力も回転させるタイミングでもよ 、。
[0023] また、制御部 105は、判断部 104によって搭乗者が所定の挙動をおこなったと判断 された場合に、撮影部 101の撮影角度を搭乗者に向ける角度にしてもよい。撮影角 度は、具体的には、たとえば、搭乗者の目線に向ける角度である。さらに、制御部 10 5は、たとえば、撮影部 101の電源が入っていない場合は、判断部 104によって搭乗 者が所定の挙動をおこなったと判断された場合に、撮影部 101の電源を投入するよ うにしてもよい。
[0024] 記憶部 106は、撮影部 101によって撮影された搭乗者の映像を記憶する。記憶部 106は、制御部 105によって、搭乗者が所定の挙動をおこなったごとに搭乗者の映 像を記憶してもよい。また、記憶部 106によって記憶された映像は、具体的には、たと えば、事故の際の原因究明に供するいわゆるドライブレコーダ型監視のための映像 として用いられる。
[0025] 通信部 107は、撮影部 101によって撮影された搭乗者の映像を図示しないサーバ などを介して、監視者の端末に送信する。また、通信部 107は、監視者の端末からサ ーバを介して警告を受信してもよい。具体的には、たとえば、タクシーやバスなどで後 部座席の搭乗者が所定の挙動をおこなった場合などに、後部座席の搭乗者の映像 をサーバを介して、事業所の端末に送信する。そして、事業所の端末力 サーバを 介して警告を受信する。
[0026] 認知部 110は、運転者を前記撮影手段の撮影における主の対象物とすることを当 該運転者に認知させる。認知部 110は、判断部 104により異常な挙動であると判断さ れた場合、制御部 105によって制御され、運転者に主の対象物になることを認知させ る。また、認知部 110は、撮影部 101の撮影方向を変化させる変化部 111であっても よい。変化部 111は、制御部 105によって制御され、撮影部 101の撮影方向を運転 者に向ける。
[0027] また、認知部 110は、撮影部 101の撮影における主の対象物が運転者であることを 報知するために点灯する点灯部 112であってもよいし、撮影部 101の撮影における 主の対象物が運転者であることを報知するために音声を出力する音声出力部 113で あってもよい。点灯部 112および音声出力部 113は、制御部 105によって制御され、 運転者に主の対象物になることを認知させる。
[0028] (撮影制御装置の撮影制御処理手順)
つぎに、撮影制御装置 100の撮影制御処理手順について説明する。図 2は、撮影 制御装置の撮影制御処理手順を示すフローチャートである。図 2のフローチャートに おいて、まず、検出部 103によって、搭乗者の挙動を検出する (ステップ S201)。つ ぎに、ステップ S201において検出された検出結果に基づいて、判断部 104によって 搭乗者が所定の挙動をおこなった力否かを判断する (ステップ S202)。
[0029] ステップ S202にお!/、て搭乗者が所定の挙動をおこなった場合 (ステップ S 202: Ye s)、制御部 105によって撮影部 101の撮影角度を搭乗者に向ける角度にする (ステ ップ S203)。そして、撮影部 101によって搭乗者の映像を撮影して (ステップ S204) 、出力部 102によって映像を出力する(ステップ S205)。一方、ステップ S202におい て搭乗者が所定の挙動をおこなわない場合 (ステップ S202 : No)、ステップ S201に 戻り、一連の処理を繰り返す。
[0030] なお、図 2のフローチャートにおいては、ステップ S203において撮影部の撮影角度 を搭乗者に向ける角度にするとしているが、これに限るものではない。たとえば、撮影 部 101が他の機能を併せ持つている場合などは、併せ持った他の機能をおこなって 力も撮影部 101を移動もしくは回転させて、それ力も撮影角度を変更してもよい。また 、撮影部 101の物理的な撮影角度を変更することなぐ常に特定の搭乗者 (たとえば
、運転者)を撮影に入れるようにしてもよい。この場合には、特定の搭乗者が所定の 挙動をおこなった場合、その特定の搭乗者にフォーカス (焦点)を当てる撮影とし、ま たは、インジケータの点灯、擬音や音声案内などの音声出力をおこなうようにしてもよ い。
[0031] また、図 2のフローチャートにおいては、ステップ S204において搭乗者の映像を撮 影するとしている力 これに限るものではない。たとえば、ステップ S203において撮 影部 101の撮影角度を搭乗者に向けることで、搭乗者が自身に撮影部 101が向いて いると認識できる構成の場合は、撮影部 101は映像を撮影しなくてもよい。この場合 、ステップ S205において映像は出力しない。
[0032] また、図 2のフローチャートにおいては、ステップ S204において搭乗者の映像を撮 影するとしているが、これに限るものではない。たとえば、搭乗者の映像を撮影すると ともに、搭乗者が所定の挙動をおこなったごとに映像を記憶してもよい。
[0033] また、図 2のフローチャートにおいては、ステップ S205において映像を出力するとし ているがこれに限るものではない。たとえば、映像を通信部 107によってサーバを介 して監視者に送信してもよい。この場合、通信部 107は監視者からの警告をサーバ を介して受信するようにしてもょ 、。
[0034] 上述したように、実施の形態の撮影制御装置 100によれば、判断部 104によって搭 乗者が所定の挙動をおこなったと判断された場合に、制御部 105によって撮影部 10 1を制御して搭乗者の映像を撮影し、出力部 102によって映像を出力することができ る。これによつて、搭乗者は、自身もしくは同乗者が所定の挙動をおこなった場合に、 自身もしくは同乗者の映像を見ることで自身もしくは同乗者を監視することができる。
[0035] また、実施の形態の撮影制御装置 100によれば、判断部 104によって運転者の挙 動が運転操作において異常な挙動であると判断された場合に、制御部 105によって 撮影部 101を制御して運転者の映像を撮影し、出力部 102によって映像を出力する ことができる。これによつて、運転者が異常な挙動をおこなった場合、運転者もしくは 同乗者は、運転者を監視することができる。
[0036] また、実施の形態の撮影制御装置 100によれば、撮影部 101によって映像を撮影 された搭乗者にとって視認可能な位置に配置された出力部 102に対して、映像を出 力することができる。これによつて、搭乗者は、自身が所定の挙動をおこなった場合 に、自身の映像を見ることで自己監視をすることができる。
[0037] さらに、実施の形態の撮影制御装置 100によれば、判断部 104によって搭乗者が 所定の挙動をおこなったと判断された場合に、制御部 105は、撮影部 101の撮影角 度を搭乗者に向ける角度にすることができる。したがって、たとえば、制御部 105は、 撮影部 101を搭乗者の目線に合わせた角度にすることができる。これによつて、搭乗 者に撮影部 101が自身を向 ヽて ヽることを認識させて、自身が監視されて!ヽると意識 させることで、安全運転を促すことができる。
[0038] また、実施の形態の撮影制御装置 100によれば、制御部 105は、搭乗者が所定の 挙動をおこなったごとに記憶部 106に搭乗者の映像を記憶することができる。したが つて、記憶部 106は、搭乗者の所定の挙動を記憶しておくことができる。これによつて 、搭乗者は、たとえば、事故などがおこった際に、記憶された映像を用いて事故原因 の究明をすることができる。
[0039] また、実施の形態の撮影制御装置 100によれば、判断部 104により異常な挙動で あると判断された場合、認知部 110を制御部 105によって制御して、運転者に主の 対象物〖こなることを認知させることができる。これによつて、運転者に自身が撮影部 1 01の主の対象者になることを認知させて、自身が監視されていると意識させることで 、安全運転を促すことができる。
実施例
[0040] 以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪 車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置によって、本発明 の撮影制御装置を実施した場合の一例について説明する。
[0041] (表示装置が搭載された車両内部の説明)
図 3を用いて、実施例に力かる表示装置が搭載された車両内部について説明する 。図 3は、実施例にカゝかる表示装置が搭載された車両内部の一例を示す説明図であ る。図 3において、車両内部 310は、運転席シート 311と、助手席シート 312と、後部 座席シート 313とを有しており、運転席シート 311と助手席シート 312との周囲には、 表示装置 300aおよびスピーカ 301が設けられている。また、助手席シート 312には、 後部座席シート 313の搭乗者に向けて、表示装置 300bが設けられている。
[0042] 表示装置 300a、 300bは、ディスプレイ 302a、 302bをそれぞれ有しており映像を 表示する。なお、スピーカ 301は、車両内部 310に 1つあるいは複数あればよい。ま た、スピーカ 301は、後部座席シート 313の周囲に設ける構成でもよぐ案内音など の音声を再生する。これらの表示装置 300a、 300bは、車両に対して着脱可能な構 造を備えていてもよい。また、カメラ 303は、車両内部 310のダッシュボード付近に設 けられている。
[0043] (ナビゲーシヨン装置のハードウェア構成)
つぎに、ナビゲーシヨン装置 400のハードウェア構成について説明する。図 4は、ナ ピゲーシヨン装置のハードウェア構成を示すブロック図である。図 4において、ナビゲ ーシヨン装置 400は、 CPU401と、 ROM402と、 RAM403と、磁気ディスクドライブ 404と、磁気ディスク 405と、光ディスクドライブ 406と、光ディスク 407と、音声 l/F ( インターフェース) 408と、マイク 409と、スピーカ 410と、入力デバイス 411と、映像 I ZF412と、ディスプレイ 413と、通信 I/F414と、 GPSユニット 415と、各種センサ 4 16と、カメラ 417と、を備えている。各構成部 401〜417は、バス 420によってそれぞ れ接続されている。
[0044] まず、 CPU401は、ナビゲーシヨン装置 400の全体の制御を司る。 ROM402は、 ブートプログラム、映像解析プログラム、撮影制御プログラムなどのプログラムを記録 している。また、 RAM403は、 CPU401のワークエリアとして使用される。すなわち、 CPU401は、 RAM403をワークエリアとして使用しながら、 ROM402に記録された 各種プログラムを実行することによって、ナビゲーシヨン装置 400の全体の制御を司 る。
[0045] 映像解析プログラムは、後述するカメラ 417など力も入力された映像力も運転者の 表情を解析し、運転者の疲労度、眠気の度合いなどを検出させる。運転者の表情は 、具体的には、たとえば、運転者のまばたきの頻度や、運転者の上半身の揺れなど である。
[0046] 磁気ディスクドライブ 404は、 CPU401の制御にしたがって磁気ディスク 405に対 するデータの読み取り Z書き込みを制御する。磁気ディスク 405は、磁気ディスクドラ イブ 404の制御で書き込まれたデータを記録する。磁気ディスク 405としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用いることができる。
[0047] また、光ディスクドライブ 406は、 CPU401の制御にしたがって光ディスク 407に対 するデータの読み取り Z書き込みを制御する。光ディスク 407は、光ディスクドライブ 406の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディ スク 407は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体 として、光ディスク 407のほ力 MO、メモリカードなどであってもよい。
[0048] 磁気ディスク 405および光ディスク 407に記録される情報の一例としては、地図デ ータゃ機能データが挙げられる。地図データは、建物、河川、地表面などの地物(フ ィーチヤ)をあらわす背景データと、道路の形状をあらわす道路形状データとを含ん でおり、地区ごとに分けられた複数のデータファイルによって構成されている。
[0049] 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえ ば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンク シヨンの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道 路、有料道路、一般道路など)などの情報が含まれている。
[0050] 機能データは、地図上の施設の形状をあらわす 3次元データ、当該施設の説明を あらわす文字データ、その他地図データ以外の各種のデータである。地図データや 機能データは、地区ごとあるいは機能ごとにブロック分けされた状態で記録されてい る。具体的には、たとえば、地図データは、各々が、表示画面に表示された地図にお いて所定の地区をあらわすように、地区ごとにブロック分けすることができる状態で記 録されている。また、たとえば、機能データは、各々が、 1つの機能を実現するように、 機能ごとに複数にブロック分けすることができる状態で記録されている。
[0051] また、機能データは、上述した 3次元データや文字データに加えて、経路探索、所 要時間の算出、経路誘導などを実現するプログラムデータなどの機能を実現するた めのデータである。地図データおよび機能データは、それぞれ、地区ごとあるいは機 能ごとに分けられた複数のデータファイルによって構成されている。
[0052] 音声 IZF408は、音声入力用のマイク 409および音声出力用のスピーカ 410に接 続される。マイク 409に受音された音声は、音声 IZF408内で AZD変換される。マ イク 409は、たとえば、車両のサンバイザー付近に設置され、その数は単数でも複数 でもよい。スピーカ 410からは、所定の音声信号を音声 IZF408内で DZA変換した 音声が出力される。なお、マイク 409から入力された音声は、音声データとして磁気 ディスク 405あるいは光ディスク 407に記録可能である。図 4のスピーカ 410は、図 3 におけるスピーカ 301の機能を実現する。
[0053] 入力デバイス 411は、文字、数値、各種指示などの入力のための複数のキーを備 えたリモコン、キーボード、タツチパネルなどが挙げられる。入力デバイス 411は、リモ コン、キーボード、タツチパネルのうちいずれ力 1つの形態によって実現されてもよい 力 複数の形態によって実現することも可能である。
[0054] 映像 IZF412は、ディスプレイ 413に接続される。映像 IZF412は、具体的には、 たとえば、ディスプレイ 413全体を制御するグラフィックコントローラと、即時表示可能 な画像情報を一時的に記録する VRAM (Video RAM)などのバッファメモリと、グ ラフィックコントローラから出力される画像データに基づいてディスプレイ 413を制御 する制御 ICなどによって構成される。
[0055] ディスプレイ 413には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や映 像などの各種データが表示される。ディスプレイ 413には、上述した地図データ力 2 次元または 3次元に描画される。ディスプレイ 413に表示された地図データには、ナ ピゲーシヨン装置 400を搭載した車両の現在位置をあらわすマークなどを重ねて表 示することができる。車両の現在位置は、 CPU401によって算出される。
[0056] ディスプレイ 413としては、たとえば、 CRT, TFT液晶ディスプレイ、プラズマデイス プレイなどを用いることができる。ディスプレイ 413は、たとえば、車両のダッシュボー ド付近に設置される。ディスプレイ 413は、車両のダッシュボード付近のほ力、車両の 後部座席周辺などに設置するなどして、車両にぉ 、て複数設置されて 、てもよ 、。 図 4のディスプレイ 413は、図 3のディスプレイ 302a、 302bの機能を実現する。
[0057] 通信 IZF414は、無線を介してネットワークに接続され、ナビゲーシヨン装置 400と CPU401とのインターフェースとして機能する。通信 I/F414は、さらに、無線を介し てインターネットなどの通信網に接続され、この通信網と CPU401とのインターフエ一 スとしても機能する。
[0058] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 IZF414は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) Zビーコンレシーノ 、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンター力も配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。
[0059] 0?3ュ-ット415は、 GPS衛星からの電波を受信し、車両の現在位置を示す情報 を出力する。 GPSユニット 415の出力情報は、後述する各種センサ 416の出力値とと もに、 CPU401による車両の現在位置の算出に際して利用される。現在位置を示す 情報は、たとえば緯度'経度、高度などの、地図データ上の 1点を特定する情報であ る。
[0060] 各種センサ 416は、車速センサ、加速度センサ、角速度センサなどの、車両の位置 や挙動を判断するための情報を出力する。各種センサ 416の出力値は、 CPU401 による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。また、 各種センサ 416は、ドライバーによる車両の各操作を検知するセンサなども含む。車 両の各操作の検知は、たとえば、ハンドル操作や方向指示器の入力やアクセルぺダ ルの踏み込みやブレーキペダルの踏み込みなどを検知する構成としてもよ 、。また、 各種センサ 416は、脈拍などの生体に関する情報を出力できるセンサでもよい。生体 に関する情報は、具体的には、たとえば、ハンドルなどによって脈拍を検知する構成 としてちよい。
[0061] カメラ 417は、車両内部あるいは外部の映像を撮影する。映像は静止画あるいは動 画のどちらでもよぐたとえば、カメラ 417によって車両内部の運転者の挙動を撮影し 、撮影した映像をディスプレイ 413に表示する。また、映像は映像 IZF412を介して 磁気ディスク 405や光ディスク 407などの記録媒体に出力する。また、カメラ 417によ つて車両内部あるいは外部の状況を撮影し、撮影した映像を映像 IZF412を介して 磁気ディスク 405や光ディスク 407などの記録媒体に出力する。カメラ 417は、移動 可能、回転可能、もしくは撮影角度の変更が可能であってもよい。
[0062] また、カメラ 417は、通常は車両外部の映像を撮影し、各種センサ 416などによって 運転操作において異常な挙動を検出した場合に、移動や回転をおこない運転者を 撮影するようにしてもよい。また、カメラ 417は、常に車両内部に向いている力 通常 は電源が投入されておらず、各種センサ 416などによって運転操作において異常な 挙動を検出した場合に、電源が投入されるようにしてもょ ヽ。
[0063] また、カメラ 417は、赤外線カメラ機能を有していてもよぐ赤外線カメラ機能を用い て撮影された映像に基づいて車両内部に存在する物体の表面温度の分布を相対的 に比較することができる。また、記録媒体に出力された映像は、上書き記録や保存が おこなわれる。図 4のカメラ 417は、図 3のカメラ 303の機能を実現する。
[0064] 図 1に示した撮影制御装置 100が備える撮影部 101、出力部 102、検出部 103、 判断部 104、制御部 105、記憶部 106、通信部 107、図 4に示したナビゲーシヨン装 置 400における ROM402、 RAM403、磁気ディスク 405、光ディスク 407などに記 録されたプログラムやデータを用いて、 CPU401が所定のプログラムを実行し、ナビ ゲーシヨン装置 400における各部を制御することによってその機能を実現する。
[0065] すなわち、実施例のナビゲーシヨン装置 400は、ナビゲーシヨン装置 400における 記録媒体としての ROM402に記録されている撮影制御プログラムを実行することに より、図 1に示した撮影制御装置が備える機能を、図 2に示した撮影制御処理手順で 実行することができる。
[0066] (ナビゲーシヨン装置 400の処理の内容)
つぎに、ナビゲーシヨン装置 400の処理の内容について説明する。図 5は、ナビゲ ーシヨン装置の処理の内容を示すフローチャートである。図 5のフローチャートにおい て、まず、車両に備えられた各種センサ 416によって、制限速度を超える速度が検出 されたカゝ否かを判断する (ステップ S501)。制限速度を超える速度が検出されない場 合 (ステップ S501 :No)、急ノヽンドルや急ブレーキが検出されたカゝ否かを判断する( ステップ S502)。
[0067] ステップ S502にお!/、て、急ハンドルや急ブレーキが検出されな!、場合 (ステップ S 502 : No)、車両が誘導経路力も外れた力否かを判断する (ステップ S503)。ステツ プ S503において車両が誘導経路力も外れなかった場合 (ステップ S503 :No)、ステ ップ S501〖こ戻り、以降の処理を繰り返す。
[0068] 一方、ステップ S501において制限速度を超える速度を検出した場合 (ステップ S5 01: Yes)、ステップ S502において急ハンドルや急ブレーキが検出された場合 (ステ ップ S502 : Yes)、ステップ S503において車両が誘導経路力も外れた場合 (ステップ S503 :Yes)、運転者が運転操作において異常な挙動をおこなったと判断して (ステ ップ S 504)、カメラ 417の電源を投入する(ステップ S 505)。
[0069] つぎに、カメラ 417を運転者へ向け (ステップ S506)、カメラ 417の撮影角度を運転 者に向けて (ステップ S507)、運転者の映像を撮影する (ステップ S508)。また、ステ ップ S 508にお ヽて運転手の映像を撮影するとともに、撮影した映像を記憶し (ステツ プ S509)、ディスプレイ 413に映像を出力する(ステップ S510)。そして、所定時間 以内に再び運転者の運転操作において異常な挙動を検出した力否かを判断し (ステ ップ S511)、所定時間以内に再び運転者の異常な挙動を検出しない場合 (ステップ S511 :No)、カメラ 417の向きを元に戻して(ステップ S512)、一連の処理を終了す る。一方、ステップ S511において、所定時間以内に再び運転者の異常な挙動を検 出した場合 (ステップ S511 :Yes)、ステップ S508に戻り、以降の処理を繰り返す。
[0070] なお、図 5のフローチャートにおいては、ステップ S501、ステップ S502、ステップ S 503の順に処理をおこなっている力 これに限るものではない。ステップ S501、ステ ップ S502、およびステップ S503は順不同であり、いずれか一つの判断結果が Yes の場合に、ステップ S504に進む構成としてもよい。
[0071] また、図 5のフローチャートにおいては、ステップ S505においてカメラの電源を投入 するとしている力 これに限るものではない。たとえば、すでにカメラの電源が投入さ れている場合、ステップ S505を省略してステップ S506に進む構成としてもよい。 [0072] 上述したように、実施例のナビゲーシヨン装置 400によれば、判断部 104によって 搭乗者が所定の挙動をおこなったと判断された場合に、制御部 105によって撮影部 101を制御して搭乗者の映像を撮影し、出力部 102によって映像を出力することが できる。これによつて、搭乗者は、自身もしくは同乗者が所定の挙動をおこなった場 合に、自身もしくは同乗者の映像を見ることで自身もしくは同乗者を監視することがで きる。
[0073] また、実施例のナビゲーシヨン装置 400によれば、判断部 104によって運転者の挙 動が運転操作において異常な挙動であると判断された場合に、制御部 105によって 撮影部 101を制御して運転者の映像を撮影し、出力部 102によって映像を出力する ことができる。これによつて、運転者が異常な挙動をおこなった場合、運転者もしくは 同乗者は、運転者を監視することができる。
[0074] また、実施例のナビゲーシヨン装置 400によれば、撮影部 101によって映像を撮影 された搭乗者にとって視認可能な位置に配置された出力部 102に対して、映像を出 力することができる。これによつて、搭乗者は、自身が所定の挙動をおこなった場合 に、自身の映像を見ることで自己監視をすることができる。
[0075] また、実施例のナビゲーシヨン装置 400によれば、判断部 104によって搭乗者が所 定の挙動をおこなったと判断された場合に、制御部 105は、撮影部 101の撮影角度 を搭乗者に向ける角度にすることができる。したがって、たとえば、制御部 105は、撮 影部 101を搭乗者の目線に合わせた角度にすることができる。これによつて、搭乗者 に撮影部 101が自身を向 、て 、ることを認識させて、自身が監視されて!、ると意識さ せることで、安全運転を促すことができる。
[0076] また、実施例のナビゲーシヨン装置 400によれば、制御部 105は、搭乗者が所定の 挙動をおこなったごとに記憶部 106に搭乗者の映像を記憶することができる。したが つて、記憶部 106は、搭乗者の所定の挙動を記憶しておくことができる。これによつて 、搭乗者は、たとえば、事故などがおこった際に、記憶された映像を用いて事故原因 の究明をすることができる。
[0077] また、実施例のナビゲーシヨン装置 400によれば、判断部 104により異常な挙動で あると判断された場合、認知部 110を制御部 105によって制御して、運転者に主の 対象物〖こなることを認知させることができる。これによつて、運転者に自身が撮影部 1 01の主の対象者になることを認知させて、自身が監視されていると意識させることで
、安全運転を促すことができる。
[0078] 以上説明したように、本発明の撮影制御装置、撮影制御方法、撮影制御プログラム 、および記録媒体によれば、判断部 104によって搭乗者が所定の挙動をおこなった と判断された場合に、制御部 105によって撮影部 101を制御して搭乗者の映像を撮 影し、出力部 102によって出力することができる。したがって、搭乗者は、自身もしく は同乗者が所定の挙動をおこなった場合に、自身もしくは同乗者の映像を見ることで 自身もしくは同乗者を監視することができる。これによつて、運転操作において異常 な挙動をおこなった運転者に、自身が見られていると認識させて、安全運転を促すこ とがでさる。
[0079] なお、本実施の形態で説明した撮影制御方法は、あらかじめ用意されたプログラム をパーソナル 'コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体力も読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体内の搭乗者の挙動を検出する検出手段と、
前記検出手段によって検出された結果に基づいて、前記搭乗者が所定の挙動を おこなつたか否か判断する判断手段と、
前記判断手段によって前記搭乗者が所定の挙動をおこなったと判断された場合に 、前記移動体内の映像を撮影する撮影手段を制御して当該搭乗者の映像を撮影す る制御手段と、
前記撮影手段によって撮影された前記搭乗者の映像を出力する出力手段と、 を備えることを特徴とする撮影制御装置。
[2] 前記検出手段によって検出される前記搭乗者の挙動は、前記移動体の運転者の 挙動であり、
前記制御手段は、前記判断手段によって前記運転者の挙動が運転操作にぉ 、て 異常な挙動であると判断された場合に、前記撮影手段を制御して当該運転者の映像 を撮影することを特徴とする請求項 1に記載の撮影制御装置。
[3] 前記撮影手段によって映像を撮影された前記搭乗者にとって視認可能な位置に配 置された出力手段に対して、前記映像を出力することを特徴とする請求項 1に記載の 撮影制御装置。
[4] 前記制御手段は、前記判断手段によって前記搭乗者が所定の挙動をおこなったと 判断された場合に、前記撮影手段の撮影角度を当該搭乗者に向ける角度にすること を特徴とする請求項 1に記載の撮影制御装置。
[5] 前記撮影手段によって撮影された前記搭乗者の映像を記憶する記憶手段を備え、 前記制御手段は、前記搭乗者が所定の挙動をおこなったごとに当該搭乗者の映像 を記憶することを特徴とする請求項 1〜4のいずれか一つに記載の撮影制御装置。
[6] 移動体内の搭乗者の挙動を検出する検出工程と、
前記検出工程によって検出された検出結果に基づいて、前記搭乗者が所定の挙 動をおこなった力否か判断する判断工程と、
前記判断工程によって前記搭乗者が所定の挙動をおこなったと判断された場合に 、前記移動体内の映像を撮影する撮影手段を制御して当該搭乗者の映像を撮影す る制御工程と、
前記撮影手段によって撮影された前記搭乗者の映像を出力する出力工程と、 を含むことを特徴とする撮影制御方法。
[7] 請求項 6に記載の撮影制御方法をコンピュータに実行させることを特徴とする撮影 制御プログラム。
[8] 請求項 7に記載の撮影制御プログラムを記録したことを特徴とするコンピュータに読 み取り可能な記録媒体。
[9] 移動体の運転者により視認可能となる位置に配置された撮影手段と、
前記運転者の挙動が運転操作において異常な挙動であるカゝ否かを判断する判断 手段と、
前記運転者を前記撮影手段の撮影における主の対象物とすることを当該運転者に 認知させる認知手段と、
前記判断手段により異常な挙動であると判断した場合、前記認知手段を制御して、 前記運転者に主の対象物になることを認知させる制御手段と、
を備えたことを特徴とする撮影制御装置。
[10] 前記認知手段は、前記撮影手段の撮影方向を変化させる変化手段であり、
前記制御手段は、前記変化手段を制御して、前記撮影手段の撮影方向を運転者 に向けさせることを特徴とする請求項 9に記載の撮影制御装置。
[11] 前記認知手段は、前記撮影手段の撮影における主の対象物が前記運転者である ことを報知するために点灯する点灯手段であり、
前記制御手段は、前記点灯手段を制御して、前記運転者に主の対象物になること を認知させることを特徴とする請求項 9に記載の撮影制御装置。
[12] 前記認知手段は、前記撮影手段の撮影における主の対象物が前記運転者である ことを報知するために音声を出力する音声出力手段であり、
前記制御手段は、前記音声出力手段を制御して、前記運転者に主の対象物にな ることを認知させることを特徴とする請求項 9に記載の撮影制御装置。
[13] 前記認知手段により前記撮影手段の撮影における主の対象物とすることを前記運 転者に認知させた後所定時間経過しても前記判断手段による異常な挙動であるとの 判断結果が解消されない場合には、前記制御手段は、前記撮影手段を制御して撮 影動作を開始させることを特徴とする請求項 9〜 12のいずれか一つに記載の撮影制 御装置。
PCT/JP2007/059662 2006-05-23 2007-05-10 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体 WO2007135865A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008516596A JP4421668B2 (ja) 2006-05-23 2007-05-10 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006142953 2006-05-23
JP2006-142953 2006-05-23

Publications (1)

Publication Number Publication Date
WO2007135865A1 true WO2007135865A1 (ja) 2007-11-29

Family

ID=38723178

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/059662 WO2007135865A1 (ja) 2006-05-23 2007-05-10 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体

Country Status (2)

Country Link
JP (1) JP4421668B2 (ja)
WO (1) WO2007135865A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102044144B (zh) * 2009-10-21 2012-10-03 厦门雅迅网络股份有限公司 一种出租车车载通信终端及其数据处理方法
WO2014020889A1 (ja) * 2012-08-03 2014-02-06 株式会社デンソー 操作制御装置、及び、操作制御プログラム
WO2014068892A1 (ja) * 2012-11-05 2014-05-08 株式会社デンソー 乗員監視装置
CN105654573A (zh) * 2015-12-30 2016-06-08 上海爱出车网络科技有限公司 车载智能分析监控装置
CN107103656A (zh) * 2017-04-19 2017-08-29 成都凌点科技有限公司 便于查看记录信息的行驶信息采集器
JP2021086508A (ja) * 2019-11-29 2021-06-03 矢崎エナジーシステム株式会社 車載器、運転評価システム及び運行支援システム
US20210375073A1 (en) * 2020-05-29 2021-12-02 Toyota Jidosha Kabushiki Kaisha Server device, control device, vehicle, and operation method for information processing system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103029750A (zh) * 2012-12-11 2013-04-10 昆山研达电脑科技有限公司 自动提醒操作方向盘姿势的系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05294166A (ja) * 1992-04-21 1993-11-09 Olympus Optical Co Ltd 安全装置
JP2000025659A (ja) * 1998-07-15 2000-01-25 Matsushita Electron Corp 衝突映像記録装置
JP2000280780A (ja) * 1999-03-31 2000-10-10 Toshiba Corp ドライバ状態検知システム
JP2001122163A (ja) * 1999-10-29 2001-05-08 Suzuki Motor Corp ドライブレコーダ
JP2001304876A (ja) * 2000-04-25 2001-10-31 Nec Corp 車載カメラによる画像記録・再生方式
JP2002352228A (ja) * 2001-05-25 2002-12-06 Toshiba Corp 画像処理システム及びこれを用いた運転支援システム
JP2003169322A (ja) * 2001-12-04 2003-06-13 Haugaa Japan:Kk 防犯機能を有する外部視認システム
JP2004224105A (ja) * 2003-01-21 2004-08-12 Matsushita Electric Ind Co Ltd ドライブレコーダ装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05294166A (ja) * 1992-04-21 1993-11-09 Olympus Optical Co Ltd 安全装置
JP2000025659A (ja) * 1998-07-15 2000-01-25 Matsushita Electron Corp 衝突映像記録装置
JP2000280780A (ja) * 1999-03-31 2000-10-10 Toshiba Corp ドライバ状態検知システム
JP2001122163A (ja) * 1999-10-29 2001-05-08 Suzuki Motor Corp ドライブレコーダ
JP2001304876A (ja) * 2000-04-25 2001-10-31 Nec Corp 車載カメラによる画像記録・再生方式
JP2002352228A (ja) * 2001-05-25 2002-12-06 Toshiba Corp 画像処理システム及びこれを用いた運転支援システム
JP2003169322A (ja) * 2001-12-04 2003-06-13 Haugaa Japan:Kk 防犯機能を有する外部視認システム
JP2004224105A (ja) * 2003-01-21 2004-08-12 Matsushita Electric Ind Co Ltd ドライブレコーダ装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102044144B (zh) * 2009-10-21 2012-10-03 厦门雅迅网络股份有限公司 一种出租车车载通信终端及其数据处理方法
WO2014020889A1 (ja) * 2012-08-03 2014-02-06 株式会社デンソー 操作制御装置、及び、操作制御プログラム
JP2014032119A (ja) * 2012-08-03 2014-02-20 Denso Corp 操作制御装置、及び、操作制御プログラム
WO2014068892A1 (ja) * 2012-11-05 2014-05-08 株式会社デンソー 乗員監視装置
CN105654573A (zh) * 2015-12-30 2016-06-08 上海爱出车网络科技有限公司 车载智能分析监控装置
CN107103656A (zh) * 2017-04-19 2017-08-29 成都凌点科技有限公司 便于查看记录信息的行驶信息采集器
JP2021086508A (ja) * 2019-11-29 2021-06-03 矢崎エナジーシステム株式会社 車載器、運転評価システム及び運行支援システム
JP7343370B2 (ja) 2019-11-29 2023-09-12 矢崎エナジーシステム株式会社 車載器、運転評価システム及び運行支援システム
US20210375073A1 (en) * 2020-05-29 2021-12-02 Toyota Jidosha Kabushiki Kaisha Server device, control device, vehicle, and operation method for information processing system
CN113746889A (zh) * 2020-05-29 2021-12-03 丰田自动车株式会社 服务器装置、控制装置、车辆和用于信息处理系统的操作方法

Also Published As

Publication number Publication date
JP4421668B2 (ja) 2010-02-24
JPWO2007135865A1 (ja) 2009-10-01

Similar Documents

Publication Publication Date Title
JP4421668B2 (ja) 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JP6613623B2 (ja) 車載装置、運転モード制御システム、及び運転モード制御方法
WO2006082886A1 (ja) 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体
JP6247704B2 (ja) 教官用装置、教習支援システム、教習支援プログラム、記録媒体および教習支援方法
US9984298B2 (en) Method for outputting a drowsiness warning and control unit
JP2006209455A (ja) 車両用運転診断装置、車両用運転診断システム、及び車両用運転診断方法
JP4820835B2 (ja) 運転状態警告システム、運転状態警告方法及びプログラム
JP2006172215A (ja) 運転支援システム
WO2016030934A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
WO2007032278A1 (ja) 経路探索装置、経路探索方法、経路探索プログラムおよびコンピュータに読み取り可能な記録媒体
CN112141010B (zh) 一种控制方法、装置、电子设备及存储介质
JP2009090927A (ja) 情報管理サーバ、駐車支援装置、駐車支援装置を備えたナビゲーション装置、情報管理方法、駐車支援方法、情報管理プログラム、駐車支援プログラム、および記録媒体
JP4917609B2 (ja) データ記録装置、データ記録方法、データ記録プログラムおよびコンピュータに読み取り可能な記録媒体
WO2006095688A1 (ja) 情報再生装置、情報再生方法、情報再生プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007135856A1 (ja) 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JPWO2006098181A1 (ja) 休憩支援装置、休憩支援方法、休憩支援プログラム、およびコンピュータに読み取り可能な記録媒体
WO2009101692A1 (ja) 前方監視装置、前方監視方法及び前方監視プログラム
JP2009223187A (ja) 表示内容制御装置、表示内容制御方法及び表示内容制御方法プログラム
US20200265252A1 (en) Information processing apparatus and information processing method
JP2009151187A (ja) 安全運転教示システム
JP4776627B2 (ja) 情報開示装置
JP2007121796A (ja) 表示制御装置
JP2014154125A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
US11881065B2 (en) Information recording device, information recording method, and program for recording information
JP2013257214A (ja) 表示装置、表示方法、表示プログラムおよび記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07743097

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2008516596

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07743097

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)