WO2015133141A1 - 表示物情報表示装置 - Google Patents

表示物情報表示装置 Download PDF

Info

Publication number
WO2015133141A1
WO2015133141A1 PCT/JP2015/001159 JP2015001159W WO2015133141A1 WO 2015133141 A1 WO2015133141 A1 WO 2015133141A1 JP 2015001159 W JP2015001159 W JP 2015001159W WO 2015133141 A1 WO2015133141 A1 WO 2015133141A1
Authority
WO
WIPO (PCT)
Prior art keywords
display object
display
unit
list
information
Prior art date
Application number
PCT/JP2015/001159
Other languages
English (en)
French (fr)
Inventor
松井 一博
加藤 香平
鈴木 孝光
裕子 中村
健史 山元
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/121,284 priority Critical patent/US10147009B2/en
Priority to DE112015001128.5T priority patent/DE112015001128T5/de
Publication of WO2015133141A1 publication Critical patent/WO2015133141A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/113Scrolling through menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/115Selection of menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices

Definitions

  • This disclosure relates to a display device display device (Displaying Apparatus) that displays information on various display materials installed on a road on a display unit (Display unit).
  • Display Apparatus Display Apparatus
  • Display unit Display unit
  • a patent document 1 is a display object information display device disclosed.
  • the display object information display device disclosed in Patent Document 1 captures the periphery of a vehicle while traveling, and determines whether or not a predetermined detection target such as a billboard such as a gas station is included in the image data. The determination is made using a known image recognition processing technique. If the detection target is included in the image data, information such as a charge displayed on the display object to be detected is extracted, and the display object is associated with the facility displaying the display object. save. According to the technique described in Patent Document 1, the driver can search and set a destination facility using information extracted from a display object and stored. In addition, the information acquired from the display object is displayed on a search screen for searching for a destination facility in addition to being used as a facility search condition.
  • a predetermined detection target such as a billboard such as a gas station
  • Patent Document 1 discloses a technique for displaying information acquired from a display object installed on a road when searching and setting a destination, but at a timing other than when searching and setting a destination, There is no mention of displaying information acquired from display objects on the road.
  • various display objects such as a direction signboard indicating the destination of the road connected to the intersection and a regulation sign indicating the upper limit of the traveling speed are installed.
  • the driver can recognize a route for reaching the destination, information for driving more safely, and the like by viewing these display objects.
  • An object of the present disclosure is to provide a display object information display device that displays information on a display object that may be overlooked by the driver so that the driver can easily recognize the display object information.
  • the display object information display device is a display that is set in advance as a detection target from image data captured by a front imaging device that sequentially captures the front of the vehicle.
  • Display object data which is data for each display object including display object information which is information represented by the display object detected by the display object detection unit and an oversight possibility evaluated by the oversight evaluation unit for the display object is stored in the memory.
  • the drawing unit when displaying the display object information of the display object, preferentially displays the display object information of the display object evaluated by the oversight evaluation unit as having a high possibility of being overlooked by the driver. . That is, information that has a high possibility of being overlooked by the driver is preferentially displayed.
  • the driver can recognize the contents of the display object that may have been overlooked by looking at the display object information displayed preferentially.
  • the block diagram which shows an example of the schematic structure of the driving assistance system which concerns on embodiment
  • Block diagram showing an example of a schematic configuration of a controller according to the present embodiment
  • Conceptual diagram showing an example of the data structure of the display object data list
  • the flowchart figure for demonstrating the display object detection process which a display object detection part implements The flowchart figure for demonstrating the display thing data preservation
  • the block diagram which shows an example of the schematic structure of the controller in a 3rd modification.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of a display object information display system 100 according to the present embodiment.
  • the display object information display system 100 includes a controller 1, a front camera 2, an in-vehicle sensor group 3, an input device 4, a driver monitor 5, a map database (hereinafter referred to as map DB) 6, a display 7, and audio output.
  • a device 8, a memory 9, and a communication device 10 are provided.
  • Controller 1 front camera 2, in-vehicle sensor group 3, input device 4, driver monitor 5, map database (hereinafter referred to as map DB) 6, display 7, audio output device 8, memory 9, and communication device 10 are Mutual communication is performed via a well-known in-vehicle network.
  • map DB map database
  • a vehicle on which the display object information display system 100 is mounted is also referred to as a host vehicle.
  • the “display object” is also referred to as a sign board.
  • the front camera 2 is installed, for example, in the vicinity of a room mirror in the vehicle interior so as to capture a predetermined range in front of the host vehicle (referred to as a front capturing range), and sequentially captures the front capturing range (for example, every 100 msec).
  • the front here includes not only the front direction of the host vehicle but also a diagonally forward direction.
  • the front camera 2 sequentially captures roads and other vehicles existing on the road in the forward shooting range. Image data generated by photographing the front camera 2 is sequentially input to the controller 1.
  • the front camera 2 is an optical camera in this embodiment, and for example, a CMOS camera or a CCD camera can be used.
  • the front camera 2 may be an infrared camera or the like. That is, the front camera 2 should just be the structure which can detect the display object installed on the road (a roadside is also included). Further, the installation position of the front camera 2 is not limited to the vicinity of the rearview mirror, but may be disposed outside the passenger compartment of the host vehicle (for example, at the center of the front bumper).
  • the front camera 2 is also referred to as a front photographing device.
  • the in-vehicle sensor group 3 is a variety of sensors for detecting the state of the host vehicle.
  • the vehicle speed sensor, acceleration sensor, gyro sensor, GNSS receiver, steering angle sensor, brake stroke sensor, accelerator pedal sensor, direction indication A lever position sensor and the like are included.
  • the vehicle speed sensor detects the traveling speed of the host vehicle
  • the acceleration sensor detects the acceleration acting on the host vehicle.
  • the GNSS receiver acquires data indicating the current position of the GNSS receiver by receiving radio waves from a satellite used in GNSS (Global Navigation Satellite System).
  • GNSS Global Navigation Satellite System
  • a GPS receiver can be used as the GNSS receiver.
  • the gyro sensor detects the rotational angular velocity around the vertical axis of the host vehicle, and the steering angle sensor detects the steering angle based on the steering angle.
  • the brake stroke sensor detects the depression amount of the brake pedal, and the accelerator pedal sensor detects the depression amount of the accelerator pedal.
  • the direction indicating lever position sensor detects whether the direction indicating lever is in a left turn position or a right turn position. Detection values detected by various sensors included in the in-vehicle sensor group 3 are sequentially output to the controller 1.
  • the input device 4 is a touch panel integrated with a display panel included in the display device 7, and the driver instructs the controller 1 to execute various functions by operating the input device 4. For example, the driver can instruct the controller 1 to display a display object list image described later by operating the input device 4.
  • the input device 4 outputs a control signal corresponding to an operation performed by the driver to the input device 4 to the controller 1.
  • a touch panel is adopted as the input device 4, but the input device 4 is not limited to the touch panel, and may be a mechanical switch or a voice recognition device capable of inputting instructions by a driver's utterance. Of course, these may be combined.
  • the driver monitor 5 is installed in the interior of the vehicle in a posture in which the photographing surface faces the driver, sequentially captures a range including the driver's face (for example, every 100 milliseconds), and image data of the captured image Are sequentially output to the controller 1.
  • the driver monitor 5 is mounted on the steering column cover, but may be mounted on the rearview mirror portion or the like as another mode.
  • an infrared camera capable of capturing an image in an environment with little visible light by detecting infrared rays is used as the driver monitor 5.
  • the driver monitor 5 may be an optical camera that senses visible light, such as a CMOS camera or a CCD camera, in addition to the infrared camera.
  • the driver monitor 5 is also referred to as a face photographing device.
  • the map DB 6 is a database storing map data, and is realized by using a rewritable nonvolatile storage medium such as an HDD (Hard Disk Drive).
  • a rewritable nonvolatile storage medium such as an HDD (Hard Disk Drive).
  • the storage medium for storing map data in the map DB 6 is not limited to a magnetic storage medium such as an HDD, but may be an optical storage medium such as a DVD. Further, it may be a non-rewritable storage medium.
  • the map data includes road data indicating road connection relationships (that is, a road network).
  • the road data includes node data relating to points (nodes) where a plurality of roads intersect, merge and branch, and link data relating to roads (ie links) connecting the points.
  • the node data includes a node ID with a unique number for each node, node coordinates (latitude / longitude), node name, connection link ID describing the link IDs of all links connected to the node, and traffic signal It is provided with each data, such as whether or not.
  • Link data includes a link ID with a unique number for each road, link length, link start and end nodes, coordinate data of each point on the link, road type such as expressway and general road, road width, link direction
  • Each data includes road name, number of lanes, speed limit, etc.
  • the display 7 displays text and images based on instructions from the controller 1 and notifies the driver of various information.
  • the display 7 is capable of full color display, for example, and can be configured using a liquid crystal display, an organic EL display, a plasma display, or the like.
  • the display device 7 is a center display disposed near the center of the instrument panel in the vehicle width direction.
  • “information” is used not only as a countable noun but also as a countable noun.
  • the indicator 7 may be a meter display arranged at the upper part of the driver panel side of the instrument panel.
  • the display device 7 may be a known head-up display that displays a virtual image on a part of the windshield in front of the driver's seat and displays various information.
  • the display device 7 may be realized by combining a center display, a meter display, a head-up display, and the like. In the case where the display device 7 includes a plurality of displays, for each data to be displayed by the controller 1, a display as an output destination of the data may be selected.
  • the audio output device 8 is constituted by a speaker or the like, and converts audio data input from the controller 1 into audio (including simple sounds) and outputs the audio.
  • the memory 9 includes a rewritable nonvolatile storage medium and a device that reads and writes data from and to the storage medium.
  • a storage medium provided in the memory 9 a known storage medium such as a magnetic disk, an optical disk, and a flash memory can be used.
  • a removable storage medium such as an SD card is used as an example of a storage medium included in the memory 9.
  • a DVD, CD, HDD or the like may be employed as the storage medium.
  • the memory 9 stores image recognition data D1 and a display object data list D2, which will be described later.
  • the communication device 10 includes a transmission / reception antenna, and communicates with an information collection server (not shown) provided outside via a communication network such as a telephone line or the Internet.
  • a communication network such as a telephone line or the Internet.
  • the communication device 10 is assumed to be realized by a communication module used in a known third generation mobile communication system.
  • various other devices such as an in-vehicle communication module such as DCM (Data Communication Module) can be adopted as the communication device 10.
  • the communication device 10 may communicate with the information collection server via a roadside device installed at an intersection or the like.
  • the controller 1 is also referred to as a control circuit.
  • the controller 1 is configured as a normal computer.
  • a known CPU a nonvolatile memory such as a ROM or EEPROM, a flash memory, a volatile memory such as a RAM, I / O and bus lines (both not shown) for connecting these components are provided.
  • the nonvolatile memory stores program modules and data for executing various processes.
  • the controller 1 includes a position detection unit F1, an operation reception unit F2, a display object detection unit F3, a driving load determination unit F4, a line-of-sight detection unit F5, an oversight evaluation unit F6, and a storage unit F7 (A drawing processing unit F8 (also referred to as a display control unit), and a communication unit F9 (also referred to as a communication processing unit).
  • the controller 1 having these functions is also referred to as a display object information display device.
  • Each of these functional blocks or units may be provided by using a part or all of them as hardware components.
  • the position detection unit F1 detects the current position of the host vehicle based on signals input from sensors included in the in-vehicle sensor group 3 such as a GNSS receiver, a vehicle speed sensor, and a gyroscope.
  • the position information indicating the current position may be configured to be expressed by latitude and longitude, for example.
  • the position detection unit F1 acquires the position information of the host vehicle sequentially (for example, every 100 milliseconds). This position detection unit F1 is also referred to as a position acquisition unit.
  • the sensor group used for detecting the current position has an error of a different property, and is configured to be used while being complemented by a plurality of sensors.
  • some of the output values of the sensors described above may be used.
  • the operation reception unit F2 receives a process corresponding to an operation performed by the driver on the input device 4 from a control signal input from the input device 4. For example, the operation reception unit F2 receives processing for displaying a display object list image based on a driver operation. The processes received by the operation receiving unit F2 are accumulated in the queue and are sequentially performed.
  • the display object detection unit F3 detects a display object set in advance as a detection target by performing a known image recognition process on the image data sequentially input from the front camera 2.
  • the image recognition processing may be configured to be performed using a known method such as pattern matching or Hough conversion.
  • the image data acquired from the front camera 2 is subjected to known image processing such as edge detection to extract the contours of all objects included in the image.
  • image processing such as edge detection to extract the contours of all objects included in the image.
  • the display thing used as a detection target is detected by performing a pattern matching process with respect to the image data which performed the image process.
  • the image processing may be configured to perform, for example, mirror image conversion for converting to a mirror image or distortion correction for correcting distortion generated in the peripheral portion of the image due to lens characteristics.
  • the display object to be detected in the present embodiment is a road sign including a guidance sign, a warning sign, a regulation sign, an instruction sign, an auxiliary sign, and the like.
  • the guide sign includes a sign for route guidance (that is, a route guide sign) such as a direction signboard, and a point guide sign indicating the name of the spot, the name of the road, and the road number.
  • the warning sign is a sign that prompts the driver to drive carefully against strong winds, falling rocks, slips, and the like.
  • Restriction signs include an entry prohibition sign indicating that entry to the road where the sign is installed, a direction limit sign indicating the direction of travel for each lane, a speed limit sign indicating a speed limit, etc. .
  • the instruction sign includes a sign indicating a pedestrian crossing, a sign indicating a stop line, a sign indicating a priority road, and the like.
  • the auxiliary sign is a sign that is used together with a guide sign, a warning sign, a restriction sign, and an instruction sign, and adds information to a sign (for example, a restriction sign) installed in the vicinity of the auxiliary sign.
  • the display object to be detected is not limited to the display object with fixed contents.
  • display contents such as an electronic bulletin board may be dynamically changed.
  • the detection target includes an electric bulletin board indicating road information such as a speed limit, the presence / absence of an accident, and a toll road charge.
  • road sign was made into the detection target, it is not restricted to this. It is good also considering the signboard which shows the charge of a gas station, etc. as a detection target.
  • the data 9 (referred to as image recognition data) D1 used for image recognition processing for detecting the display object to be detected from the image data is stored in the memory 9.
  • the memory 9 stores data representing the shape pattern of the detection target for each detection target as the image recognition data.
  • a display object type representing the content indicated by the detection target is set.
  • the speed limit sign is set as the display object type. Therefore, when the display object detection unit F3 detects the display object to be detected, the display object detection unit F3 can acquire the display object type of the detected display object.
  • the image recognition data D1 also includes data representing character shape patterns such as hiragana, katakana, and alphabet. Accordingly, the display object detection unit F3 can also acquire text displayed on the electronic bulletin board and a character string included in the road sign.
  • the display object detection unit F3 When the display object to be detected is detected in the image data, the display object detection unit F3 notifies the oversight evaluation unit F6 and the storage unit F7 that the display object to be detected has been detected. In addition, if the display object detection part F3 detects the display object used as detection object, display object ID which is a specific number will be provided with respect to the detected display object.
  • the display object ID may be a number set in the order in which the detection target is detected, or the time when the display object is detected.
  • the display object detection unit F3 detects the display object to be detected in the image data
  • the display object detection unit F3 cuts out the display object part from the image data and outputs the display object to the storage unit F7.
  • the image of the display object cut out by the display object detection unit F3 is referred to as a display object image.
  • the display object image is output to the storage unit F7 together with the display object ID and the display object type.
  • the display object detection unit F3 detects the display object to be detected in the image data, the position of the display object in the image data, the set position of the front camera in the host vehicle, and the imaging direction thereof Then, the position where the display object is present with respect to the host vehicle is detected.
  • a position where the display object is present with respect to the host vehicle is referred to as a display object relative position.
  • the display object once detected is tracked by using a well-known object tracking (tracking) method, and the relative position of the display object is sequentially updated.
  • the display object relative position is sequentially output to an oversight evaluation unit F6 described later together with the display object ID set for the display object.
  • the driving load determination unit F4 determines a driving load level that represents the magnitude of the driving load of the driver based on sensor values input from various sensors included in the in-vehicle sensor group 3 that represent the running state of the host vehicle.
  • parameters for determining the driving load level include vehicle speed detected by the vehicle speed sensor, acceleration output by the acceleration sensor, steering angle detected by the steering angle sensor, yaw rate detected by the yaw rate sensor, and direction indication lever position sensor. The position of the direction indicating lever to be detected is used.
  • the driving load determination unit F4 determines that the driving load level is higher as the vehicle speed, acceleration, steering angle, and yaw rate are larger. Also, the driving load is determined to be higher when the direction indicating lever is at the left turn position or the right turn position. This is because when the direction indicating lever is in the left turn position or the right turn position, it means that the driver is making a left turn or a right turn at an intersection or a situation in which a lane change is being made. In any situation, the driver needs to check the surrounding safety more carefully, so the driver's driving load is relatively high.
  • the driving load determination unit F4 specifies the road type and shape of the road on which the host vehicle is currently traveling from the position information detected by the position detection unit F1 and the map data stored in the map DB 6.
  • the driving load level may be determined based on the identified road type and road shape. For example, when the host vehicle is traveling on an expressway, the driving load level is determined to be higher than when the host vehicle is traveling on a general road. Also, when the host vehicle is traveling on a sharp curve, the driving load level is determined to be higher than when the host vehicle is traveling on a straight road.
  • the driving load determination unit F4 of the present embodiment expresses the driving load level of the driver in three levels: high level, medium level, and low level.
  • the conditions for the driving load determination unit F4 to determine which level the current driving load level corresponds to may be designed as appropriate using the parameters described above.
  • the element load level is determined for each parameter such as the vehicle speed, acceleration, steering angle, and yaw rate, and the driving load level is determined based on the element level for each parameter.
  • the element load level represents the state for each parameter, and is used to determine the operating load level.
  • the element load level is expressed in three stages of high, medium, and low levels in the same manner as the operation load level. The higher the element load level, the higher the possibility that the operation load level is higher.
  • a first threshold value for determining that the element load level of the parameter is a medium level and a second threshold value for determining that the operating load level is a high level are set in advance.
  • the element load level of the vehicle speed is high. judge. If the current vehicle speed is less than the second threshold and greater than or equal to the first threshold, it is determined that the element load level of the vehicle speed is a medium level, and if it is less than the first threshold, It is determined that the vehicle load element load level is low. Similarly, the first threshold value and the second threshold value are set as appropriate for other parameters, and the element load level for each parameter is determined.
  • the operating load level is high.
  • the operating load level is Judged as medium level. If there is no parameter with a high element load level and the number of parameters with a medium element load level is less than a predetermined number (for example, two), the operating load level is set to a low level. Is determined.
  • the driving load level is determined to be one step higher. However, when the operating load level is already high, the high level is maintained.
  • the line-of-sight detection unit F5 sequentially acquires image data captured by the driver monitor 5, detects feature points from the image data using a known image processing technique, and detects a face area, an eye area in the face area, and a black eye portion. Etc. are detected. Since the driver monitor 5 of the present embodiment is fixedly installed on the host vehicle and the imaging direction is also fixed, the driver's face in the next vehicle is determined according to the position and size of the face area in the image data. Can be specified. The line-of-sight detection unit F5 calculates the face direction and line-of-sight direction of the driver from the size of the face area, the position of the eye area in the face area, and the position of the black eye. The line-of-sight detection unit F5 is also referred to as a line-of-sight direction detection unit.
  • the oversight evaluation unit F6 determines the degree of possibility that the driver overlooked the display object detected by the display object detection unit F3, the driving load level determined by the driving load determination unit F4, and the display object relative position of the display object And the line-of-sight direction of the driver detected by the line-of-sight detection unit F5.
  • an oversight degree the degree of the possibility that the driver has missed the display object detected by the display object detection unit F3
  • This degree of oversight is also referred to as the possibility of oversight.
  • the oversight evaluation unit F6 represents the degree of oversight in five stages 1 to 5 according to the following procedure as an example. The larger the oversight value, the higher the possibility that the driver has missed the display.
  • the oversight evaluation unit F6 first determines the primary oversight degree based on the driver's line-of-sight direction and the display object relative position. And the final oversight degree with respect to the said display thing is determined by correct
  • the degree of primary oversight also indicates the degree of possibility that the driver has missed the display object detected by the display object detection unit F3, as with the oversight degree. It means that the nature is high.
  • the oversight evaluation unit F6 detects the display object and continues the driver's line-of-sight direction for a first determination time (for example, 0.5 seconds) before the host vehicle passes through the display object. Then, it is determined whether or not the direction in which the display object exists for the driver (the display object direction) is set.
  • the display object direction may be calculated from the display object relative position of the display object that is sequentially calculated by the display object detection unit F3 and the position of the driver's head in the vehicle that is sequentially detected by the line-of-sight detection unit F5. .
  • the primary oversight degree is evaluated as 1 indicating that the possibility of oversight is the lowest.
  • the primary oversight degree is evaluated as 2. Further, although the driver's line-of-sight direction does not match the display object direction, the time during which the driver's line-of-sight direction and display object direction are within a predetermined angle (for example, 30 degrees) is the second determination time (for example, 1.. 5 seconds) or more, the primary oversight degree is evaluated as 3. In other cases, the primary oversight degree is set to 4.
  • the final oversight degree is determined by performing correction according to the driving load level so that the oversight degree becomes higher as the operating load level is higher than the primary oversight degree obtained above.
  • the driving load level used here is the highest level among the driving load levels determined from when the display object is detected until the host vehicle passes the display object. In other words, if the driving load level is determined to be high even once after the display object is detected until the host vehicle passes through the display object, the driving load level is corrected to be high.
  • the method for determining the operating load level used when evaluating the degree of oversight may be designed as appropriate.
  • the oversight degree is determined by adding a correction value determined according to the driving load level to the primary oversight degree. More specifically, when the driving load level is high, a value obtained by adding 1 to the primary oversight degree is set as the oversight degree. For example, when the primary oversight degree is 4 and the driving load level is high, the oversight evaluation unit F6 determines the oversight degree as 5. On the other hand, when the driving load level is low level or medium level, a value obtained by adding 0 to the primary oversight degree is adopted as the oversight degree. That is, the value of the primary oversight degree is set as the oversight degree as it is.
  • the degree of oversight may be determined by multiplying the degree of primary oversight by a correction value determined according to the driving load level.
  • the correction value in that case is also set so that the degree of oversight increases as the driving load level increases.
  • the primary oversight degree is evaluated from the driver's line-of-sight direction and the display object direction, and the oversight degree is determined by correcting the primary oversight degree according to the driving load level. Not limited to this.
  • a temporary oversight degree that is, a primary oversight degree
  • the degree of oversight may be determined.
  • the oversight evaluation unit F6 detects the display object until the host vehicle passes the display object, the higher the driving load level is, and the longer the display object is in the driver's field of view. The shorter it is, the higher the degree of oversight may be.
  • the calculation of the possibility of oversight uses both the driving load level and the driver's line-of-sight direction, but the present invention is not limited thereto.
  • the possibility of oversight may be calculated according to the driving load level without using the driver's line-of-sight direction. In that case, the higher the driving load level, the higher the possibility of oversight.
  • the possibility of oversight may be calculated based on the display object relative position of the display object and the driver's line-of-sight direction without using the driving load level. In this case, the configuration according to the present embodiment is a mode in which correction according to the driving load level is not performed.
  • the possibility that the driver overlooked the display object detected by the display object detection unit F3 may be expressed as a percentage.
  • the storage unit F7 stores data related to the display object detected by the display object detection unit F3 (referred to as display object data) in the memory 9.
  • the display object data here includes the display object ID, the display object image, the display object type, the time when the display object is detected, the position information of the point where the display object is detected (that is, the detection point), and the display object is installed.
  • the location information of the location (ie, the installation location) being included is included.
  • the information of the display object includes the driving load level during detection (and tracking) of the display object, the degree of oversight evaluated by the oversight evaluation unit F6 for the display object, and the like.
  • the current position of the host vehicle when the display object is detected is adopted.
  • the current position of the host vehicle when the display object is detected is not limited to the current position of the host vehicle acquired by the position detection unit F1 at the time when the display object is detected, but before and after the time when the display object is detected. It is assumed that the current position of the host vehicle acquired by the position detection unit F1 is included at the time point.
  • the position information of the point where the display object is installed may be calculated from the position information of the point where the display object is detected and the display object relative position.
  • the driving load level the highest driving load level determined by the driving load determination unit F4 from the detection of the display object to the passage is adopted.
  • the operating load level at the time when the display object is detected may be used. Further, it may be an average value or a median value of driving load levels from detection to passing.
  • time series data in which the driving load levels determined by the driving load determination unit F4 are arranged in time series from when the display object is detected to when it passes through may be stored.
  • the storage unit F7 in the present embodiment When the display object ID and the display object image are input from the display object detection unit F3, the storage unit F7 in the present embodiment generates display object data corresponding to the display object and additionally stores it in the display object data list D2.
  • the display object data list D2 is data including display object data for each display object detected by the display object detection unit F3 in a list structure.
  • the controller 1 can refer to the display object data corresponding to the display object ID by designating the display object ID included in the display object data.
  • FIG. 3 shows an example of the data structure of the display object data list D2 stored in the memory 9.
  • each display object image B to F in the display object data list D2 includes the time when the display object is detected, the position information of the point where the display object is detected, and the position information of the point where the display object is installed.
  • the driving load level, and the degree of oversight determined by the oversight evaluation unit F6 with respect to the display object are stored in association with each other.
  • the storage unit F7 is configured to add the display object data to the top of the display object data list when adding the display object data.
  • the display object data included in the display object data list are arranged so that the detection time goes back from the newly added data. Therefore, in the display object data list stored in the memory 9, the newest display object data is arranged at the top (ie, the top). What is necessary is just to design suitably about the arrangement
  • the display object image of the display object whose display object ID is 6 in FIG. 3 is the display object image F, and the type of the display object is a direction signboard.
  • the storage area where the display object image is actually stored is a different location from the storage area where this list is stored, and the display object image F included in the display object data is displayed in the display object image field. It is assumed that the address of the storage area where is stored is stored.
  • the operating load level during detection of the display object with the display object ID of 5 and the display object with the display object ID of 4 is the medium level. This is because the degree of primary oversight differs depending on the driver's line-of-sight direction.
  • the drawing unit F8 generates image data to be displayed on the display device 7, and outputs the generated image data to the display device 7 for display.
  • the drawing unit F8 includes a list display unit F81 (also referred to as a list display processing unit) and an automatic display unit F82 (also referred to as an automatic display processing unit).
  • the list display unit F81 displays the display object data list D2 when the operation reception unit F2 receives a driver operation for displaying an image (display object list image) representing a list of display objects detected by the display object detection unit F3.
  • the display object list image is generated from and displayed on the display unit 7.
  • the display object list image is an image in which information of display objects registered in the display object data list D2 is arranged in descending order of the degree of oversight.
  • the list displayed as the display object list image is hereinafter referred to as a display object list.
  • the display object list displayed on the display device 7 and the display object data list D ⁇ b> 2 stored in the memory 9 are handled separately.
  • buttons B1 to B5 buttons registered in the display object data list D2.
  • Information about the display object corresponding to the button is displayed on each button, and the driver can recognize the information of the display object corresponding to the button by looking at the information on the button.
  • Each of the buttons B1 to B5 has a role as a button for accepting a touch operation by the driver.
  • the button B1 to 5 corresponds to the display object.
  • a display object image can be displayed. That is, each of the buttons B1 to B5 is a button that receives a driver operation for displaying a display object image corresponding to the display object. The driver can know more detailed information about the display object by displaying the display object image.
  • each of the buttons B1 to B5 includes text information indicating the display object type of the display object, the detection point, and the degree of oversight as the information of the display object corresponding to the button.
  • the item of the detection point is represented not by the coordinates of the detection point but by the distance from the current location.
  • the item of the detection point of the button B1 indicates that the display object is installed at a point that passes D1 meters before the current location.
  • the distance between the installation point of the display object and the current location may be calculated from the installation point registered in the display object data list D2, the current position of the host vehicle acquired by the position detection unit F1, and the map data.
  • information such as the name of the road where the display object is detected may be displayed. What is necessary is just to acquire the name of the road which detected the display thing with reference to map data based on the positional information on a detection point.
  • the item indicating the degree of oversight displays here the degree of oversight registered in the display object data list D2 as it is, but is replaced with a percentage according to the degree of oversight registered in the display object data list D2. May be displayed.
  • the degree of oversight of the display object may be expressed by changing the display mode of the button according to the degree of oversight.
  • the color of each button may be red, orange, yellow, yellowish green, green, etc. in descending order of oversight.
  • the button of the display object with the highest degree of oversight may be highlighted such as blinking.
  • the oversight level item only needs to be displayed so that the driver can recognize the oversight level of the display object corresponding to the button.
  • the display mode of each button and the information displayed on the button may be appropriately designed.
  • the list display unit F81 displays the display object list in order from the top of the list (that is, from the top of the list). Since the display object list is a list in which the display objects detected by the display object detection unit F3 are arranged in descending order, the display objects are displayed in descending order of the oversight degree.
  • the display area of the display device 7 is limited, the number of buttons (displayable number) corresponding to the display object displayed in one screen when the display object list image is displayed. Is also a constant value.
  • the displayable number is also referred to as a displayable count.
  • the button of the display object with a relatively low degree of oversight is not displayed on the first displayed screen. Even when displayed on the first screen, it is arranged below the button of the display object having a relatively high degree of oversight.
  • the screen is also referred to as a window.
  • the display object buttons that are not displayed on the first screen displaying the display object list image can be displayed by sliding the scroll box Sbx downward on the scroll bar Sbr. To do.
  • the driver is displayed on the first screen by performing a driver operation to transition to the next screen. It is possible to display a button corresponding to the display object that did not exist.
  • buttons of the display objects that have a high possibility of being overlooked are displayed on the display unit 7 with priority, the driver has overlooked the plurality of options displayed in the display object list image. It becomes easy to select the button corresponding to the display object with high possibility.
  • buttons B1 to B5 corresponding to the display objects registered in the display object data list D2 are for displaying the display object images of the display objects corresponding to the buttons.
  • the present invention is not limited to this. It may simply represent the display object information (also referred to as display object content information) of the display object corresponding to the button.
  • the automatic display unit F82 is information (display) that indicates the contents of a display object registered in the display object data list D2 and whose degree of oversight is equal to or greater than a predetermined threshold (automatic display threshold). Is automatically displayed on the display 7 at a predetermined timing. In this embodiment, it is set as the structure which displays the display thing image of the display thing as display thing information.
  • a predetermined threshold automatic display threshold
  • the display object image of the display object having an oversight degree of 5 or more is automatically displayed on the display unit 7.
  • an automatic display candidate setting process is performed as a preparation process for performing the automatic display process. Details of various processes performed by the automatic display unit F82 will be described later.
  • the communication unit F9 performs processing for acquiring the data received by the communication device 10 and outputting the data generated by the controller 1 to the communication device 10 for transmission.
  • Display object detection processing the flow of a process (hereinafter referred to as a display object detection process) in which the display object detection unit F3 detects a display object to be detected from image data input from the front camera 2 will be described using the flowchart shown in FIG. To do.
  • the flowchart shown in FIG. 5 is sequentially started as an example (for example, every 100 milliseconds).
  • each section is expressed as S11, for example.
  • each section can be divided into a plurality of subsections, while a plurality of sections can be combined into one section.
  • each section can be referred to as a device, a module.
  • each of the above sections or a combination thereof includes not only (i) a section of software combined with a hardware unit (eg, a computer), but also (ii) hardware (eg, an integrated circuit, As a section of (wiring logic circuit), it can be realized with or without the function of related devices.
  • the hardware section can be included inside the microcomputer.
  • a software section can be included in the software program. This software program can also be included in a non-transitional computer-readable storage medium as a program product.
  • image data is acquired from the front camera 2, and the process proceeds to S11.
  • S12 a known image recognition process is performed on the image data acquired in S11, and a display object to be detected, that is, a display object that matches the shape pattern data included in the image recognition data is included in the image data. Determine if it is included.
  • S14 it is determined whether or not the display object detected in S13 is a display object already detected in the previous display object detection-related processing. Since the tracking process is performed on the detected display object, the detected display object can be distinguished from the display object detected for the first time.
  • the detected display object can also be referred to as a display object for which a display object ID has already been set. If the display object detected in S13 is a detected display object, S14 becomes YES and the process moves to S19. On the other hand, if the display object detected in S13 is not a detected display object but a display object detected for the first time, S14 becomes NO and the process moves to S15.
  • a display object ID is set for the display object, and an area corresponding to the display object is extracted from the image data acquired in S11 to generate a display object image. Also, the display object type is specified from the shape pattern of the display object.
  • the main signs existing in the vicinity of the auxiliary sign are extracted together.
  • the vicinity of the auxiliary sign refers to a range corresponding to 1 m in the real space from the auxiliary sign, for example.
  • auxiliary labels are present in the vicinity of the newly detected main label, they are extracted in the same manner.
  • the relative position of the display object with respect to the host vehicle (that is, the display object relative position) is calculated from the position and size of the display object in the image data acquired in S11, and the process proceeds to S17.
  • the display object detection unit F3 passes the display object ID, the display object image, the display object relative position, the display object type, and the like as arguments for executing the display object data storage process to the storage unit F7.
  • the process shown in the flowchart of FIG. 6 and the process shown in the flowchart of FIG. 5 are performed in parallel. Even when the display object storage process in the flowchart of FIG. 6 is not completed, the flowchart of FIG. (Every 100 milliseconds).
  • the display object storing process is called for each display object.
  • the plurality of processes may be performed in a single CPU using a well-known task scheduling algorithm, or may be performed in parallel in a plurality of CPUs.
  • the current position of the host vehicle acquired by the position detection unit F1 is acquired.
  • the current position acquired in S22 represents the detection point of the display object.
  • the position of the display object installation point is calculated from the current position and the display object relative position, and the process proceeds to S23.
  • the driving load level while the display object is detected is determined from the driving load level determined by the driving load determination unit F4, and the process proceeds to S24.
  • it is the maximum value of the operating load level from when the display object is detected until it passes.
  • S31 it is determined whether or not newly detected display object data is added to the display object data list D2. If new data has not yet been added, S31 becomes NO and the process moves to S34. On the other hand, if new data has been added, S31 becomes YES and the process moves to S32.
  • S32 it is determined whether or not the degree of oversight of the added display object is equal to or greater than an automatic display threshold (here, 5). If the degree of oversight of the added display object is equal to or greater than the automatic display threshold, S32 is YES and the process proceeds to S33. If the oversight degree of the added display object is less than the automatic display threshold, S32 is NO and the process proceeds to S34.
  • an automatic display threshold here, 5
  • the display object is set as an automatic display candidate.
  • a condition for setting the display object to be canceled from the automatic display candidate (to be a cancel condition) is set. This is due to the following reason.
  • the usefulness of the display object information decreases as time elapses from detection or the display object information moves away from the installation position.
  • the information represented by the parking prohibition sign is useful in the vicinity of the point where the parking prohibition sign is installed, but the information becomes not useful when the information is away from the installation position.
  • the display object information of the display object is displayed at the timing when the usefulness decreases as the host vehicle travels. In this case, there is a risk that the driver may be bothered. Therefore, by providing a release condition for each automatic display candidate as in this embodiment, the possibility that information with reduced usefulness is automatically displayed can be reduced.
  • the cancellation condition set as the automatic display candidate may be set using position information or may be set using time information. Also. You may set combining these.
  • the position information is used as the release condition, for example, it is determined that the release condition is satisfied when the vehicle travels a predetermined distance from the installation point.
  • it is a direction signboard etc. you may determine with the cancellation
  • the intersection corresponding to the direction signboard may be determined with reference to the map data.
  • time information when using time information as a release condition, for example, it is determined that the release condition is satisfied when a certain time (1 minute, 10 minutes, 1 hour) has passed since detection.
  • the length of time set as the cancellation condition may be a constant value for all display objects, or may be changed according to the display object type.
  • the expiry date of the display object indicating the toll on the toll road whose toll is changed according to the time zone is set to the time when the toll is valid.
  • the direction signboard may be a relatively short time such as one minute.
  • S41 it is determined whether there is a display object set as an automatic display candidate among the display objects registered in the display object data list D2. If there is a display object set as an automatic display candidate, S41 becomes YES and the process moves to S42. When there is no display object set as an automatic display candidate, S41 is NO and this flow is ended.
  • a low load determination threshold used here is a threshold for determining that the driving load of the driver is relatively small, and may be designed as appropriate.
  • the operating load level that is the low load determination threshold is 2. That is, when the current driving load level is 2 or less, S42 becomes YES and the process proceeds to S43. On the other hand, when the driving load level is 3 or more, S42 is NO and this flow is finished.
  • S43 it is determined whether display object information is currently displayed by the previous automatic display process.
  • a display object image is displayed as display object information. Therefore, in this embodiment, it is determined whether or not the display object image is displayed by the previous automatic display process.
  • S43 is YES and this flow is finished.
  • S43 is NO and the process proceeds to S44.
  • the list display unit F81 included in the drawing unit F8 arranges the information of the display objects registered in the display object data list D2 in descending order of the degree of oversight when a predetermined operation by the driver is received. Displayed display object list image is displayed.
  • the display area of the display device 7 is limited, the number of display objects included in the display object list image displayed on one screen (that is, the number of displayable objects) is also limited.
  • the display object list is a list in which the display objects detected by the display object detection unit F3 are arranged in descending order, the degree of oversight is displayed on the first screen displaying the display list image. Will be displayed with priority from the highest.
  • the driver can select from among information on the plurality of display objects displayed in the display object list image. This makes it easier to find display objects that are likely to be overlooked.
  • the automatic display unit F82 included in the drawing unit F8 determines the display object information whose oversight degree is 5 or more among the display objects registered in the display object data list D2, by the driving load determination unit F4. Automatically displayed when the operating load level is 2 or less.
  • the driver For a display object that the driver has completely overlooked, the driver is not aware of the presence of the display object, so there is a high possibility that an operation for displaying the display object list image will not be performed.
  • the display unit information of the display object that the driver has overlooked is displayed by the automatic display unit F82 automatically displaying the display object whose degree of oversight is a predetermined threshold value or more on the display unit 7. Can also be recognized.
  • the list display unit F81 when the list display unit F81 displays the display object list, the list display unit F81 rearranges (ie, sorts) and displays the display object list, and displays the display object data itself included in the display object data list D2. It does not mention processing such as sorting.
  • the storage unit F7 according to the first modification performs a process of rearranging the display object data included in the display object data list D2 (referred to as a list data sorting process).
  • a list data sorting process a process of rearranging the display object data included in the display object data list D2 (referred to as a list data sorting process).
  • the storage unit F7 in the first modification manages the data for each display object included in the display object data list D2 so that they are arranged in descending order from the top of the list. For example, when adding new data to the display object data list D2 in S25 of FIG. 6, the storage unit F7 inserts the new data at a position on the list corresponding to the degree of oversight of the new data. For example, when the degree of oversight of new data is 4, it is inserted between data of a display object with an oversight degree of 5 and data of a display object with an oversight degree of 4. With such a configuration, the data included in the display object data list D2 is arranged in the order of the degree of oversight, and among the data having the same degree of oversight, the newer detection time is arranged higher in the data. become.
  • the data corresponding to each display object included in the display object data list D2 is sorted in the order of oversight degree in the state of the display object data list D2, so that the list display unit F81 displays the display object list image ( Sort processing when generating (see FIG. 4) can be omitted. That is, the buttons of the display objects in the display list can be arranged in the same order as the display object list data. Accordingly, it is possible to shorten the time required from when the operation receiving unit F2 receives a driver operation for displaying the display object list image until the display object 7 is displayed on the display unit 7. That is, the response speed to the driver operation can be increased.
  • the storage unit F7 may be configured such that display object data whose oversight degree is equal to or less than a predetermined threshold (referred to as a visual recognition threshold) is not added to the display object data list D2.
  • the visual recognition threshold value is a threshold value for determining that the driver is visually recognizing the display object, and in the present embodiment, as an example, the oversight degree as the visual recognition threshold value is 1.
  • a display object whose degree of oversight is a predetermined threshold value is a display object that is highly likely to be visually recognized by the driver.
  • a visual recognition threshold value For the display object being visually recognized by the driver, there is a high possibility that the driver has already recognized the contents. Therefore, information (here, a button) corresponding to the display object is displayed on the display object list image.
  • the usefulness given to the driver is considered to be relatively small.
  • the more the buttons of the display object are displayed as the display list image the more difficult it is for the driver to find out the information of the display object that the driver has missed and the desired display object.
  • the configuration of the second modification information that is not useful to the driver is not displayed on the display object list image, and the number of display objects displayed on the display object list image can be reduced. It is possible to make it easier for the driver to find information on the display object that the driver has overlooked and for the driver to find the desired display object. In addition, the amount of data stored in the memory 9 as the display object data list can be reduced.
  • the data of the display object whose oversight degree is equal to or less than the visual recognition threshold is configured not to be added to the display object data list D2, so that the oversight degree is equal to or less than the visual recognition threshold from the display object list image.
  • the present invention is not limited to this. For example, even for data of a display object whose degree of oversight is less than or equal to the visual recognition threshold, it is once added and stored in the display object detection list, and the degree of oversight is at the visual recognition threshold at a predetermined timing (for example, at regular intervals). It is good also as a structure which deletes the data of the display object used as the following.
  • the list display unit F81 when the list display unit F81 generates the display object list image, the display object whose degree of oversight is equal to or less than the visual recognition threshold value may not be used. That is, the display object list image may be generated using the display object data of the display object having an oversight degree larger than the visual recognition threshold as a population. Even in such a configuration, the same effects as those of the second modification described above can be obtained.
  • the list display unit F81 displays the display object list based on whether the display object information of the display object is useful for the driver among the display object data included in the display object data list D2.
  • the display order of the display objects may be adjusted. The configuration of this third modification will be described below.
  • the controller 1a in the third modified example includes a useful determination unit F10 in addition to the functional blocks included in the controller 1 described in the embodiment, that is, the position detection unit F1 to the communication unit F9.
  • the usefulness determination unit F10 determines, for each display object data included in the display object data list D2, whether the display object information of the display object is useful for the driver.
  • the usefulness determination unit F10 determines the display object information of the display object based on the distance between the current position of the host vehicle and the installation position of the display object, and the display object type of the display object. A process for determining whether or not the driver is useful is performed (useful determination process).
  • the usefulness of the display object information for the driver changes according to the distance between the current position of the host vehicle and the installation position of the display object and the display object type of the display object. For example, the information on the direction signboard is useful for the driver until the direction signboard passes through the intersection targeted for guidance, but the usefulness of the information after the intersection is reduced.
  • the effective range of the restriction sign of the restriction sign such as parking prohibition is determined by an auxiliary sign or the like installed in the vicinity of the restriction sign. In this case, while the display object information is useful within the effective range, the usefulness of the display object information of the display object decreases outside the effective range.
  • the usefulness determination unit F10 first determines the effective range of the display object according to the display object type of the display object, and when the host vehicle is within the effective range, the display object of the display object Determine that the information is useful to the driver. On the other hand, when the host vehicle does not exist within the effective range, it is determined that the display object information of the display object is not useful for the driver.
  • the effective range for each display object type is the effective range from the detection point of the direction signboard to the intersection targeted by the direction signboard.
  • an effective range is a range determined by an auxiliary sign installed in the vicinity of the restriction sign. When the auxiliary sign is not installed, the effective range is within a certain distance (for example, 50 m) from the installation point of the regulatory sign. The effective range may be set in advance for other display object types as appropriate.
  • the display object data in the third modification includes a useful flag that is a processing flag indicating whether or not the display object is useful, and the usefulness determination unit F10 uses the display object information of the display object.
  • the useful flag is set to ON.
  • the usefulness determination unit F10 sets the usefulness flag to OFF for the display object data determined that the display object information of the display object is not useful. Note that the initial setting of the useful flag when the display object data is generated is set to ON.
  • the useful flag set in each display object data can be obtained at any time by performing the above-described useful determination process sequentially (for example, every 200 milliseconds) on each display object data included in the display object data list. It will be updated. Note that the usefulness determination process may be performed only for display object data for which the usefulness flag is on.
  • the list display unit F81 in the third modification generates a display object list image in which the useful flag is turned on and a display object with a high possibility of being overlooked is placed on top of the display object list. And displayed on the display 7. In other words, a display object that is useful to the driver and has a high possibility of being overlooked is displayed on the display unit 7 with priority.
  • the display objects whose useful flags are turned on are arranged in order from the one with the highest degree of oversight, and the display object data determined to be not useful are overlooked below. What is necessary is just to arrange in order from the thing with high degree.
  • the list display unit F81 displays a display object list whose display object data is a useful flag and a display object data whose useful flag is off. It is good also as a structure which can switch and display the display thing list made into a population with a tab.
  • a display list that uses data of display objects for which the useful flag is turned on as a population is a useful display list
  • a display list that uses data for display objects for which the useful flag is off as a population This is referred to as a non-useful display object list.
  • the display object list image shown in FIG. 10 includes, in addition to buttons B1 to B5 corresponding to display objects registered in the display object data list D2, a tab switch Tab1 for displaying a useful display object list, and non-useful A tab switch Tab2 for displaying a display object list is provided.
  • the driver can display a list of display objects corresponding to the tab switch that is touched by selecting (that is, touching) these tab switches Tab1 and Tab2.
  • FIG. 10 is an example of a display screen when the tab switch Tab1 is selected by the driver. That is, the display object list of the data group of the display object for which the useful flag is on is displayed.
  • the tab switch Tab2 that is not currently selected by the driver is displayed in a display mode (color, brightness, etc.) different from the tab switch Tab1, thereby indicating which tab switch is currently selected. .
  • the tab switch Tab2 which is the unselected tab switch is hatched.
  • the display object list of the display object data group for which the useful flag is on is displayed on the screen that the list display unit F81 first displays as the display object list image.
  • the display object that is likely to be overlooked by the driver is displayed with priority, and information on the display object that is useful for the driver and the display object that is no longer useful. Can be displayed separately from the information. Further, it is determined whether or not the information is useful according to the position of the host vehicle, and the information on the display object that is useful is given priority over the information on the display object that is not useful. It is possible to preferentially provide information corresponding to the driver to the driver.
  • the display mode as shown in FIG. 10 is adopted, for example, after passing the intersection guided by the direction signboard, when the driver wants to confirm again the direction of the road on which the host vehicle is traveling, the non-useful display object By displaying the list, it is possible to confirm the contents of the signboard that guides the intersection that has already passed.
  • the display object having a higher oversight degree is arranged and displayed at the top of the list.
  • the non-useful display object list may be displayed in the order of detection time. This makes it easier to find the information of the display object that has already passed when checking the information after it is no longer useful.
  • the storage unit F7 may organize the display object data included in the display object data list according to whether the display object data list includes the display object data included in the display object data list. . That is, display object data for which the useful flag is off may be deleted from the display object data list. As a result, the number of display objects displayed in the display object list image can be suppressed, and information necessary for the driver can be easily found.
  • the display object image is displayed as the display object information.
  • An icon image corresponding to the display object may be stored in the memory 9 and an icon image corresponding to the display object may be displayed as an image representing the content of the display object.
  • the display object information may be displayed as text representing the contents of the display object.
  • the timing at which the driving load level is determined is the timing at which the display object is installed, but the present invention is not limited to this.
  • the driving load level may be determined at the timing when the distance between the host vehicle and the installation point becomes the disappearance distance.
  • the disappearance distance here refers to a distance at which the display object becomes invisible to the driver who faces his face in the front direction of the host vehicle by approaching the display object.
  • the vanishing distance may be calculated based on the height of the display object from the road surface, or may be a certain distance (for example, 10 m).
  • the data of the display object determined to have an oversight degree equal to or greater than a predetermined threshold may be transmitted to the information collection server via the communication device 10.
  • the degree of oversight is equal to or greater than a predetermined threshold and data of the display objects and creating a database, it is possible to identify the points where the driver easily overlooks the display objects and the display objects. For display objects that are easily overlooked by the driver, it is possible to take measures such as changing the installation position so that they are not easily overlooked.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 表示物情報の表示装置(Displaying Apparatus)(1)において、描画部(F8)が備えるリスト表示部(F81)は、ドライバによる所定の操作を受け付けた場合に、表示物データリスト(D2)に登録されている表示物の情報を、その見落とし度が高い順に並べた表示物リスト画像を表示する。ここで、表示器(7)が備える表示領域は有限であるため、1つの画面内に表示される表示物リスト画像に含まれる表示物の件数(すなわち表示可能数)も有限である。しかし、表示物リスト画像は表示物検出部(F3)が検出した表示物を見落とし度が高い順に並べたリストを示しているため、表示リスト画像を表示した最初の画面においては、見落とし度が高いものから優先的に表示されることになる。

Description

表示物情報表示装置 関連出願の相互参照
 本開示は、2014年3月6日に出願された日本出願番号2014-44247号に基づくもので、ここにその記載内容を援用する。
 本開示は、道路上に設置されている種々の表示物の情報を表示器(Display unit)に表示する表示物情報の表示装置(Displaying Apparatus)に関する。
 従来、搭載される車両が走行している道路上(道路沿いを含む)に設置されている看板などの表示物の情報を表示器に表示する装置(すなわち表示物情報表示装置)として、特許文献1に開示の表示物情報表示装置がある。
 特許文献1の表示物情報表示装置は、走行中において車両の周辺をカメラで撮影し、その画像データにガソリンスタンドなどの料金看板などの予め定められている検出対象が含まれているか否かを周知の画像認識処理技術を用いて判定する。そして、その画像データに検出対象が含まれている場合には、その検出対象とする表示物に表示されている料金などの情報を抽出し、その表示物を掲示している施設と対応付けて保存する。特許文献1に記載の技術によれば、ドライバは、表示物から抽出されて保存されている情報を用いて、目的地とする施設の検索や設定を行うことができる。なお、表示物から取得した情報は、施設の検索条件に用いられる他、目的地とする施設を検索する検索画面に表示される。
JP 2007-78632 A
 特許文献1には、道路上に設置されている表示物から取得した情報を、目的地の検索及び設定時に表示する技術が開示されているが、目的地の検索及び設定時以外のタイミングにおいて、道路上の表示物から取得した情報を表示することについては言及されていない。
 道路上には、交差点に接続する道路の行き先を示す方面看板や、走行速度の上限などを示す規制標識など、種々の表示物などが設置されている。ドライバは、これらの表示物を見ることによって、目的地に到達するための経路や、より安全に運転するための情報などを認識することができる。
 しかしながら、運転操作という重要なタスクを実施しているドライバにとっては、全ての表示物を見落とさずに視認することは難しい。そして、例えば方面看板を見落としてしまった場合には、その方面看板が案内している交差点において進むべき道路が分からなくなってしまう。
 そこで、1つの解決策として、走行中において道路上に設置されている表示物の情報を取得して蓄積しておき、例えば所定の操作を受け付けた場合に、それらの表示物の情報を表示する構成が考えられる。このような構成とすれば、ドライバは、自身が見落とした表示物の情報を後からでも認識することができるようになる。
 しかしながら、道路上から取得した全ての表示物の情報を表示してしまうと、ドライバは、多数の表示物の情報の中から必要な表示物の情報を見つけることが困難になってしまう。特に、ドライバは、自身が見落とした表示物については、それがどのような表示物で
あったかをドライバ自身が認識できていない可能性があり、多数の表示物の情報の中から自身が見落とした表示物の情報を見つけることがより一層困難である。
 本開示の目的とするところは、ドライバが見落とした可能性がある表示物の情報をドライバが認識しやすいように表示する表示物情報表示装置を提供することにある。
 その目的を達成するための本開示の一つの例によれば、表示物情報表示装置は、車両の前方を逐次撮影する前方撮影装置が撮影した画像データから、予め検出対象として設定されている表示物を検出する表示物検出部と、表示物検出部が検出した表示物に対して、前記車両のドライバがその表示物を見落としている可能性である見落とし可能性を評価する見落とし評価部と、表示物検出部が検出した表示物が表す情報である表示物情報と、その表示物に対して見落とし評価部が評価した見落とし可能性とを含む表示物毎のデータである表示物データをメモリに保存する保存部と、メモリに保存されている表示物毎の表示物データに基づいて、表示物の表示物情報を、表示器に表示する描画部と、を備え、描画部は、メモリに保存されている表示物データに対応する表示物のうち、見落とし可能性が高い表示物の表示物情報を優先して表示器に表示する。
 以上の構成では、描画部は、表示物の表示物情報を表示する際、ドライバが見落とした可能性が高いと見落とし評価部が評価した表示物の表示物情報を優先して表示器に表示する。すなわち、ドライバが見落とした可能性が高い情報ほど優先的に表示される。
 そしてドライバは、優先的に表示されている表示物情報を見ることによって自身が見落とした可能性がある表示物の内容を認識することができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。
実施形態に係る運転支援システムの概略的な構成の一例を示すブロック図 本実施形態に係るコントローラの概略的な構成の一例を示すブロック図 表示物データリストのデータ構成の一例を示す概念図 リスト表示部が生成する表示物リスト画像の一例図 表示物検出部が実施する表示物検出処理を説明するためのフローチャート図 保存部が実施する表示物データ保存処理を説明するためのフローチャート図 自動表示部が実施する自動表示候補設定処理を説明するためのフローチャート図 自動表示部が実施する自動表示処理を説明するためのフローチャート図 第三変形例におけるコントローラの概略的な構成の一例を示すブロック図 第三変形例における表示物リスト画像の一例図
 以下、本開示の実施形態について図を用いて説明する。図1は、本実施形態に係る表示物情報表示システム100の概略的な構成の一例を示す図である。図1に示すように表示物情報表示システム100は、コントローラ1、前方カメラ2、車載センサ群3、入力装置4、ドライバモニタ5、地図データベース(以降、地図DB)6、表示器7、音声出力装置8、メモリ9、及び通信装置10を備える。コントローラ1と、前方カメラ2、車載センサ群3、入力装置4、ドライバモニタ5、地図データベース(以降、地図DB)6、表示器7、音声出力装置8、メモリ9、及び通信装置10とは、それぞれ周知の車両内ネットワークを介して相互通信を実施する。以下では、この表示物情報表示システム100が搭載されている車両をホスト車両とも称する。尚、「表示物」は、サインボードとも言及される。
 前方カメラ2は、ホスト車両前方の所定範囲(前方撮影範囲とする)を撮影するように、例えば車室内のルームミラー付近に設置され、前方撮影範囲を逐次(例えば100msec毎に)撮影する。なお、ここでの前方とはホスト車両の正面方向に限らず、斜め前方も含む。前方カメラ2は前方撮影範囲内に存在する道路や道路上に存在する他車両等を逐次撮影する。前方カメラ2が撮影して生成される画像データは、コントローラ1に逐次入力される。
 前方カメラ2は、本実施形態では光学式カメラであって、例えばCMOSカメラ又はCCDカメラ等を用いることができる。もちろん、前方カメラ2は、赤外線カメラなどであっても良い。すなわち、前方カメラ2は、道路上(道路沿いも含む)に設置されている表示物を検出できる構成となっていればよい。また、前方カメラ2の設置位置は、ルームミラー付近に限らず、ホスト車両の車室外(例えばフロントバンパ中央部)に配置されるものであってもよい。この前方カメラ2は前方撮影装置とも言及される。
 車載センサ群3は、ホスト車両の状態を検出する種々のセンサであって、例えば、車速センサや、加速度センサ、ジャイロセンサ、GNSS受信機、操舵角センサ、ブレーキストロークセンサ、アクセルペダルセンサ、方向指示レバー位置センサなどが含まれる。
 車速センサはホスト車両の走行速度を検出し、加速度センサはホスト車両に作用する加速度を検出する。GNSS受信機は、GNSS(Global Navigation Satellite System)で用いられる衛星からの電波を受信することで、GNSS受信機の現在位置を示すデータを取得する。GNSS受信機としては、例えばGPS受信機を用いることができる。
 ジャイロセンサはホスト車両の鉛直軸周りの回転角速度を検出し、操舵角センサはステアリングの切れ角に基づいて操舵角を検出する。ブレーキストロークセンサはブレーキペダルの踏込量を検出し、アクセルペダルセンサはアクセルペダルの踏込量を検出する。方向指示レバー位置センサは、方向指示レバーが左折位置又は右折位置になっているかを検出する。車載センサ群3が備える種々のセンサが検出した検出値は、逐次コントローラ1に出力される。
 入力装置4は、表示器7が備える表示パネルと一体になっているタッチパネルであって、ドライバはこの入力装置4を操作することによりコントローラ1に各種機能の実行指示を行う。例えば、ドライバはこの入力装置4を操作することによって、後述する表示物リスト画像を表示するようにコントローラ1に指示を行うことができる。入力装置4は、当該入力装置4に対してドライバが実施した操作に対応する制御信号をコントローラ1に出力する。
 本実施形態では入力装置4としてタッチパネルを採用するが、入力装置4は、タッチパネルに限らず、メカニカルスイッチや、ドライバの発話によって指示入力できる音声認識装置であってもよい。もちろん、これらを組み合わせて実現しても良い。
 ドライバモニタ5は、撮影面をドライバに向けた姿勢にて、車両の室内に設置されており、ドライバの顔を含む範囲を逐次(例えば100ミリ秒毎に)撮影し、その撮影画像の画像データを、コントローラ1に逐次出力する。本実施形態ではドライバモニタ5を、ステアリングコラムカバーの上に取り付けるものとするが、その他の態様として、バックミラー部分になどに取付けてもよい。
 また、本実施形態ではドライバモニタ5として、赤外線を検出することにより、可視光の少ない環境下においても撮像可能な赤外線カメラを用いる。もちろん、ドライバモニタ5は、赤外線カメラのほかに、例えばCMOSカメラやCCDカメラ等、可視光を感知する光学式のカメラ等であってもよい。このドライバモニタ5は顔部撮影装置とも言及される。
 地図DB6は、地図データを格納しているデータベースであって、例えばHDD(Hard Disk Drive)などの、書き換え可能な不揮発性の記憶媒体を用いて実現される。もちろん、地図DB6において地図データを格納する記憶媒体は、HDDなどの磁気記憶媒体に限らず、DVDなどの光学記憶媒体等であってもよい。また、書き換え不可能な記憶媒体であってもよい。地図データは、道路の接続関係(すなわち道路網)を示す道路データなどを備えている。
 道路データは、複数の道路が交差、合流、分岐する地点(ノードとする)に関するノードデータと、その地点間を結ぶ道路(すなわちリンク)に関するリンクデータを有する。ノードデータは、ノード毎に固有の番号を付したノードID、ノードの座標(緯度・経度)、ノード名称、ノードに接続する全てのリンクのリンクIDが記述される接続リンクID、及び信号機が設置されているか否か、などの各データを備える。
 リンクデータは、道路毎に固有の番号を付したリンクID、リンク長、リンクの始端及び終端ノード、リンク上の各地点の座標データ、高速道路や一般道路などの道路種別、道路幅員、リンク方位、道路名称、車線数、制限速度などの各データを備える。
 表示器7は、コントローラ1からの指示に基づいてテキストや画像を表示し、種々の情報をドライバに報知する。表示器7は、例えばフルカラー表示が可能なものであり、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ等を用いて構成することができる。本実施形態において表示器7は、インストゥルメントパネルの車幅方向中央付近に配置されるセンターディスプレイとする。尚、本願では、「情報」は不可算名詞のみならず可算名詞としても使用される。
 他の態様として、表示器7はインストゥルメントパネルの運転席側の上部に配置されたメーターディスプレイであってもよい。また、表示器7は、フロントガラスの運転席前方の一部分に虚像を映し出して種々の情報を表示する周知のヘッドアップディスプレイであってもよい。さらに、表示器7は、センターディスプレイや、メーターディスプレイ、ヘッドアップディスプレイなどを組み合わせて実現されても良い。表示器7が複数のディスプレイを備える場合には、コントローラ1がその表示させるデータ毎に、そのデータの出力先とするディスプレイを選択すればよい。
 音声出力装置8は、スピーカ等から構成され、コントローラ1から入力される音声データを音声(単なる音も含む)に変換して出力する。
 メモリ9は、書き換え可能な不揮発性の記憶媒体と、その記憶媒体に対してデータの読み出し及び書き出しを行う装置と、を備えている。メモリ9が備える記憶媒体としては、磁気ディスクや光学ディスク、及びフラッシュメモリなど周知の記憶媒体を用いることができる。本実施形態においてはメモリ9が備える記憶媒体として、一例としてSDカード等の取り外し可能な記憶媒体を用いる構成とする。もちろん、記憶媒体として、DVD、CD、HDDなどを採用してもよい。メモリ9は、後述する画像認識用データD1と表示物データリストD2を記憶する。
 通信装置10は、送受信アンテナを備え、例えば電話回線やインターネットなどの通信ネットワークを介して、外部に設けられた情報収集サーバ(図示略)などと通信を行う。ここでは一例として、通信装置10は、公知の第3世代移動体通信システムで用いられる通信モジュールによって実現されるものとする。もちろん、通信装置10として、この他、DCM(Data Communication Module)といった車載通信モジュールなどの様々なものを採用することができる。また、通信装置10は、交差点などに設置される路側機を介して、情報収集サーバと通信を実施してもよい。
 コントローラ1は、制御回路とも言及され、本実施形態では、一例として、通常のコンピュータとして構成されており、周知のCPU、ROMやEEPROM、フラッシュメモリなどの不揮発性メモリ、RAMなどの揮発性メモリ、I/O、及びこれらの構成を接続するバスライン(何れも図示略)などを備えている。不揮発性メモリには、種々の処理を実行するためのプログラムモジュールやデータが格納されている。
 ここで、図2を用いて、コントローラ1が不揮発性メモリに格納されている種々のプログラムモジュールを実行することによって実現される機能について説明する。コントローラ1は、図2に示すように機能ブロックとして、位置検出部F1、操作受付部F2、表示物検出部F3、運転負荷判定部F4、視線検出部F5、見落とし評価部F6、保存部F7(保存処理部とも言及される)、描画部F8(表示制御部とも言及される)、及び通信部F9(通信処理部とも言及される)を備える。これらの機能を備えるコントローラ1は表示物情報表示装置とも言及される。これらの各機能ブロックあるいは各部は、その一部あるいは全てをハードウエアの構成要素として、提供されても良い。
 位置検出部F1は、GNSS受信機や、車速センサ、ジャイロスコープなどの車載センサ群3が備えるセンサから入力される信号に基づいて、ホスト車両の現在位置を検出する。現在位置を示す位置情報は、例えば緯度、経度で表される構成とすればよい。位置検出部F1は、逐次(例えば100ミリ秒毎)にホスト車両の位置情報を取得する。この位置検出部F1は位置取得部とも言及される。
 なお、現在位置を検出するために用いられるセンサ群は、各々が性質の異なる誤差を持っているため、複数のセンサにより各々補完しながら使用するように構成されている。もちろん、各センサの精度によっては、上述したセンサの一部の出力値を用いても良い。
 操作受付部F2は、入力装置4から入力される制御信号から、ドライバが入力装置4に対して為した操作に対応する処理を受け付ける。例えば、操作受付部F2は、ドライバ操作に基づいて、表示物リスト画像を表示する処理を受け付ける。操作受付部F2が受け付けた処理は、キューに蓄積され、逐次実施されていく。
 表示物検出部F3は、前方カメラ2から逐次入力される画像データに対して、周知の画像認識処理を行うことで、検出対象として予め設定されている表示物を検出する。画像認識処理には、パターンマッチングやハフ(Hough)変換等の公知の方法を用いて行う構成とすればよい。
 より具体的には、前方カメラ2から取得した画像データに対してエッジ検出などの公知の画像処理を行い、画像に含まれている全ての物体の輪郭を抽出する。そして、画像処理を施した画像データに対して、パターンマッチング処理を行うことによって、検出対象となっている表示物を検出する。なお、画像処理としては、エッジ検出の他にも、例えば鏡像に変換する鏡像変換やレンズの特性で画像周辺部に生じる歪みを補正する歪み補正等も行う構成としてもよい。
 本実施形態において検出対象とする表示物は、案内標識や警戒標識、規制標識、指示標識、及び補助標識などを含む道路標識とする。案内標識は、方面看板などの経路案内用の標識(すなわち経路案内標識)や、地点の名称並びに道路の名称及び道路番号を示す地点案内標識を含む。警戒標識は、強風や落石、スリップなどに対してドライバに注意深い運転を促す標識である。規制標識は、その標識が設置されている道路への進入を禁止していることを示す進入禁止標識や、車線毎の進行方向を示す進行方向制限標識、制限速度を示す制限速度標識などを含む。
 指示標識は、横断歩道を示す標識や、停止線を示す標識、優先道路であることを示す標識などを含む。補助標識は、案内標識や警戒標識、規制標識、指示標識とともに用いられ、当該補助標識の近傍に設置されている標識(例えば規制標識)に対して情報を付加する標識である。
 もちろん、検出対象とする表示物としては、その表示物が示す内容が固定されているものに限らない。例えば電光掲示板などの、表示内容が動的に変化するものであってもよい。すなわち、検出対象は、制限速度や事故の発生の有無、有料道路の料金などの道路情報を示す電光掲示板を含む。また、本実施形態では、道路標識を検出対象としたが、これに限らない。ガソリンスタンドの料金などを示す看板を検出対象としてもよい。
 これらの検出対象とする表示物を画像データから検出するための画像認識処理に用いられるデータ(画像認識用データとする)D1は、メモリ9に格納されている。例えば、メモリ9は画像認識用データとして、検出対象毎に、その検出対象の形状パターンを表すデータを記憶している。各形状パターンデータには、その検出対象が示す内容を表す表示物種別が設定されている。例えば、制限速度標識を検出するための形状パターンデータには、その表示物種別として制限速度標識と設定されているものとする。したがって、表示物検出部F3は、検出対象とする表示物を検出すると、その検出した表示物の表示物種別を取得することができる。
 また、画像認識用データD1は、ひらがなや、カタカナ、アルファベットなどの文字の形状パターンを表すデータも備えている。これによって、表示物検出部F3は、電光掲示板に表示されるテキストや、道路標識に含まれる文字列も取得できることとする。
 表示物検出部F3は、検出対象となっている表示物を画像データ内に検出すると、検出対象となっている表示物を検出したことを、見落とし評価部F6や保存部F7などに通知する。なお、表示物検出部F3は、検出対象となっている表示物を検出すると、その検出した表示物に対して、固有の番号である表示物IDが付与する。表示物IDは、検出対象を検出した順番に設定される番号であってもよいし、その表示物を検出した時刻を用いてもよい。
 また、表示物検出部F3は、検出対象となっている表示物を画像データ内に検出すると、当該画像データからその表示物の部分を切り出して、その表示物を保存部F7に出力する。この表示物検出部F3が切り出した当該表示物の画像を表示物画像と称する。表示物画像は、表示物ID及び表示物種別とともに保存部F7に出力される。
 さらに、表示物検出部F3は、検出対象となっている表示物を画像データ内に検出すると、当該画像データ内におけるその表示物の位置と、ホスト車両における前方カメラの設定位置と、その撮像方向と、から、ホスト車両に対して当該表示物が存在する位置を検出する。ホスト車両に対して当該表示物が存在する位置を以降では、表示物相対位置と称する。また、一度検出した表示物は、周知の物体追跡(トラッキング)手法を用いて追尾し、その表示物相対位置を逐次更新する。表示物相対位置は、その表示物に設定されている表示物IDとともに、後述する見落とし評価部F6に逐次出力する。
 運転負荷判定部F4は、ホスト車両の走行状態を表す、車載センサ群3が備える種々のセンサから入力されるセンサ値に基づいて、ドライバの運転負荷の大きさを表す運転負荷レベルを判定する。
 ここでは、一例として運転負荷レベルを判定するパラメータとして、車速センサが検出する車速、加速度センサが出力する加速度、操舵角センサが検出する操舵角、ヨーレートセンサが検出するヨーレート、方向指示レバー位置センサが検出する方向指示レバーの位置などを用いる構成とする。
 例えば、運転負荷判定部F4は、車速や加速度、操舵角、ヨーレートが大きいほど、運転負荷レベルが高いと判定する。また、方向指示レバーの位置が左折位置や右折位置となっている場合にも運転負荷をより高く判定する。これは、方向指示レバーが左折位置又は右折位置となっている場合には、ドライバが交差点で左折又は右折をしようとしている状況や、車線変更をしようとしている状況を意味しているからである。いずれの状況においても、ドライバは周囲の安全をより注意深く確認する必要があるため、ドライバの運転負荷は相対的に高いといえる。
 また、運転負荷判定部F4は、位置検出部F1が検出した位置情報と、地図DB6が記憶している地図データとから、ホスト車両が現在走行している道路の道路種別や道路形状を特定し、その特定した道路種別や道路形状に基づいて運転負荷レベルを判定してもよい。例えば、ホスト車両が高速道路を走行している場合には、一般道を走行している場合よりも運転負荷レベルを高く判定する。また、ホスト車両が急カーブを走行している場合も、直線道路を走行している場合よりも運転負荷レベルを高く判定する。
 本実施形態の運転負荷判定部F4は、一例として、ドライバの運転負荷レベルを高レベル、中レベル、低レベルの3段階で表すこととする。運転負荷判定部F4が上述したパラメータを用いて、現在の運転負荷レベルが何れのレベルに該当するかを判定するための条件は、適宜設計されれば良い。
 ここでは、車速、加速度、操舵角、ヨーレートといったパラメータ毎に、要素負荷レベルを判定し、パラメータ毎の要素レベルに基づいて運転負荷レベルを判定する。要素負荷レベルは、そのパラメータ毎の状態を表すものであって、運転負荷レベルを判定するために用いられる。
 要素負荷レベルは、ここでは運転負荷レベルと同様に、高、中、低レベルの3段階で表す。要素負荷レベルが高いほど、運転負荷レベルが高い可能性が高いことを意味する。各パラメータには、そのパラメータの要素負荷レベルが中レベルであると判定するための第1閾値、及び運転負荷レベルが高レベルであると判定するための第2閾値を予め設定しておく。
 例えば、車速の第1閾値を40km/h、第2閾値を80km/hと設定し、現在の車速が第2閾値以上となっている場合には、車速の要素負荷レベルは高レベルであると判定する。また、現在の車速が第2閾値未満であって且つ第1閾値以上となっている場合には、車速の要素負荷レベルは中レベルであると判定し、第1閾値未満である場合には、車速の要素負荷レベルは低レベルであると判定する。他のパラメータに対しても、同様に適宜、第1閾値及び第2閾値を設定しておき、パラメータ毎の要素負荷レベルを判定する。
 そして、全てのパラメータのうち、要素負荷レベルが高レベルとなっているパラメータが1つでも存在する場合には、運転負荷レベルは高レベルであると判定する。また、要素
負荷レベルが高レベルとなっているパラメータが存在せず、かつ、要素負荷レベルが中レベルとなっているパラメータが所定数(例えば2つ)以上存在する場合には、運転負荷レベルを中レベルと判定する。要素負荷レベルが高レベルとなっているパラメータが存在せず、かつ、要素負荷レベルが中レベルとなっているパラメータが所定数(例えば2つ)未満である場合には、運転負荷レベルを低レベルと判定する。
 なお、方向指示レバーが左折位置か右折位置のいずれかに設定されている場合には、運転負荷レベルを1段階高く判定する。ただし、既に運転負荷レベルが高レベルとなっている場合には、高レベルを維持する。
 視線検出部F5は、ドライバモニタ5が撮影した画像データを逐次取得し、その画像データから、公知の画像処理技術を用いて特徴点を検出し、顔領域、及び顔領域における目領域、黒目部分などを検出する。本実施形態のドライバモニタ5はホスト車両に固定して設置されているとともに、撮像方向も固定されているため、画像データにおける顔領域の位置や大きさに応じて、次車両内におけるドライバの顔の位置を特定することができる。そして、視線検出部F5は顔領域の大きさと顔領域における目領域の位置および黒目の位置から、ドライバの顔の向きや視線方向を算出する。この視線検出部F5は視線方向検出部とも言及される。
 見落とし評価部F6は、表示物検出部F3が検出した表示物をドライバが見落とした可能性の度合いを、運転負荷判定部F4が判定している運転負荷レベルと、その表示物の表示物相対位置と、視線検出部F5が検出しているドライバの視線方向と、に基づいて算出する。以降では、表示物検出部F3が検出した表示物をドライバが見落とした可能性を示す度合いを、見落とし度と称する。この見落とし度は見落とし可能性とも言及される。
 本実施形態における見落とし評価部F6は、一例として次に述べる手順によって、見落とし度を1~5の5段階で表す。この見落とし度の値が大きいほど、ドライバがその表示物を見落とした可能性が高いことを表す。
 見落とし評価部F6は、まず、ドライバの視線方向と、表示物相対位置とに基づいて、1次見落とし度を判定する。そして、その1次見落とし度に対して運転負荷レベルに応じた補正を行うことで、当該表示物に対する最終的な見落とし度を決定する。なお、1次見落とし度もまた、見落とし度と同様に、表示物検出部F3が検出した表示物をドライバが見落とした可能性の度合いを表すものであって、その値が大きいほど、見落とした可能性が高いことを意味する。
 より具体的には、見落とし評価部F6は、表示物を検出してから当該表示物をホスト車両が通り過ぎるまでに、ドライバの視線方向が第1判定時間(例えば0.5秒)以上継続して、ドライバにとって表示物が存在する方向(表示物方向とする)となったか否かを判定する。表示物方向は、表示物検出部F3が逐次算出している当該表示物の表示物相対位置と、視線検出部F5が逐次検出しているドライバの頭部の車両内における位置から算出すればよい。
 表示物を検出してから当該表示物をホスト車両が通り過ぎるまでに、ドライバの視線方向が、第1判定時間(例えば0.5秒)以上継続して表示物方向となった場合には、ドライバがその表示物の内容を認識している可能性が高い。したがって、1次見落とし度を、見落とした可能性が最も低いことを示す1と評価する。
 一方、ドライバの視線方向が表示物方向となったことを検出したが、そのドライバの視線方向が表示物方向となっている継続時間が第1判定時間(例えば0.5秒)未満である場合には、1次見落とし度を2と評価する。また、ドライバの視線方向と表示物方向とが一致していないが、ドライバの視線方向と表示物方向とが所定角(例えば30度)以内となっている時間が第2判定時間(例えば1.5秒)以上であれば、1次見落とし度を3と評価する。その他の場合には、1次見落とし度を4に設定する。
 次に、以上に求めた1次見落とし度に対して、運転負荷レベルが高いほど見落とし度が高くなるように、運転負荷レベルに応じた補正を行って最終的な見落とし度を決定する。なお、ここで用いる運転負荷レベルは、表示物を検出してから当該表示物をホスト車両が通り過ぎるまでに判定された運転負荷レベルのうち、最も高いレベルものとする。すなわち、表示物を検出してから当該表示物をホスト車両が通り過ぎるまでに運転負荷レベルが1回でも高レベルと判定した場合には、運転負荷レベルは高レベルであったとして補正を行う。見落とし度を評価する際に用いる運転負荷レベルの決定方法は、適宜設計されればよい。
 ここでは、1次見落とし度に運転負荷レベルに応じて定まる補正値を加算して見落とし度を決定する。より具体的には、運転負荷レベルが高レベルとなっている場合には、1次見落とし度に対して1を加算した値を、見落とし度とする。例えば、1次見落とし度が4であって、かつ、運転負荷レベルが高レベルとなっている場合、見落とし評価部F6は見落とし度を5に決定する。一方、運転負荷レベルが低レベルまたは中レベルである場合には、1次見落とし度に0を加算した値を見落とし度として採用する。すなわち、1次見落とし度の値をそのまま見落とし度とする。
 もちろん、その他の態様として、1次見落とし度に運転負荷レベルに応じて定まる補正値を乗算することで、見落とし度を決定してもよい。その場合の補正値も、運転負荷レベルが高いほど見落とし度が高くなるように設定する。
 また、ここでは、ドライバの視線方向と表示物方向とから1次見落とし度を評価し、その1次見落とし度に対して運転負荷レベルに応じた補正を行って見落とし度を決定する構成としたが、これに限らない。最初に運転負荷レベルに応じて、仮の見落とし度(すなわち、1次見落とし度)を評価し、その結果に対して、ドライバの視線方向及び表示物方向を用いた補正を行って、最終的な見落とし度を決定してもよい。
 すなわち、見落とし評価部F6は、表示物を検出してからホスト車両が当該表示物を通過するまでの、運転負荷レベルが高ければ高いほど、また、ドライバの視界に表示物が入っている時間が短いほど、見落とし度が高く評価すればよい。
 さらに、本実施形態では見落とし可能性の算出に、運転負荷レベルと、ドライバの視線方向との両方を用いる構成としたがこれに限らない。ドライバの視線方向は用いずに、運転負荷レベルに応じて見落とし可能性を算出してもよい。その場合、運転負荷レベルが高いほど、見落とし可能性を高くなるように算出する。また、見落とし可能性の算出に、運転負荷レベルを用いずに、その表示物の表示物相対位置と、ドライバの視線方向と、に基づいて見落とし可能性を算出してもよい。この場合、本実施形態の構成から、運転負荷レベルに応じた補正を行わない態様となる。
 尚、表示物検出部F3が検出した表示物をドライバが見落とした可能性を、その可能性を表す度合いで表す構成としたがこれに限らない。他の態様として、表示物検出部F3が検出した表示物をドライバが見落とした可能性を、百分率などで表しても良い。
 保存部F7は、表示物検出部F3が検出した表示物に関するデータ(表示物データとする)をメモリ9に保存する。ここでの表示物データとは、表示物ID、表示物画像、表示物種別、その表示物を検出した時刻、その表示物を検出した地点(すなわち検出地点)の位置情報、その表示物が設置されている地点(すなわち設置地点)の位置情報を含む。また、表示物の情報には、その表示物を検出(及び追跡)している間における運転負荷レベルや、その表示物に対して見落とし評価部F6が評価した見落とし度なども含む。
 検出地点の位置情報としては、その表示物を検出したときのホスト車両の現在位置を採用する。なお、表示物を検出したときのホスト車両の現在位置とは、表示物した検出時点に位置検出部F1が取得したホスト車両の現在位置に限るものではなく、その表示物を検出した時点に前後する時点において、位置検出部F1が取得したホスト車両の現在位置まで含むものとする。
また、表示物が設置されている地点の位置情報は、表示物を検出した地点の位置情報と表示物相対位置とから算出すればよい。
 運転負荷レベルについては、前述の通り、その表示物を検出してから通過するまでの間において運転負荷判定部F4が判定した運転負荷レベルのうち最も高いレベルのものを採用する。もちろん、他の態様として、その表示物を検出した時点における運転負荷レベルであっても良い。また、検出してから通過するまでの運転負荷レベルの平均値や中央値であってもよい。さらには、その表示物を検出してから通過するまでの間において運転負荷判定部F4が判定した運転負荷レベルを時系列に並べた時系列データが保存されていても良い。
 本実施形態における保存部F7は、表示物検出部F3から表示物ID及び表示物画像が入力されると、その表示物に対応する表示物データを生成して表示物データリストD2に追加保存する。表示物データリストD2は、表示物検出部F3が検出した表示物毎の表示物データをリスト構造で備えるデータである。コントローラ1は、表示物データが備える表示物IDを指定することによって、その表示物IDに対応する表示物データを参照することができる。図3に、メモリ9に保存されている表示物データリストD2のデータ構成の一例を示す。
 図3に示すように表示物データリストD2において各表示物画像B~Fは、その表示物を検出した時刻、表示物を検出した地点の位置情報、表示物が設置されている地点の位置情報、運転負荷レベル、及びその表示物に対して見落とし評価部F6が判定した見落とし度、のそれぞれと対応付けられて保存されている。
 なお、保存部F7は、表示物データを追加する際には、表示物データリストの先頭に追加する構成とする。すなわち、表示物データリストが備える表示物データは、新しく追加されたデータから検出時刻が遡っていくように並んでいる。したがって、メモリ9に保存されている表示物データリストにおいては、最も新しい表示物データが一番上位(すなわち先頭)に配置されている。表示物データリストD2が備える表示物データの並び順については、適宜設計されればよい(例えば第二変形例)。
 例えば図3において表示物IDが6となっている表示物の表示物画像は表示物画像Fであり、その表示物の種別は、方面看板である。なお、表示物画像が実際に保存されている記憶領域は、このリストが保存されている記憶領域とは異なる場所であって、表示物データが備える表示物画像の欄には、表示物画像Fが保存されている記憶領域のアドレスが格納されていることとする。表示物ID=6の表示物の検出時刻は、時刻T6であり、検出地点はP16、設置地点はP26である。また、この表示物を検出している間の運転負荷レベルは高レベルであり、見落とし評価部F6が評価した見落とし度は5である。
 他の表示物IDが5~2となっている表示物データについても、表示物ID=6となっている表示物データと同様に、種々のデータと対応付けられている。なお、表示物IDが5の表示物、及び表示物IDが4の表示物を検出している間の運転負荷レベルは、何れも中レベルであるが、それぞれの見落とし度が異なっている理由は、ドライバの視線方向による1次見落とし度が異なっているためである。
 描画部F8は、表示器7に表示させる画像データを生成し、生成した画像データを表示器7に出力して表示させる。描画部F8は、より細かい機能ブロックとして図2に示すように、リスト表示部F81(リスト表示処理部とも言及される)、及び自動表示部F82(自動表示処理部とも言及される)を備える。
 リスト表示部F81は、表示物検出部F3が検出した表示物の一覧を表す画像(表示物リスト画像)を表示させるためのドライバ操作を操作受付部F2が受け付けた場合に、表示物データリストD2から表示物リスト画像を生成して表示器7に表示させる。表示物リスト画像は、表示物データリストD2に登録されている表示物の情報を、その見落とし度が高い順に並べた画像である。なお、表示物リスト画像として表示されるリストを以降では表示物リストと称する。本実施形態においては、表示器7に表示される表示物リストと、メモリ9に格納されている表示物データリストD2とは別のものとして扱う。
 その表示物リスト画像の一例を図4に示す。図4に示す表示物リスト画像中に示されているリストは、表示物データリストD2に登録されている表示物に対応するボタン画像(以降、ボタン)B1~5を備えている。各ボタン上には、そのボタンに対応する表示物についての情報が表されており、ドライバはそのボタン上の情報をみることで、そのボタンに対応する表示物の情報を認識することができる。
 また、各ボタンB1~5は、ドライバによるタッチ操作を受け付けるボタンとしての役割を備えており、ドライバは、ボタンB1~5の何れかを選択(ここではタッチ操作)すると、その表示物に対応する表示物画像を表示させることができる。すなわち、各ボタンB1~5は、その表示物に対応する表示物画像を表示するためのドライバ操作を受け付けるボタンである。ドライバは、表示物画像を表示させることによって、その表示物についてのより詳細な情報を知ることができる。
 ここでは、各ボタンB1~5は、そのボタンに対応する表示物の情報として、表示物の表示物種別と、検出地点と、見落とし度と、を示すテキスト情報を含んでいる。ここでは検出地点の項目は、ここでは検出地点の座標ではなく、現在地からの距離で表している。例えば、ボタンB1の検出地点の項目は、現在地からD1メートル前通過した地点に設置されている表示物であることを示している。表示物の設置地点と現在地との距離は、表示物データリストD2に登録されている設置地点と、位置検出部F1が取得したホスト車両の現在位置と、地図データと、から算出すればよい。もちろん、他の態様として、その表示物を検出した道路の名称などの情報を表示してもよい。表示物を検出した道路の名称は、検出地点の位置情報をもとに地図データを参照して取得すればよい。
 また、見落とし度を示す項目は、ここでは表示物データリストD2に登録されている見落とし度をそのまま表示するが、その他、表示物データリストD2に登録されている見落とし度に応じて、百分率に置き換えて表示してもよい。
 さらには、見落とし度に応じて、ボタンの表示態様を変更することで、その表示物の見落とし度を表現してもよい。例えば、見落とし度が高い順に、各ボタンの色を、赤色、橙色、黄色、黄緑、緑色などとすればよい。また、見落とし度が最も高い表示物のボタンについては、点滅させるなどの強調表示をしてもよい。すなわち、見落とし度の項目は、そのボタンに対応する表示物の見落とし度を、ドライバが認識できるように表示されればよい。各ボタンの表示態様、及びボタンに表示する情報は、適宜設計されればよい。
 なお、リスト表示部F81は、表示物リストをリストの上位から(すなわちリストの先頭から)順に表示する。表示物リストは表示物検出部F3が検出した表示物を見落とし度が高い順に並べたリストであるため、見落とし度が高いものから順に表示されることになる。
 ここで、表示器7が備える表示領域は有限であるため、表示物リスト画像を表示している場合において、1つの画面の中に表示される、表示物に対応するボタンの数(表示可能数とする)も一定の値となる。表示可能数は、表示可能カウントとも言及される。表示物データリストD2が備える表示物データの数が、表示可能数以上となっている場合、見落とし度が相対的に低い表示物のボタンは、最初に表示される画面には表示されない。また、最初の画面に表示される場合であっても、相対的に見落とし度が高い表示物のボタンよりは下に配置される。尚、画面は、ウインドウとも言及される。
 なお、本実施形態では表示物リスト画像を表示した最初の画面に表示されなかった表示物のボタンは、スクロールバーSbr上においてスクロールボックスSbxを下方向にスライドさせることで表示させることができる構成とする。
 もちろん、他の態様として表示物リスト画像を、1つの画面単位(すなわちページ単位)で生成する場合には、次の画面に遷移するドライバ操作を実施することで、ドライバは最初の画面に表示されなかった表示物に対応するボタンを表示させることができる。
 したがって以上の構成によれば、見落とした可能性が高い表示物のボタンほど優先して表示器7に表示されることとなる。また、このように見落とした可能性が高い表示物のボタンほど優先して表示器7に表示されることによって、ドライバは、表示物リスト画像に表示されている複数の選択肢の中から、見落とした可能性が高い表示物に対応するボタンを選択しやすくなる。
 なお、本実施形態では、表示物データリストD2に登録されている表示物に対応するボタン画像(以降、ボタン)B1~5は、そのボタンに対応する表示物の表示物画像を表示するための操作を受け付ける機能を備えていたが、これに限らない。単純に、そのボタンに対応する表示物の表示物情報(表示物内容情報とも言及される)を表すだけであってもよい。
 自動表示部F82は、表示物データリストD2に登録されている表示物のうち、その見落とし度が所定の閾値(自動表示用閾値とする)以上となっている表示物の内容を表す情報(表示物情報とする)を、所定のタイミングで自動的に表示器7に表示する。本実施形態では、表示物情報として、その表示物の表示物画像を表示する構成とする。この見落とし度が所定の閾値以上となっている表示物の表示物画像を自動的に表示するための処理を、以降では自動表示処理と称する。
 ここでは、見落とし度が5以上となっている表示物の表示物画像を自動で表示器7に表示することとする。また、自動表示処理を実施するための準備処理として、自動表示候補設定処理を実施する。この自動表示部F82が実施する種々の処理についての詳細については後述する。
 通信部F9は、通信装置10が受信したデータを取得するとともに、コントローラ1が生成したデータを通信装置10に出力して送信させる処理を実施する。
 (表示物検出処理)
 ここで、図5に示すフローチャートを用いて、表示物検出部F3が前方カメラ2から入力される画像データから検出対象とする表示物を検出する処理(以降、表示物検出処理)の流れについて説明する。図5に示すフローチャートは、一例として逐次(例えば100m秒毎に)開始される。
 ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のセクション(あるいはステップと言及される)を含み、各セクションは、たとえば、S11と表現される。さらに、各セクションは、複数のサブセクションに分割されることができる、一方、複数のセクションが合わさって一つのセクションにすることも可能である。さらに、各セクションは、デバイス、モジュールとして言及されることができる。また、上記の複数のセクションの各々あるいは組合わさったものは、(i)ハードウエアユニット(例えば、コンピュータ)と組み合わさったソフトウエアのセクションのみならず、(ii)ハードウエア(例えば、集積回路、配線論理回路)のセクションとして、関連する装置の機能を含みあるいは含まずに実現できる。さらに、ハードウエアのセクションは、マイクロコンピュータの内部に含まれることもできる。さらに、ソフトウエアのセクションは、ソフトウエアプログラムに含まれることができる。このソフトウエアプログラムは、プログラム製品としての非遷移のコンピュータで読み込み可能な記憶媒体に含まれることも可能である。
 まず、S11では前方カメラ2から画像データを取得してS11に移る。S12では、S11で取得した画像データに対して周知の画像認識処理を実施し、検出対象とする表示物、すなわち画像認識用データが備える形状パターンデータと一致する表示物が、その画像データ内に含まれているかを判定する。
 そして、S11で取得した画像データに、検出対象とする表示物を検出した場合にはS13がYESとなってS14に移る。一方、S11で取得した画像データに、検出対象とする表示物を検出しなかった場合には、S13がNOとなってS18に移る。
 S14では、S13で検出した表示物が、前回の表示物検出関連処理において既に検出されている表示物であるか否かを判定する。検出済みの表示物に対しては追跡処理を実施している為、検出済みの表示物と初めて検出した表示物とは区別することができる。検出済みの表示物とは、既に表示物IDが設定されている表示物ともいうことができる。S13で検出した表示物が検出済みの表示物である場合には、S14がYESとなってS19に移る。一方、S13で検出した表示物が検出済みの表示物ではなく、初めて検出した表示物である場合には、S14がNOとなってS15に移る。
 S15では、この表示物に対して表示物IDを設定するとともに、S11で取得した画像データから、この表示物に該当する領域を抽出し、表示物画像を生成する。また、表示物の形状パターンから表示物種別を特定する。S15の処理が完了するとS16に移る。
 なお、S13及びS14の結果、新たに検出したと判定した表示物の種別が補助標識であった場合には、その補助標識近傍に存在する本標識をまとめて抽出する。ここでの補助標識の近傍とは、補助標識から例えば実空間において1mに相当する範囲内を指す。また、新たに検出した本標識の近傍に補助標識が存在する場合にも、同様にまとめて抽出する。
 S16では、S11で取得した画像データにおける当該表示物の位置及び大きさから、ホスト車両に対する当該表示物の相対位置(すなわち表示物相対位置)を算出してS17に移る。
 S17では、表示物データ保存処理を呼び出して本フローを終了する。表示物データ保存処理については、別途図6に示すフローチャートを用いて説明する。なお、表示物データ保存処理を実行するための引数として、表示物検出部F3は、表示物IDや、表示物画像、表示物相対位置、表示物種別などを保存部F7に渡す。
 S18では、S11で取得した画像データを破棄して本フローを終了する。S19では、検出済みの表示物に対して、前述の通り周知の物体追跡技術を用いて、今回のS11で取得した画像データ内における検出済みの表示物に相当する画像領域を特定する。そして、追跡処理によって特定した当該表示物の表示物相対位置を算出し、表示物IDとともに見落とし評価部F6に出力し、本フローを終了する。
 (表示物データ保存処理)
 次に、図6に示すフローチャートを用いて、保存部F7が実施する、表示物検出部F3が検出した表示物の表示物データをメモリ9に保存する処理(すなわち表示データ保存処理)について説明する。図6に示すフローチャートは、図5のフローチャートのS17に移った際に開始される。
 なお、図6のフローチャートで示す処理と、図5のフローチャートで示す処理とは並行に行われ、図6のフローチャートにおける表示物保存処理が完了していない場合でも、図5のフローチャートは、逐次(100ミリ秒毎に)開始されるものとする。また、表示物種別が本標識となっている表示物を、同時に複数検出した場合には、それぞれの表示物に対して、表示物保存処理を呼び出す。これら複数の処理は、周知のタスクスケジューリングアルゴリズムを用いて単一のCPUにおいて行われてもよいし、複数のCPUにおいて並列して行われてもよい。
 まず、S21では、表示物検出部F3から取得した表示物の表示物ID、表示物画像、表示物相対位置、表示物種別を取得してS22に移る。
 S22では、位置検出部F1が取得したホスト車両の現在位置を取得する。このS22で取得した現在位置が、表示物の検出地点を表す。また、現在位置と、表示物相対位置とから、表示物の設置地点の位置を算出してS23に移る。
 S23では、運転負荷判定部F4が判定した運転負荷レベルから、当該表示物を検出している間の運転負荷レベルを決定してS24に移る。本実施形態では、表示物を検出してから通過するまでの運転負荷レベルの最大値である。
 S24では、当該表示物に対して見落とし評価部F6が評価した見落とし度を取得してS25に移る。S25では、以上で求めた一連のデータをそれぞれ対応付けたデータ(すなわち表示物データ)を、表示物データリストD2に追加保存して、本フローを終了する。
 (自動表示候補設定処理)
 ここで、図7に示すフローチャートを用いて、自動表示部F82が実施する、表示物データリストD2に登録されている表示物のうち、自動表示処理において自動的に表示する表示物の候補を設定する処理(すなわち、自動表示候補設定処理)について述べる。以降では、自動表示処理において自動的に表示する表示物の候補を、自動表示候補と称する。図7に示すフローチャートは、イグニッション電源がオンとなっている間、逐次(例えば100ミリ秒毎に)実施されればよい。
 まずS31では、表示物データリストD2に新たに検出された表示物のデータが追加されたか否かを判定する。まだ新規データが追加されていない場合には、S31がNOとなってS34に移る。一方、新規データが追加されている場合には、S31がYESとなってS32に移る。
 S32では、その追加された表示物の見落とし度が、自動表示用閾値(ここでは5)以上となっているか否かを判定する。追加された表示物の見落とし度が、自動表示用閾値以上となっている場合にはS32がYESとなってS33に移る。追加された表示物の見落とし度が、自動表示用閾値未満である場合にはS32がNOとなってS34に移る。
 S33では、その表示物を自動表示候補に設定する。なお、自動表示候補に設定する際には、当該表示物を自動表示候補から解除する条件(解除条件とする)を設定する。これは以下の理由による。
 すなわち、表示物情報は、検出してから時間が経過したり、設置位置から離れてしまったりしてその情報の有用性が低下してしまう。例えば、駐車禁止標識が表す情報は、その駐車禁止標識が設置されている地点付近においては有用であるが、その設置位置から離れるとその情報は有用ではなくなってしまう。
 したがって、自動表示候補に設定した表示物を、仮にいつまでも自動表示候補に設定しておくと、ホスト車両の走行に伴って有用性が低下したタイミングで、その表示物の表示物情報を表示してしまう場合があり、その場合、かえってドライバに煩わしさを与えてしまう恐れがある。そこで、本実施形態のように各自動表示候補に解除条件を設けておくことによって、有用性が低下した情報が自動的に表示される可能性を低減することができる。
 ここで自動表示候補に設定される解除条件は、位置情報を用いて設定しても良いし、時間情報を用いて設定しても良い。また。これらを組み合わせて設定してもよい。位置情報を解除条件に用いる場合には、例えば設置地点から所定距離走行した場合に解除条件を満たしたと判定する。また、方面看板などであれば、その方面看板が案内している交差点を通過した場合に解除条件を満たしたと判定してもよい。方面看板に対応する交差点は地図データを参照して決定すれば良い。
 また、時間情報を解除条件に用いる場合には、例えば検出してから一定時間(1分、10分、1時間)経過した場合に解除条件を満たしたと判定する。この解除条件として設定する時間の長さは、全ての表示物に対して一定値としてもよいし、表示物種別に応じて変更してもよい。例えば、時間帯によって料金が変更される有料道路の走行料金を示す表示物の有効期限は、その走行料金が有効な時刻までとする。その他、方面看板などは、1分など相対的に短い時間とすればよい。
 S34では、自動表示候補となっている表示物のうち、解除条件を満たしたものを自動表示候補となっている状態から解除して本フローを終了する。
 (自動表示処理)
 次に、図8に示すフローチャートを用いて、自動表示部F82が実施する自動表示処理について述べる。図8に示すフローチャートは、イグニッション電源がオンとなっている間、逐次(例えば100ミリ秒毎に)実施されればよい。
 まずS41では、表示物データリストD2に登録されている表示物のうち、自動表示候補に設定されている表示物があるか否かを判定する。自動表示候補に設定されている表示物が存在する場合には、S41がYESとなってS42に移る。自動表示候補に設定されている表示物が存在しない場合には、S41がNOとなって本フローを終了する。
 S42では、運転負荷判定部F4が判定している現在の運転負荷レベルが所定の閾値(低負荷判定閾値とする)以下となっているか否かを判定する。ここで用いる低負荷判定閾値は、ドライバの運転負荷が相対的に小さいと判定するための閾値であって適宜設計されればよい。ここでは一例として、低負荷判定閾値とする運転負荷レベルを2とする。すなわち、現在の運転負荷レベルが2以下となっている場合には、S42がYESとなってS43に移る。一方、運転負荷レベルが3以上となっている場合には、S42がNOとなって本フローを終了する。
 S43では、現在、前回の自動表示処理による表示物情報の表示を実施し
ているか否かを判定する。本実施形態では表示物情報として、表示物画像を表示する構成としている。したがって、本実施形態では、前回の自動表示処理による表示物画像の表示を実施しているか否かを判定する。表示物画像が表示中である場合にはS43がYESとなって本フローを終了する。一方、表示物画像が表示中ではない場合にはS43がNOとなってS44に移る。
 S44では、自動表示候補となっている表示物の表示物画像を表示器7に表示して本フローを終了する。
 (実施形態のまとめ)
 以上の構成では、描画部F8が備えるリスト表示部F81は、ドライバによる所定の操作を受け付けた場合に、表示物データリストD2に登録されている表示物の情報を、その見落とし度が高い順に並べた表示物リスト画像を表示する。
 表示器7が備える表示領域は有限であるため、1つの画面内に表示される表示物リスト画像に含まれる表示物の件数(すなわち表示可能数)も有限である。しかしながら、以上の構成によれば、表示物リストは表示物検出部F3が検出した表示物を見落とし度が高い順に並べたリストであるため、表示リスト画像を表示した最初の画面においては、見落とし度が高いものから優先的に表示されることになる。
 このように見落とした可能性が高い表示物についての情報ほど優先して表示器7に表示されることによって、ドライバは、表示物リスト画像に表示されている複数の表示物についての情報の中から、見落とした可能性が高い表示物を見つけやすくなる。
 また、描画部F8が備える自動表示部F82は、表示物データリストD2に登録されている表示物のうち、その見落とし度が5以上となっている表示物情報を、運転負荷判定部F4が判定する運転負荷レベルが2以下となった時に、自動的に表示する。
 ドライバが完全に見落としてしまった表示物については、ドライバはその表示物の存在にも気づいていない為、表示物リスト画像を表示させるための操作を実施しない可能性が高い。しかしながら、自動表示部F82が、見落とし度が所定の閾値以上となっている表示物については自動的に表示器7に表示することによって、ドライバは、自身が見落としてしまった表示物の表示物情報についても認識することができる。
 以上、本開示の実施形態を説明したが、本開示は上述の実施形態に限定されるものではなく、次の実施形態も本開示の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。
 (第一変形例)
 上述した実施形態では、リスト表示部F81が表示物リストを表示する際に見落とし度が高い順に並び替えて(すなわちソートして)表示する構成とし、表示物データリストD2が備える表示物データ自体に対する並び替えなどの処理については言及していない。
 これに対し、第一変形例の保存部F7は、表示物データリストD2が備える表示物データに対して並び替える処理(リストデータソート処理とする)を実施する。以下、この第一変形例の保存部F7が実施する、リストデータソート処理について説明する。
 第一変形例における保存部F7は、表示物データリストD2が備える表示物毎のデータを、リストの先頭から見落とし度が高い順に並ぶように管理する。例えば、保存部
F7は図6のS25で、新たなデータを表示物データリストD2に追加する際、その新規データの見落とし度に応じたリスト上の位置に挿入する。例えば、新規データの見落とし度が4である場合には、見落とし度が5となっている表示物のデータと、見落とし度が4となっている表示物のデータの間に挿入する。このような構成とすることで、表示物データリストD2が備えるデータは、見落とし度順に並ぶとともに、同じ見落とし度となっているデータの中では、その検出時刻が新しいデータほど上に配置されるようになる。
 このように、表示物データリストD2が備える各表示物に対応するデータを、予め表示物データリストD2の状態で、見落とし度順にソートしておくことで、リスト表示部F81が表示物リスト画像(図4参照)を生成する際の、ソート処理を省略できる。すなわち、表示リストの各表示物のボタンを、表示物リストデータと同じ順番で配置できるようになる。これにより、表示物リスト画像を表示させるためのドライバ操作を操作受付部F2が受け付けてから、当該表示物リスト画像を表示器7に表示させるまでに要する時間を短くすることができる。すなわち、ドライバ操作に対する応答速度を高めることができる。
 (第二変形例)
 また、保存部F7は、見落とし度が所定の閾値(視認閾値とする)以下となっている表示物のデータは、表示物データリストD2に追加しない構成としてもよい。視認閾値は、ドライバがその表示物を視認していると判定するための閾値であって、本実施形態では一例として、視認閾値とする見落とし度を1とする。
 見落とし度が所定の閾値(視認閾値とする)以下となっている表示物とは、ドライバが視認している可能性が高い表示物である。そして、ドライバが視認している表示物については、既にその内容をドライバが認識している可能性が高いため、表示物リスト画像にその表示物に対応する情報(ここではボタン)を表示しても、ドライバに与える有用性は相対的に小さいと考える。また、表示リスト画像として、多くの表示物のボタンを表示すればするほど、ドライバが見落とした表示物の情報や、ドライバが所望の表示物を見つけにくくなる。
 この第二変形例の構成では、見落とし度が視認閾値以下となっている表示物データを表示物データリストD2に追加しない。リスト表示部F81は、表示物データリストD2に基づいて表示物リスト画像を生成するため、表示物リスト画像にも見落とし度が視認閾値以下となっている表示物の情報は表示されなくなる。
 すなわち、この第二変形例の構成によれば、ドライバにとって有用性が低い情報が表示物リスト画像に表示されなくなるとともに、表示物リスト画像に表示される表示物の件数も低減することができる為、ドライバが見落とした表示物の情報や、ドライバが所望の表示物を見つけやすくすることができる。また、表示物データリストとしてメモリ9に保存されるデータ量を低減することができる。
 なお、以上では、見落とし度が視認閾値以下となっている表示物のデータを、表示物データリストD2に追加しない構成とすることで、表示物リスト画像から、見落とし度が視認閾値以下となっている表示物が表示されなくなる構成としたがこれに限らない。例えば、見落とし度が視認閾値以下となっている表示物のデータであっても、いったん表示物検出リストに追加保存しておき、所定のタイミングで(例えば一定時間置きに)、見落とし度が視認閾値以下となっている表示物のデータを削除する構成としてもよい。
 また、リスト表示部F81が表示物リスト画像を生成する際に、見落とし度が視認閾値以下となっている表示物については用いない構成としてもよい。すなわち、見落とし度が視認閾値よりも大きい表示物の表示物データを母集団として、表示物リスト画像を生成してもよい。このような構成においても、上述した第二変形例と同様の効果を奏することができる。
 (第三変形例)
 また、リスト表示部F81は、見落とし度に加えて、表示物データリストD2が備える表示物データのうち、その表示物の表示物情報がドライバにとって有用であるか否かに基づいて、表示物リストの表示物の並び順を調整してもよい。この第三変形例の構成について以下、説明する。
 第三変形例におけるコントローラ1aは、図9に示すように、実施形態で述べたコントローラ1が備える機能ブロック、すなわち位置検出部F1~通信部F9に加えて、有用判定部F10を備える。この有用判定部F10は、表示物データリストD2が備える表示物データのそれぞれに対して、その表示物の表示物情報がドライバにとって有用であるか否かを判定する。
 より具体的には、有用判定部F10は、ホスト車両の現在位置とその表示物の設置位置との距離と、その表示物の表示物種別と、に基づいて、その表示物の表示物情報がドライバにとって有用であるか否かを判定する処理を行う(有用判定処理とする)。
 これは、表示物情報のドライバにとっての有用性は、ホスト車両の現在位置とその表示物の設置位置との距離や、その表示物の表示物種別に応じて変化するためである。例えば、方面看板の情報は、その方面看板が案内の対象としている交差点を通過するまではドライバにとっては有用である一方、その交差点を通過した後においてはその有用性は低下する。また、駐車禁止などの規制標識も、その規制標識近傍に設置されている補助標識などによって、その規制標識の規制内容が有効範囲が定まっている場合がある。この場合、有効範囲内においてはその表示物情報は有用である一方、その有効範囲外においてはその表示物の表示物情報の有用性は低下する。
 そこで、有用判定部F10は、まず、表示物の表示物種別に応じて、その表示物の有効範囲を決定し、ホスト車両がその有効範囲内に存在する場合には、その表示物の表示物情報がドライバにとって有用であると判定する。一方、ホスト車両がその有効範囲内に存在しない場合には、その表示物の表示物情報はドライバにとって有用ではないと判定する。
 表示物種別毎の有効範囲は、例えば、方面看板であれば、その方面看板の検出地点からその方面看板が案内の対象としている交差点までが有効範囲とする。また、駐車禁止などの規制標識は、その規制標識近傍に設置されている補助標識によって定まる範囲を有効範囲とする。補助標識が設置されていない場合には、その規制標識の設置地点から一定距離(例えば50m)以内を有効範囲とする。また、その他の表示物種別に対しても適宜有効範囲が予め設定しておけばよい。
 第三変形例における表示物データは、その表示物が有用であるか否かを示す処理上のフラグである有用フラグを備えており、有用判定部F10は、その表示物の表示物情報が有用であると判定した表示物データに対しては、有用フラグをオンに設定する。一方、有用判定部F10は、その表示物の表示物情報が有用ではないと判定した表示物データに対しては、有用フラグをオフに設定する。なお、表示物データを生成したときの有用フラグの初期設定は、オンに設定しておく。
 以上のような有用判定処理を、表示物データリストが備える各表示物データに対して逐次(例えば200ミリ秒毎に)実施することで、各表示物データに設定されている有用フラグは、随時更新されていく。なお、有用判定処理は、有用フラグがオンとなっている表示物データに対してのみ実施してもよい。
 そして、第三変形例におけるリスト表示部F81は、有用フラグがオンとなってあって、かつ、見落とし可能性が高い表示物を優先して表示物リストの上位に配置した表示物リスト画像を生成して、表示器7に表示する。言い換えれば、ドライバにとって有用であって、かつ、見落とした可能性が高い表示物を優先して表示器7に表示する。
 例えば、表示物リストにおいては、まず、有用フラグがオンとなっている表示物のうち、見落とし度が高いものから順に並べて配置し、その下位に、有用では無いと判定された表示物データを見落とし度の高いものから順に並べて配置すればよい。
 更に、リスト表示部F81は、図10に示すように、有用フラグがオンとなっている表示物のデータを母集団とする表示物リストと、有用フラグがオフとなっている表示物のデータを母集団とする表示物リストをタブで切り替えて表示できるような構成としてもよい。以降では、有用フラグがオンとなっている表示物のデータを母集団とする表示物リストを有用表示物リスト、有用フラグがオフとなっている表示物のデータを母集団とする表示物リストを非有用表示物リストと称する。
 図10に示す表示物リスト画像は、表示物データリストD2に登録されている表示物に対応するボタンB1~5などの他に、有用表示物リストを表示するためのタブスイッチTab1、及び非有用表示物リストを表示するためのタブスイッチTab2を備えている。ドライバは、これらのタブスイッチTab1、Tab2を選択(すなわちタッチ操作)することで、タッチしたほうのタブスイッチに応じた表示物リストを表示させることができる。
 なお、図10においては、タブスイッチTab1がドライバによって選択されている場合の表示画面の一例である。すなわち、有用フラグがオンとなっている表示物のデータ群の表示物リストが表示されている状態である。現在、ドライバによって選択されていない方のタブスイッチTab2は、タブスイッチTab1とは異なる表示態様(色や明暗など)で表示することによって、現在選択中のタブスイッチがどちらであるかを表している。ここでは、選択されていない方のタブスイッチであるタブスイッチTab2をハッチングして表している。
 また、ドライバによる操作に基づいて、リスト表示部F81が最初に表示物リスト画像として表示する画面には、有用フラグがオンとなっている表示物のデータ群の表示物リストを表示することとする。
 以上で述べた第三変形例の構成によれば、ドライバが見落とした可能性が高い表示物を優先して表示するとともに、ドライバにとって有用である表示物の情報と、既に有用ではなくなった表示物の情報とを区別して表示することができる。また、ホスト車両の位置に応じて有用な情報であるか否かを判定し、有用ではない表示物の情報よりも、有用である表示物の情報を優先して表示するため、ホスト車両の位置に応じた情報を優先してドライバに提供することができる。
 さらに、図10のような表示態様を採用すれば、例えば方面看板が案内する交差点を通り過ぎた後に、ドライバがもう一度、ホスト車両が走行している道路の向かう方面を確認したい時に、非有用表示物リストを表示させることで、既に通過した交差点を案内する方面看板の内容を確認する事ができる。
 なお、有用表示物リストにおいては、見落とし度が高い表示物ほどリストの上位に配置して表示する構成とするが、非有用表示物リストについては、検出時刻が新しい順に並べて表示してもよい。これによって、既に通過した表示物の情報を、有用ではなくなった後に確認する際にその情報を見つけやすくすることができる。
 (第四変形例)
 また、保存部F7は、表示物データリストが備える表示物データを、有用フラグがオンであるか否かに応じて保存部F7は、表示物データリストが備える表示物データを整理してもよい。すなわち、有用フラグがオフとなっている表示物データを表示物データリストから削除してもよい。これによって、表示物リスト画像に表示される表示物の数を抑制し、ドライバにとって必要な情報を見つけやすくすることができる。
 (その他の変形例)
 以上では、表示物情報として、表示物画像を表示する構成としたがこれに限らない。表示物種別に応じたアイコン画像をメモリ9に保存しておき、表示物の内容を表す画像として、その表示物に対応するアイコン画像を表示してもよい。また、表示物情報は、表示物の内容を表すテキストで表示してもよい。
 実施形態では、運転負荷レベルを決定するタイミングを、その表示物の設置地点を通過したタイミングとしたが、これに限らない。表示物を検出してから、ホスト車両と設置地点との距離が消失距離となったタイミングで運転負荷レベルを決定してよい。ここでの消失距離とは、その表示物に接近することによって、ホスト車両正面方向に顔を向けている状態のドライバにとってその表示物が見えなくなってしまう距離を指す。消失距離は、その表示物の路面からの高さに基づいて算出してもよいし、一定距離(例えば10m)などとしてもよい。
 さらに、図7のS32において、見落とし度が所定の閾値以上と判定した表示物のデータについては、通信装置10を介して情報収集サーバに送信してもよい。見落とし度が所定の閾値以上となる地点の情報、及びその表示物のデータを収集してデータベース化することで、ドライバが表示物を見落としやすい地点やその表示物を特定することができる。そして、ドライバによって見落とされやすい表示物に対しては、見落とされにくいように設置位置を変更するなどの対策を講じることができるようになる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (12)

  1.  車両の前方を撮影する前方撮影装置(2)が撮影した画像データから、予め検出対象として設定されている表示物を検出する表示物検出部(F3)と、
     前記表示物検出部が検出した前記表示物に対して、前記車両のドライバがその表示物を見落としている可能性である見落とし可能性を評価する見落とし評価部(F6)と、
     前記表示物検出部が検出した前記表示物が表す情報である表示物情報と、その表示物に対して前記見落とし評価部が評価した前記見落とし可能性と、を含む前記表示物毎のデータである表示物データをメモリ(9)に保存する保存部(F7)と、
     前記メモリに保存されている前記表示物毎の前記表示物データに基づいて、前記表示物の表示物情報を、表示器(7)に表示する描画部(F8)と、を備え、
     前記描画部は、前記メモリに保存されている前記表示物データに対応する前記表示物のうち、前記見落とし可能性が高い前記表示物の前記表示物情報を優先して前記表示器に表示する
     表示物情報表示装置。
  2.  請求項1において、
     ドライバによる操作を受け付ける操作受付部(F2)を備え、
     前記描画部は、
     前記操作受付部が所定の操作を受け付けた場合に、前記表示物検出部が検出した前記表示物の一覧である表示物リストを当該表示物リストの上位から順に表示するリスト表示部(F81)を備え、
     前記リスト表示部は、前記見落とし可能性が高い前記表示物ほど当該表示物リストの上位に配置して表示する
     表示物情報表示装置。
  3.  請求項2において、
     前記リスト表示部は、前記見落とし可能性が、予め設定される、ドライバがその表示物を視認したと判定するための視認閾値以下となっている前記表示物については、当該表示物リストに表示しない
     表示物情報表示装置。
  4.  請求項2又は3において、
     前記メモリに保存されている前記表示物データに対応する前記表示物毎に、その表示物の表示物情報がドライバにとって有用な情報であるか否かを判定する有用判定部(F10)を備え、
     前記リスト表示部は、前記有用判定部によって前記ドライバにとって有用な情報であると判定されてあって、かつ、前記見落とし可能性が高い前記表示物を優先して前記表示物リストの上位に配置して表示する
     表示物情報表示装置。
  5.  請求項4において、
     前記車両の現在位置を取得する位置取得部(F1)を備え、
     前記表示物検出部は、前記前方撮影装置が撮影した画像データに基づいて前記表示物の種別、及びその表示物の前記車両に対する相対位置を特定し、
     前記保存部は、前記表示物検出部が検出した前記表示物毎に、その表示物の前記車両に対する相対位置と、前記表示物検出部がその表示物を検出した時点における前記車両の現在位置と、から当該表示物の設置地点を算出し、
     前記表示物毎の前記表示物データは、その表示物データに対応する前記表示物の前記表示物情報及び前記見落とし可能性に加えて、前記保存部が算出したその表示物の設置地点、及び前記表示物検出部が特定したその表示物の種別を含んでおり、
     前記有用判定部は、前記メモリに保存されている前記表示物データに対応する前記表示物毎に、その種別と設置地点とに基づいて、その表示物の有効範囲を決定し、前記位置取得部が取得した前記車両の現在位置がその有効範囲内に存在する場合には、その表示物の前記表示物情報はドライバにとって有用な情報であると判定し、一方、前記位置取得部が取得した前記車両の現在位置がその有効範囲内に存在しない場合には、その表示物の前記表示物情報はドライバにとって有用な情報ではないと判定する
     表示物情報表示装置。
  6.  請求項1から5の何れか1項において、
     前記描画部は、前記見落とし可能性が予め設定されている自動表示用閾値以上と評価された前記表示物の前記表示物情報を、自動的に前記表示器に表示する自動表示部(F82)を備える
     表示物情報表示装置。
  7.  請求項6において、
     前記ドライバの運転負荷の度合いである運転負荷レベルを判定する運転負荷判定部(F4)を備え、
     前記自動表示部は、前記運転負荷判定部が判定している前記運転負荷レベルが予め設定されている低負荷判定閾値以下となったことに基づいて、前記見落とし可能性が予め設定されている自動表示用閾値以上となっている前記表示物の前記表示物情報を、前記表示器に表示する
     表示物情報表示装置。
  8.  請求項7において、
     前記運転負荷判定部は、前記車両の走行状態を表すパラメータを検出する少なくとも1つのセンサから出力されるセンサ値と、そのセンサ値から前記運転負荷レベルを判定するために予め設定されている閾値と、を比較することによって前記運転負荷レベルを判定する
     表示物情報表示装置。
  9.  請求項7又は8において、
     前記見落とし評価部は、
     前記運転負荷判定部が判定した前記運転負荷レベルに基づいて前記見落とし可能性を評価する
     表示物情報表示装置。
  10.  請求項1から9の何れか1項において、
     ドライバの顔を含む範囲を撮影する顔部撮影装置(5)が撮影した画像データから、ドライバの視線方向を検出する視線方向検出部(F5)を備え、
     前記表示物検出部は、前記前方撮影装置が撮影した画像データに基づいて前記表示物の前記車両に対する相対位置を特定し、
     前記見落とし評価部は、前記視線方向と前記表示物検出部が特定した前記表示物の相対位置に基づいて、前記見落とし可能性を評価する
     表示物情報表示装置。
  11.  請求項2から10の何れか1項において、
     前記メモリは、リスト構造によって前記表示物データを備える表示物データリストを記憶しており、
     前記保存部は、前記表示物検出部が前記表示物を検出すると、その表示物の前記表示物データを、前記メモリが記憶している前記表示物データリストに追加し、
     前記リスト表示部は、前記表示物データリストが備える前記表示物データに基づいて前記表示物リストの画像を生成して表示する
     表示物情報表示装置。
  12.  請求項11において、
     前記表示物データリストは、前記表示物データをその表示物データが備える前記見落とし可能性が高い順にソートして備える
     表示物情報表示装置。
PCT/JP2015/001159 2014-03-06 2015-03-05 表示物情報表示装置 WO2015133141A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/121,284 US10147009B2 (en) 2014-03-06 2015-03-05 Display-object information displaying apparatus
DE112015001128.5T DE112015001128T5 (de) 2014-03-06 2015-03-05 Anzeigeobjektinformationsanzeigevorrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-044247 2014-03-06
JP2014044247A JP6323074B2 (ja) 2014-03-06 2014-03-06 表示物情報表示装置

Publications (1)

Publication Number Publication Date
WO2015133141A1 true WO2015133141A1 (ja) 2015-09-11

Family

ID=54054955

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/001159 WO2015133141A1 (ja) 2014-03-06 2015-03-05 表示物情報表示装置

Country Status (4)

Country Link
US (1) US10147009B2 (ja)
JP (1) JP6323074B2 (ja)
DE (1) DE112015001128T5 (ja)
WO (1) WO2015133141A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107067774A (zh) * 2015-11-26 2017-08-18 马自达汽车株式会社 标识识别系统
CN108460865A (zh) * 2016-06-24 2018-08-28 通用汽车环球科技运作有限责任公司 驾驶员标识符的动态分配和基于驾驶员标识符的检测进行的车辆设置的相关调整

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3002756B1 (en) 2014-10-03 2020-07-01 Volvo Car Corporation Method and system for providing personalized position-based infotainment
EP3091761B1 (en) * 2015-05-07 2018-07-11 Volvo Car Corporation Method and system for providing driving situation based infotainment
JP6187534B2 (ja) * 2015-05-11 2017-08-30 トヨタ自動車株式会社 車両の規制速度表示装置
JP6418139B2 (ja) * 2015-11-26 2018-11-07 マツダ株式会社 標識認識システム
US10140770B2 (en) * 2016-03-24 2018-11-27 Toyota Jidosha Kabushiki Kaisha Three dimensional heads-up display unit including visual context for voice commands
JP7214329B2 (ja) * 2016-08-09 2023-01-30 日立Astemo株式会社 表示内容認識装置、および車両制御装置
US10421400B2 (en) * 2017-02-09 2019-09-24 Komatsu Ltd. Surroundings monitoring system for work vehicle, work vehicle, and surroundings monitoring method for work vehicle
JP6401821B1 (ja) * 2017-05-23 2018-10-10 カルソニックカンセイ株式会社 運転負荷推定装置
JP6888474B2 (ja) * 2017-08-10 2021-06-16 トヨタ自動車株式会社 デジタルサイネージ制御装置、デジタルサイネージ制御方法、プログラム、記録媒体
US11318961B2 (en) * 2018-07-20 2022-05-03 Lg Electronics Inc. Robot for vehicle and control method thereof
JP7384130B2 (ja) 2020-08-31 2023-11-21 トヨタ自動車株式会社 車両の運転支援装置、車両の運転支援方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251287A (ja) * 1993-02-23 1994-09-09 Mitsubishi Electric Corp 運転支援システム
WO2007069489A1 (ja) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. 安全走行支援装置
JP2009110394A (ja) * 2007-10-31 2009-05-21 Equos Research Co Ltd 道路標識表示装置
JP2013200837A (ja) * 2012-03-26 2013-10-03 Fujitsu Ltd 注視対象物推定装置、方法、及びプログラム
JP2014016883A (ja) * 2012-07-10 2014-01-30 Toyota Infotechnology Center Co Ltd 危険個所報知システムおよび危険個所報知方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329464A (ja) * 2002-05-10 2003-11-19 Matsushita Electric Ind Co Ltd 走行情報記録再生装置およびその方法
US6859144B2 (en) * 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
JP2007078632A (ja) 2005-09-16 2007-03-29 Denso Corp 車載用ナビゲーション装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251287A (ja) * 1993-02-23 1994-09-09 Mitsubishi Electric Corp 運転支援システム
WO2007069489A1 (ja) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. 安全走行支援装置
JP2009110394A (ja) * 2007-10-31 2009-05-21 Equos Research Co Ltd 道路標識表示装置
JP2013200837A (ja) * 2012-03-26 2013-10-03 Fujitsu Ltd 注視対象物推定装置、方法、及びプログラム
JP2014016883A (ja) * 2012-07-10 2014-01-30 Toyota Infotechnology Center Co Ltd 危険個所報知システムおよび危険個所報知方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107067774A (zh) * 2015-11-26 2017-08-18 马自达汽车株式会社 标识识别系统
CN108460865A (zh) * 2016-06-24 2018-08-28 通用汽车环球科技运作有限责任公司 驾驶员标识符的动态分配和基于驾驶员标识符的检测进行的车辆设置的相关调整

Also Published As

Publication number Publication date
JP2015170113A (ja) 2015-09-28
DE112015001128T5 (de) 2016-11-24
JP6323074B2 (ja) 2018-05-16
US20170017851A1 (en) 2017-01-19
US10147009B2 (en) 2018-12-04

Similar Documents

Publication Publication Date Title
JP6323074B2 (ja) 表示物情報表示装置
KR102489401B1 (ko) 교통표지판 인식장치 및 그의 제한속도 제공방법
US10071745B2 (en) Automated drive assisting system, automated drive assisting method, and computer program
US10315664B2 (en) Automatic driving assistance system, automatic driving assistance method, and computer program
WO2016152873A1 (ja) 自動運転支援装置、制御方法、プログラム及び記憶媒体
US20180090002A1 (en) Display control apparatus, display device, and display control method
JPWO2008038370A1 (ja) 交通情報検出装置、交通情報検出方法、交通情報検出プログラムおよび記録媒体
JP2014181927A (ja) 情報提供装置、及び情報提供プログラム
JP2012168114A (ja) 案内装置、案内方法、および、案内プログラム
US11493357B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
US8924153B2 (en) Navigation device, navigation method, and navigation program
JP2006209455A (ja) 車両用運転診断装置、車両用運転診断システム、及び車両用運転診断方法
CN112313137B (zh) 行驶信息处理装置和处理方法
JP2012043271A (ja) 交差点情報取得装置、交差点情報取得方法及びコンピュータプログラム
JP5203747B2 (ja) ナビゲーション装置
JP4692898B2 (ja) 車両用案内装置
JP2008090654A (ja) 運転操作支援装置
JP2011232271A (ja) ナビゲーション装置、車載センサの精度推定方法、および、プログラム
JP2008090683A (ja) 車載用ナビゲーション装置
JP4798549B2 (ja) 車載用ナビゲーション装置
JP2011002893A (ja) 運転支援装置及びプログラム
JP6939147B2 (ja) 走行情報案内装置及びコンピュータプログラム
JP2012032366A (ja) カーナビゲーションシステム
CN114383623A (zh) 导航装置
JP2017036994A (ja) 情報提供装置、情報提供方法および情報提供システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15758420

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15121284

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112015001128

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15758420

Country of ref document: EP

Kind code of ref document: A1