WO2017145928A1 - 検知装置および路面情報システム、並びに車両 - Google Patents

検知装置および路面情報システム、並びに車両 Download PDF

Info

Publication number
WO2017145928A1
WO2017145928A1 PCT/JP2017/005856 JP2017005856W WO2017145928A1 WO 2017145928 A1 WO2017145928 A1 WO 2017145928A1 JP 2017005856 W JP2017005856 W JP 2017005856W WO 2017145928 A1 WO2017145928 A1 WO 2017145928A1
Authority
WO
WIPO (PCT)
Prior art keywords
road surface
unit
detection
image data
vehicle
Prior art date
Application number
PCT/JP2017/005856
Other languages
English (en)
French (fr)
Inventor
勝 重野
Original Assignee
株式会社村田製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社村田製作所 filed Critical 株式会社村田製作所
Priority to JP2018501631A priority Critical patent/JP6369654B2/ja
Publication of WO2017145928A1 publication Critical patent/WO2017145928A1/ja
Priority to US16/111,887 priority patent/US20180362048A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/064Degree of grip
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/068Road friction coefficient
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/11Pitch movement
    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01CCONSTRUCTION OF, OR SURFACES FOR, ROADS, SPORTS GROUNDS, OR THE LIKE; MACHINES OR AUXILIARY TOOLS FOR CONSTRUCTION OR REPAIR
    • E01C23/00Auxiliary devices or arrangements for constructing, repairing, reconditioning, or taking-up road or like surfaces
    • E01C23/01Devices or auxiliary means for setting-out or checking the configuration of new surfacing, e.g. templates, screed or reference line supports; Applications of apparatus for measuring, indicating, or recording the surface configuration of existing surfacing, e.g. profilographs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3822Road feature data, e.g. slope data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/55External transmission of data to or from the vehicle using telemetry

Definitions

  • the present invention relates to a detection device that detects a road surface defect, a road surface information system including the detection device, and a vehicle.
  • the first method is a method using a high-performance inspection vehicle such as measuring unevenness of a road surface by an optical system or a laser.
  • the second method is a method of estimating an abnormal portion of a road by monitoring vibrations of a running vehicle by computer analysis and detecting a singular point of vibration (see, for example, Patent Document 1).
  • Patent Document 1 discloses a road surface evaluation method for monitoring the pitching angular velocity of a vehicle acquired by an angular velocity sensor in synchronization with GPS information acquired by GPS.
  • the acceleration response of QC is estimated using the obtained pitching angular velocity of the vehicle and the transfer function, and the international roughness index (IRI) is calculated using the estimated acceleration response of QC and the correlation function. ).
  • a road surface defect (abnormality) can be accurately and quantitatively measured using a high-performance inspection vehicle.
  • high-performance inspection vehicles are expensive and time is also spent on data analysis.
  • the abnormal location of a road is indirectly estimated from the vibration of a vehicle by performing the calculation process based on a special algorithm.
  • a high-level processor is required to perform calculation processing based on a special algorithm, and a processing load and data amount for data analysis are consumed.
  • An object of the present invention is to provide a detection device and a road surface information system that can efficiently collect road surface information in a road surface information system that accumulates road surface information indicating a road surface defect.
  • the detection device is a detection device mounted on a moving body that moves on a road surface.
  • the detection device includes a detection unit, an imaging unit, and a control unit.
  • a detection part detects the impact in a moving body.
  • An imaging part images the back road surface in the moving direction of a moving body.
  • the control unit controls the operation of the imaging unit. Based on the detection result of the detection unit, the control unit causes the imaging unit to image the road surface on which the moving body has passed when an impact on the moving body is detected.
  • a road surface information system includes a detection device and a server device.
  • the server device manages image data captured by the imaging unit of the detection device in association with position information indicating a position where the image data is captured.
  • the detection device and the road surface information system image the road surface on which the moving body has passed when an impact is detected on the moving body moving on the road surface with the imaging unit. Thereby, in the road surface information system which accumulate
  • FIG. 1 is a block diagram illustrating a configuration of a smart camera according to a first embodiment.
  • 1 is a block diagram illustrating a configuration of a mobile terminal according to a first embodiment.
  • the block diagram which shows the structure of the server apparatus of a road surface information system.
  • the figure for demonstrating road surface information DB in a road surface information system The figure which shows the example of a display of the road surface information in a road surface information system Sequence diagram showing the operation of the road surface information system according to the first embodiment.
  • FIG. 1 shows the example of a display of the picked-up image of a smart camera
  • FIG. 2 shows the structure of the road surface information system which concerns on Embodiment 2.
  • Block diagram showing a configuration of a smart camera according to a second embodiment 6 is a flowchart showing the operation of the smart camera according to the second embodiment.
  • the road surface information system collects road surface information indicating defects (road surface abnormalities) such as road surface depressions, cracks, wrinkles, etc. in a cloud server managed by an automatic driving or M2M service provider, for example. System. Based on the road surface information collected in this system, the cloud server notifies, for example, a road maintenance company of an abnormal location with a road surface defect or warns a vehicle approaching the abnormal location.
  • road surface information system users are recruited by, for example, a point billing system, and road surface information is widely collected from general vehicles and uploaded to a cloud server as needed.
  • a point billing system for example, a point billing system
  • road surface information is widely collected from general vehicles and uploaded to a cloud server as needed.
  • the coverage of information collection for a large amount of road infrastructure spread throughout the country can be expanded, and road surface information can be collected efficiently.
  • the configuration of this system will be described below.
  • FIG. 1 is a diagram illustrating a configuration of a road surface information system according to the first embodiment.
  • the traveling direction of the vehicle 2 is defined as the Y direction
  • the height direction of the vehicle 2 is defined as the Z direction
  • the width direction of the vehicle 2 orthogonal to the Y direction and the Z direction is defined as the X direction.
  • the road surface information system according to the present embodiment includes a server device 10, a smart camera 3 mounted on a vehicle 2, and a mobile terminal 4, as shown in FIG.
  • the vehicle 2 is a passenger car, for example, and is an example of a moving body in the road surface information system according to the present embodiment.
  • the smart camera 3 is an imaging device that is attached to the vehicle 2 in order to detect an unevenness (pothole) 61 of the road surface 6 from the vehicle 2 and acquire a captured image. For example, the smart camera 3 transmits image data indicating a captured image of the unevenness 61 of the road surface 6 to the mobile terminal 4.
  • the smart camera 3 is an example of a detection device that detects the unevenness 61 of the road surface 6 in the present embodiment.
  • the smart camera 3 is attached to, for example, a rear bumper or a rear gate of the vehicle 2 so that the road surface 6 behind the vehicle 2 can be imaged in the traveling direction Y of the vehicle 2.
  • the smart camera 3 may have a function as a rear camera for the driver to check the field of view behind the vehicle 2 or may be a dedicated device of the present system. By using the smart camera 3 that functions as a rear camera, a general user can easily use the system. Details of the configuration of the smart camera 3 will be described later.
  • the mobile terminal 4 is an information terminal owned by the driver of the vehicle 2, for example.
  • the mobile terminal 4 is a smartphone, a tablet terminal, a mobile phone, or the like.
  • the mobile terminal 4 performs information communication with the smart camera 3 in the vehicle 2 and is connected to the server apparatus 10 via the network 5 such as the Internet.
  • the mobile terminal 4 is an example of an information device that realizes a gateway function between the smart camera 3 and the server device 10 in the present system. Details of the configuration of the mobile terminal 4 will be described later.
  • the server device 10 is an information processing device that is appropriately accessed in cloud computing using a cloud server, for example.
  • the server device 10 analyzes and manages road surface information collected in the present system as, for example, big data.
  • parallel processing may be performed using a large number of server devices 10 as appropriate.
  • the server device 10 may be composed of a PC (personal computer). Details of the configuration of the server device 10 will be described later.
  • FIG. 2 is a block diagram illustrating a configuration of the smart camera 3 according to the present embodiment.
  • the smart camera 3 includes an imaging unit 31, a shock sensor 32, a communication unit 33, a storage unit 34, and a control unit 35.
  • the imaging unit 31 includes an imaging element such as a CCD image sensor or a CMOS image sensor, and a wide-angle lens having an angle of view of 100 degrees or more, for example.
  • the imaging part 31 may be comprised with the fisheye camera (omnidirectional camera) provided with a fisheye lens. Thereby, the imaging range of a wide viewing angle can be ensured, and the imaging omission of the unevenness
  • the shock sensor 32 is composed of, for example, a piezoelectric acceleration sensor including a piezoelectric element.
  • the shock sensor 32 generates a sensor signal based on the electric charge generated from the piezoelectric element according to the acceleration in a predetermined direction (for example, the Z direction in FIG. 1), and applies a shock (impact) in the predetermined direction based on the fluctuation of the signal level of the sensor signal.
  • a predetermined direction for example, the Z direction in FIG. 1
  • the signal level of the sensor signal varies depending on the impact and vibration applied to the smart camera 3.
  • the generated sensor signal is input to the control unit 35.
  • the impact detected by the shock sensor 32 is a rapid change in force such as vertical drag transmitted from the road surface 6 to the vehicle 2.
  • an impact is detected based on the fact that the acceleration in the Z direction in the vehicle 2 has changed by a predetermined value or more from the gravitational acceleration.
  • the shock sensor 32 is not limited to an acceleration in a predetermined direction, and may be configured to detect each acceleration in a biaxial or triaxial direction.
  • the shock sensor 32 is an example of a detection unit that detects an impact in the smart camera 3 according to the present embodiment.
  • the communication unit 33 is a communication module that performs wireless communication in accordance with, for example, the communication standard of Bluetooth (registered trademark).
  • the communication unit 33 performs communication connection between the smart camera 3 and the mobile terminal 4, and transmits image data of an image captured by the imaging unit 31 to the mobile terminal 4, for example.
  • the communication unit 33 is not limited to Bluetooth (registered trademark), and may use a communication method such as Wi-Fi or NFC (Near Field Communication).
  • the storage unit 34 is a storage medium that stores programs and data necessary for realizing the functions of the smart camera 3, and includes a flash memory, for example.
  • the storage unit 34 records, for example, image data of a captured image.
  • the control unit 35 is composed of, for example, a CPU that realizes a predetermined function in cooperation with software.
  • the control unit 35 controls the overall operation of the smart camera 3.
  • the control unit 35 reads out data and programs stored in the storage unit 34 and performs various arithmetic processes to realize various functions.
  • control unit 35 outputs a trigger signal indicating the start timing of the imaging operation, and controls the imaging operation of the imaging unit 31. For example, the control unit 35 compares the signal level of the sensor signal from the shock sensor 32 with a predetermined threshold value, or analyzes the signal waveform of the sensor signal. The control unit 35 determines whether or not the shock sensor 32 has detected a shock due to the unevenness 61 of the road surface 6 based on the state of the sensor signal such as the signal level and the signal waveform.
  • the control unit 35 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to realize a predetermined function.
  • the control unit 35 may be configured by various semiconductor integrated circuits such as a CPU, MPU, microcomputer, DSP, FPGA, ASIC and the like.
  • FIG. 3 is a block diagram showing a configuration of the mobile terminal 4 according to the present embodiment.
  • the mobile terminal 4 includes a terminal control unit 40, a terminal storage unit 41, a communication interface 42, a GPS positioning unit 43, a display unit 44, and a user interface 45 (hereinafter “ Interface ”is abbreviated as“ I / F ”).
  • the terminal control unit 40 is composed of, for example, a CPU that realizes a predetermined function in cooperation with software.
  • the terminal control unit 40 controls the overall operation of the mobile terminal 4.
  • the terminal control unit 40 reads out data and programs stored in the terminal storage unit 41 and performs various arithmetic processes to realize various functions.
  • the terminal control unit 40 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to realize a predetermined function.
  • the terminal control unit 40 may be configured by various semiconductor integrated circuits such as a CPU, MPU, microcomputer, DSP, FPGA, ASIC and the like.
  • the terminal storage unit 41 is a storage medium that stores programs and data necessary for realizing the functions of the mobile terminal 4, and includes, for example, a flash memory.
  • the terminal storage unit 41 may include a semiconductor device such as a DRAM and an SRAM, and may temporarily store data or function as a work area for the terminal control unit 40.
  • the terminal storage unit 41 stores image data received from the smart camera 3 via the communication I / F 42.
  • the communication I / F 42 is a communication module that supports short-range wireless communication such as Bluetooth (registered trademark) and network communication in accordance with a predetermined communication standard.
  • the predetermined communication standard includes communication standards such as IEEE802.3, IEEE802.11a / 11b / 11g / 11ac.
  • the communication I / F 42 performs wireless communication with the smart camera 3 by short-range wireless communication.
  • the communication I / F 42 is connected to the network 5 and performs data communication with the server device 1.
  • the GPS positioning unit 43 is a module that receives radio waves (GPS information) from GPS satellites and measures the latitude, longitude, and altitude of the received point.
  • the GPS positioning unit 43 is an example of a position information acquisition unit that acquires position information indicating the position of the vehicle 2 such as a measured latitude.
  • the display unit 44 is configured by a liquid crystal display or an organic EL display, for example.
  • the display unit 44 displays various information such as information input from the user I / F 45.
  • the user I / F 45 is an operation member that is operated by the user of the mobile terminal 4.
  • the user I / F 45 includes, for example, a touch panel, a touch pad, a keyboard, buttons, switches, and combinations thereof.
  • the user I / F 45 is an example of an acquisition unit that acquires various information input by the user.
  • FIG. 10 is a block diagram which shows the structure of the server apparatus 10 of the road surface information system which concerns on this embodiment.
  • the server device 10 includes a server control unit 11, a network I / F 12, a device I / F 13, and a server storage unit 14.
  • the server control unit 11 is composed of, for example, a CPU that realizes a predetermined function in cooperation with software.
  • the server control unit 11 controls the overall operation of the server device 10.
  • the server control unit 11 reads out data and programs stored in the server storage unit 14 and performs various arithmetic processes to realize various functions. For example, the server control unit 11 performs data analysis, image analysis, or the like based on machine learning or the like on the collected data.
  • the server control unit 11 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to realize a predetermined function.
  • the server control unit 11 may be composed of various semiconductor integrated circuits such as a CPU, MPU, microcomputer, DSP, FPGA, ASIC and the like.
  • the network I / F 12 is a circuit (module) for connecting the server device 10 to the network 5 via a wireless or wired communication line.
  • the network I / F 12 performs communication based on a predetermined communication standard.
  • the predetermined communication standard includes communication standards such as IEEE802.3, IEEE802.11a / 11b / 11g / 11ac.
  • the device I / F 13 is a circuit (module) for connecting other devices to the server device 10.
  • the device I / F 13 performs communication according to a predetermined communication standard.
  • the predetermined standard includes USB, HDMI (registered trademark), IEEE 1395, Wi-Fi, Bluetooth (registered trademark), and the like.
  • the server storage unit 14 is a storage medium that stores programs and data necessary for realizing the functions of the server device 10, and includes, for example, a hard disk (HDD) and a semiconductor storage device (SSD).
  • the server storage unit 14 may include a semiconductor device such as a DRAM and an SRAM, and may temporarily store data or function as a work area for the server control unit 11.
  • the server storage unit 14 may be configured as a storage device separate from the server device 10.
  • FIG. 5 is a diagram for explaining the road surface information DB in the road surface information system.
  • FIG. 6 is a diagram illustrating a display example of road surface information in the road surface information system.
  • the server storage unit 14 stores, for example, a map DB 141 and a road surface information DB 142.
  • the map DB 141 is a database that manages map data indicating maps related to various areas (see FIG. 6).
  • the road surface information DB 142 is a database that manages road surface information indicating the state and position of road surface defects.
  • the road surface information DB 142 manages “image data”, “latitude”, and “longitude” in association with each other.
  • D1, D2, and D3 indicate image data obtained by imaging road surface defects, respectively.
  • latitude La1 and longitude Lo1, latitude La2 and longitude Lo2, latitude La3 and longitude Lo3 constituting position information are associated with the image data D1, D2 and D3, respectively.
  • the image data D1, D2, D3 and the position information associated with each of them constitute road surface information.
  • Each image data D1, D2, D3 may be imaged by one smart camera 3, or may be separately imaged by a plurality of smart cameras 3.
  • the server device 10 maps and displays the road surface information managed in the road surface information DB 142 on the map data Dm managed in the map DB 141 based on the map DB 141 and the road surface information DB 142.
  • the road surface information can be displayed on an external display device via the device I / F 13 or can be displayed on an external browsing terminal via the network I / F 12, for example.
  • the map data Dm includes detailed information on roads such as lanes.
  • the icons P1, P2, and P3 are icons based on position information associated with the image data D1, D2, and D3 of the road surface information DB 142, respectively.
  • the server control unit 11 reads the road surface information DB 142 and displays (plots) the icon P1 at the positions of the latitude La1 and the longitude Lo1 on the map data Dm based on, for example, the position information associated with the image data D1 in the road surface information DB142.
  • the image data D1 is displayed by selecting the icon P1 by a user operation. Persons involved in the road maintenance business such as road inspection contractors can accurately recognize abnormal road locations from the icons P1, P2 and P3 on the map by checking the road surface information as shown in Fig. 6 on the viewing terminal. Work can be performed.
  • the road surface information DB 142 of the present system stores image data D2 obtained by directly imaging the road surface unevenness 62, so that the user of the present system can detect a road surface defect based on visual information. Can be accurately grasped.
  • a processing load is applied even when the road surface defect is not reflected in the image data. Inefficient in view.
  • the smart camera 3 uses the shock sensor 32 to detect the unevenness 61 of the road surface 6 through which the vehicle 2 is passing (see FIG. 8A), and the vehicle 2 images the unevenness 61 after the passage. (See FIG. 8B). Thereby, the image data in which the defect (unevenness
  • FIG. 7 is a sequence diagram illustrating the operation of the road surface information system according to the first embodiment.
  • FIG. 8 is a diagram for explaining the operation of the smart camera 3.
  • FIG. 9 is a diagram illustrating a display example of a captured image of the smart camera 3.
  • the control unit 35 (FIG. 2) of the smart camera 3 determines whether or not the shock sensor 32 has detected a shock based on the sensor signal from the shock sensor 32 (S1). For example, the control unit 35 determines whether or not the signal level of the sensor signal exceeds a predetermined threshold value.
  • the predetermined threshold value is a threshold value that indicates a standard of shock caused by road surface unevenness.
  • step S1 When the control unit 35 determines that the shock sensor 32 has not detected a shock (NO in S1), the process of step S1 is repeated at a predetermined cycle (for example, 1/30 second).
  • the control unit 35 outputs a trigger signal to the imaging unit 31 to image the road surface 6 (S2).
  • the imaging unit 31 may capture a one-frame captured image at the timing indicated by the trigger signal from the control unit 35, or continuously for a predetermined period (for example, 1 second) from the timing indicated by the trigger signal.
  • a predetermined period for example, 1 second
  • a plurality of frames of captured images may be captured at a predetermined frame rate (for example, 30 fps).
  • the imaging unit 31 may capture a predetermined number (frames) of image data from the trigger signal.
  • the smart camera 3 detects a shock based on the unevenness 61 based on the sensor signal from the shock sensor 32 (YES in S1), and the vehicle 2 detects the unevenness 61 on the road surface 6 as shown in FIG.
  • the road surface 6 is imaged after passing (S2). Thereby, as shown in FIG. 9, the image data Di of the captured image in which the unevenness
  • control unit 35 transmits the image data Di captured by the imaging unit 31 to the mobile terminal 4 via the communication unit 33 (S3).
  • the terminal control unit 40 receives the image data Di from the smart camera 3 via the communication I / F 42 (S4).
  • the received image data Di is temporarily stored in the terminal storage unit 41.
  • the terminal control unit 40 When receiving the image data Di from the smart camera 3 (S4), the terminal control unit 40 acquires position information indicating the position of the mobile terminal 4, that is, the current position of the vehicle 2 from the GPS positioning unit 43 (S5).
  • the terminal control unit 40 sends the image data Di received from the smart camera 3 and the position information acquired from the GPS positioning unit 43 to the server device 10 via the communication I / F 42 and the network 5 (FIG. 1). Including road surface information is transmitted (S6).
  • the server control unit 11 receives the road surface information including the image data Di and the position information from the mobile terminal 4 via the network I / F 12 (S7).
  • the server control unit 11 updates the road surface information DB 142 by storing the road surface information received from the mobile terminal 4 in the road surface information DB 142 in the server storage unit 14 (S8), and ends this process.
  • the unevenness 61 is imaged by detecting a shock caused by the unevenness 61 on the road surface 6 while the vehicle 2 is traveling. As a result, it is possible to efficiently collect road surface information indicating a road surface defect as compared with the case where the road surface state is always imaged.
  • the mobile terminal 4 may perform image analysis on the image data Di from the smart camera 3.
  • the terminal control unit 40 receives a plurality of frames of image data from the smart camera 3 (S4), selects a frame in which the unevenness 61 of the road surface 6 appears more clearly in the image analysis, and selects the image data of the selected frame. Di may be transmitted to the server device 10 (S6). Further, the terminal control unit 40 may extract information such as lanes in the image data in the image analysis, and acquire information indicating the detailed position of the unevenness 61 on the road surface 6.
  • the image analysis as described above is not limited to the mobile terminal 4 but may be performed in the server device 10 or may be performed in the smart camera 3.
  • the smart camera 3 is a detection device mounted on the vehicle 2 moving on the road surface 6.
  • the smart camera 3 includes a shock sensor 32, an imaging unit 31, and a control unit 35.
  • the shock sensor 32 detects an impact in the vehicle 2.
  • the imaging unit 31 images a road surface behind the vehicle 2 in the movement direction Y.
  • the control unit 35 controls the operation of the imaging unit 31. Based on the detection result of the shock sensor 32, the control unit 35 causes the imaging unit 31 to image the road surface on which the vehicle 2 has passed when an impact on the vehicle 2 is detected.
  • the imaging unit 31 captures an image of the road surface on which the vehicle 2 has passed when an impact generated by the vehicle 2 passing through a defect such as the unevenness 61 of the road surface 6 is detected.
  • the detection apparatus which can collect road surface information efficiently can be provided.
  • the smart camera 3 further includes a communication unit 33 that transmits the image data Di captured by the imaging unit 31 to an external device such as the mobile terminal 4.
  • the captured image data Di can be collected outside the smart camera 3 by the communication unit 33.
  • the smart camera 3 may not include the communication unit 33.
  • the image data Di may be stored in the storage unit 34, or may be recorded on an external storage medium.
  • the imaging unit 31 of the smart camera 3 may be configured with a fisheye camera. Thereby, the imaging range of a wide viewing angle can be ensured, and the imaging omission of the unevenness
  • the road surface information system includes a smart camera 3 and a server device 10.
  • the server device 10 manages image data Di captured by the imaging unit 31 of the smart camera 3 in association with position information indicating a position where the image data Di is captured (see FIG. 5). Thereby, road surface information can be efficiently acquired from the smart camera 3.
  • the road surface information system further includes a mobile terminal 4 that acquires image data Di captured by the imaging unit 31 from the smart camera 3.
  • the mobile terminal 4 transmits the image data Di to the server device 10 together with position information indicating the position where the image data Di is captured.
  • the information device that performs information communication between the smart camera 3 and the server device 10 is not limited to the mobile terminal 4 and may be a car navigation device, for example.
  • the mobile terminal 4 is used to upload road surface information to the server device 10.
  • a road surface information system configured without using the mobile terminal 4 will be described.
  • the present embodiment will be described with reference to FIGS.
  • FIG. 10 is a diagram illustrating a configuration of a road surface information system according to the second embodiment.
  • FIG. 11 is a block diagram illustrating a configuration of the smart camera 3A according to the second embodiment.
  • the road surface information system includes a smart camera 3 ⁇ / b> A and a server device 10.
  • the smart camera 3A is directly connected to the network 5 without going through an information device such as a mobile terminal, and performs data communication with the server device 10.
  • the smart camera 3A includes a communication unit 33A that performs data communication over a network such as the Internet, instead of the communication unit 33 (see FIG. 2) in the first embodiment.
  • the smart camera 3A further includes a GPS positioning unit 36 in addition to the same configuration as the smart camera 3 according to the first embodiment (see FIG. 2).
  • the GPS positioning unit 36 includes, for example, a module similar to the GPS positioning unit 43 of the mobile terminal 4 (see FIG. 3) according to the first embodiment.
  • FIG. 12 is a flowchart showing the operation of the smart camera 3A according to the second embodiment. Each process of the flowchart shown in FIG. 12 is executed by the control unit 35 of the smart camera 3A.
  • the control unit 35 detects a shock due to road surface unevenness using the shock sensor 32 (S21), similarly to steps S1 and S2 of FIG. 7 in the first embodiment, and when a shock is detected.
  • the image pickup unit 31 is caused to pick up an image of the road surface (S22).
  • the control unit 35 acquires position information from the GPS positioning unit 36 (S23). Thereby, the positional information which shows a position when the unevenness
  • control unit 35 transmits road surface information including the image data captured by the imaging unit 31 and the position information acquired from the GPS positioning unit 36 to the server device 10 via the communication unit 33A and the network 5 ( S24), this process is terminated.
  • road surface information can be uploaded to the server device 10 without using the mobile terminal 4.
  • the smart camera 3 ⁇ / b> A further includes the GPS positioning unit 36 that acquires position information indicating the position of the vehicle 2. Based on the detection result of the shock sensor 32, the control unit 35 of the smart camera 3A acquires position information indicating the position of the vehicle 2 when an impact in the vehicle 2 is detected from the GPS positioning unit 36.
  • the position information when the impact on the vehicle 2 is detected is acquired from the GPS positioning unit 36, and the position information of the unevenness 61 of the road surface 6 can be acquired with high accuracy.
  • the smart camera 3 ⁇ / b> A including the GPS positioning unit 36 directly uploads road surface information to the server device 10.
  • the smart camera 3A may acquire the position information from the GPS positioning unit 36 at the time of imaging and upload the road surface information to the server device 10 via the mobile terminal 4 (see FIG. 1).
  • FIG. 13 is a diagram illustrating a configuration of a road surface information system according to the third embodiment.
  • the road surface information system according to the present embodiment includes a detection device 3B instead of the smart camera 3A according to the second embodiment (see FIGS. 10 and 11).
  • the detection device 3B is a device in which the same configuration as the smart camera 3A according to the second embodiment is incorporated in the vehicle 2A.
  • the imaging unit 31 of the detection device 3B is built in the vehicle 2A as a rear camera.
  • the control unit 35 is implemented as an ECU of the vehicle 2A.
  • the control unit 35 executes each process shown in the flowchart of FIG. Thereby, road surface information can be uploaded to the server apparatus 10 from the detection apparatus 3B incorporated in the vehicle 2A.
  • the shock sensor has been described as an example of the detection unit in the detection device.
  • the detection unit in the detection device is not limited to the shock sensor, and may be configured by various acceleration sensors such as a capacitance type and a piezoresistive type, or may include a gyro sensor.
  • a shock in the vehicle 2 can be detected based on a change in angular velocity (for example, in the YZ plane or the ZX plane).
  • a shock in the Z direction due to road surface unevenness is detected based on the detection result of the shock sensor.
  • the detection target of the detection unit is not limited to the unevenness of the road surface, and may be, for example, a shock caused by freezing of the road surface or a water pool.
  • a shock due to freezing of the road surface is detected, and a frozen portion of the road surface that the vehicle 2 has passed is imaged. May be.
  • the road surface information may be information regarding the road surface state according to the weather such as freezing.
  • the position information acquisition unit may be configured to include a positioning module based on a quasi-zenith satellite system, for example, in addition to or instead of the GPS positioning unit.
  • a positioning module based on the quasi-zenith satellite system By using a positioning module based on the quasi-zenith satellite system, highly accurate position information can be acquired.
  • the example in which the vehicle 2 that is an example of the moving body on which the detection device is mounted is a passenger car is described.
  • the moving body (vehicle) on which the detection device is mounted is not limited to a passenger car, and may be a commercial vehicle such as a bus, a taxi, or a truck, or may be various automobiles including a motorcycle, or a bicycle. It may be a railway vehicle or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Road Repair (AREA)
  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)

Abstract

検知装置(3)は、路面(6)を移動する移動体(2)に搭載される検知装置である。検知装置は、検知部(32)と、撮像部(31)と、制御部(35)とを備える。検知部は、移動体における衝撃を検知する。撮像部は、移動体の移動方向における後方の路面を撮像する。制御部は、撮像部の動作を制御する。制御部は、検知部の検知結果に基づき、移動体における衝撃が検知されたときに移動体が通過した路面を撮像部に撮像させる。

Description

検知装置および路面情報システム、並びに車両
 本発明は、路面の欠陥を検知する検知装置、及び検知装置を備えた路面情報システム、車両に関する。
 路面には、経年劣化により陥没、ひび割れ、凹凸などの欠陥が生じることがある。このような路面の欠陥に関して補修や警告などの迅速な対処ができるように、路面を恒常的に維持管理することが求められている。しかし、全国に敷かれた道路インフラを維持管理するためには多大なコストが必要であり、迅速な対処が難しい状況である。
 従来の路面点検の技術としては、主に二つの方法が知られている。一つ目の方法は、光学系あるいはレーザーなどにより路面の凹凸を測定するなどの高性能な検査車を用いる方法である。二つ目の方法は、コンピュータ解析で走行中の車の振動をモニタリングし、振動の特異点を検知することにより、道路の異常箇所を推測する方法である(例えば、特許文献1参照)。
 特許文献1は、角速度センサによって取得された車両のピッチング角速度をGPSによって取得されたGPS情報と同期させてモニタリングする路面評価方法を開示している。特許文献1の路面評価方法では、計測車両の角速度応答から基準となる仮想車両であるクォーターカー(以下、「QC」という)の加速度応答への伝達関数、及びQCの加速度応答と国際ラフネス指数(IRI)との相関関数を用いてデータ解析を行っている。特許文献1では、取得された車両のピッチング角速度と上記の伝達関数とを用いてQCの加速度応答を推定し、推定されたQCの加速度応答と上記の相関関数とを用いて国際ラフネス指数(IRI)を推定している。
特開2015-28456号公報
 従来の路面点検方法において、上記の一つ目の方法によると、高性能検査車を用いて精度良く定量的に路面の欠陥(異常)を計測できる。しかし、高性能検査車は高価であり、データの解析にも時間を費やしてしまう。また、上記の二つ目の方法によると、特殊なアルゴリズムに基づく計算処理を行うことで、車の振動から道路の異常箇所が間接的に推測される。この際、特殊なアルゴリズムに基づく計算処理を行うために高度なプロセッサが必要であり、データ解析の処理負荷及びデータ量を費やしてしまう。
 本発明は、路面の欠陥を示す路面情報を蓄積する路面情報システムにおいて、効率良く路面情報を収集することができる検知装置および路面情報システムを提供することを目的とする。
 本発明の一態様に係る検知装置は、路面を移動する移動体に搭載される検知装置である。検知装置は、検知部と、撮像部と、制御部とを備える。検知部は、移動体における衝撃を検知する。撮像部は、移動体の移動方向における後方の路面を撮像する。制御部は、撮像部の動作を制御する。制御部は、検知部の検知結果に基づき、移動体における衝撃が検知されたときに移動体が通過した路面を撮像部に撮像させる。
 本発明の一態様に係る路面情報システムは、検知装置と、サーバ装置とを備える。サーバ装置は、検知装置の撮像部によって撮像された画像データと、画像データが撮像された位置を示す位置情報とを関連づけて管理する。
 本発明の一態様に係る検知装置及び路面情報システムは、路面を移動中の移動体において衝撃が検知されたときに移動体が通過した路面を撮像部で撮像する。これにより、路面情報を蓄積する路面情報システムにおいて、効率良く路面情報を収集できる検知装置および路面情報システムを提供することができる。
実施形態1に係る路面情報システムの構成を示す図 実施形態1に係るスマートカメラの構成を示すブロック図 実施形態1に係るモバイル端末の構成を示すブロック図 路面情報システムのサーバ装置の構成を示すブロック図 路面情報システムにおける路面情報DBを説明するための図 路面情報システムにおける路面情報の表示例を示す図 実施形態1に係る路面情報システムの動作を示すシーケンス図 実施形態1に係るスマートカメラの動作を説明するための図 スマートカメラの撮像画像の表示例を示す図 実施形態2に係る路面情報システムの構成を示す図 実施形態2に係るスマートカメラの構成を示すブロック図 実施形態2に係るスマートカメラの動作を示すフローチャート 実施形態3係る路面情報システムの構成を示す図
 以下、添付の図面を参照して、本発明に係る検知装置、車両及び路面情報システムについて説明する。
 各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換または組み合わせが可能であることは言うまでもない。実施形態2以降では実施形態1と共通の事項についての記述を省略し、異なる点についてのみ説明する。特に、同様の構成による同様の作用効果については、実施形態毎には逐次言及しない。
(実施形態1)
1.構成
1-1.概要
 実施形態1に係る路面情報システムの概要について説明する。
 本実施形態に係る路面情報システムは、例えば自動運転やM2Mのサービスプロバイダが管理するクラウドサーバにおいて、路面の陥没、ひび割れ、轍等を含む凹凸などの欠陥(路面の異常)を示す路面情報を収集するシステムである。クラウドサーバは、本システムにおいて収集した路面情報に基づいて、例えば道路整備業者に路面の欠陥がある異常箇所を通知したり、異常箇所に近づく車両に警告したりする。
 実施形態に係る路面情報システムでは、例えばポイント課金制などによりユーザを募り、広く一般の車両から路面情報を収集して随時、クラウドサーバにアップロードする。これにより、全国に敷かれた大量の道路インフラに対する情報収集のカバレッジを広げ、効率良く路面情報を収集することができる。以下、本システムの構成について説明する。
1-2.システム構成
 図1は、実施形態1に係る路面情報システムの構成を示す図である。以下、図1に示すように、車両2の進行方向をY方向とし、車両2の高さ方向をZ方向とし、Y方向及びZ方向と直交する車両2の幅方向をX方向とする。
 本実施形態に係る路面情報システムは、図1に示すように、サーバ装置10と、車両2に搭載されたスマートカメラ3と、モバイル端末4とを備える。車両2は、例えば乗用車であり、本実施形態に係る路面情報システムにおける移動体の一例である。
 スマートカメラ3は、車両2から路面6の凹凸(ポットホール)61を検知して撮像画像を取得するために車両2に取り付けられる撮像装置である。スマートカメラ3は、例えば路面6の凹凸61の撮像画像を示す画像データをモバイル端末4に送信する。スマートカメラ3は、本実施形態において路面6の凹凸61を検知する検知装置の一例である。
 スマートカメラ3は、車両2の進行方向Yにおいて車両後方の路面6を撮像可能に、例えば車両2のリアバンパー、リアゲートなどに取り付けられる。スマートカメラ3は、運転者が車両2後方の視野を確認するためのリアカメラとしての機能を有していてもよいし、本システムの専用装置であってもよい。リアカメラとして機能するスマートカメラ3を用いることにより、一般のユーザが本システムを利用し易くすることができる。スマートカメラ3の構成の詳細については後述する。
 モバイル端末4は、例えば車両2の運転者が所有する情報端末である。例えば、モバイル端末4は、スマートフォン、タブレット端末、携帯電話などである。
 モバイル端末4は、車両2内でスマートカメラ3と情報通信を行うとともに、インターネットなどのネットワーク5を介してサーバ装置10に通信接続する。モバイル端末4は、本システムにおけるスマートカメラ3とサーバ装置10との間のゲートウェイの機能を実現する情報機器の一例である。モバイル端末4の構成の詳細については後述する。
 サーバ装置10は、例えばクラウドサーバによるクラウドコンピューティングにおいて適宜アクセスされる情報処理装置である。サーバ装置10は、本システムにおいて収集される路面情報を例えばビッグデータとして分析し、管理する。クラウドサーバでは、適宜、多数のサーバ装置10を用いて並列処理が行われてもよい。なお、サーバ装置10は、PC(パーソナルコンピュータ)で構成されてもよい。サーバ装置10の構成の詳細については後述する。
1-2-1.スマートカメラの構成
 スマートカメラ3の構成の詳細について、図2を参照して説明する。図2は、本実施形態に係るスマートカメラ3の構成を示すブロック図である。
 スマートカメラ3は、図2に示すように、撮像部31と、ショックセンサ32と、通信部33と、記憶部34と、制御部35とを備える。
 撮像部31は、例えばCCDイメージセンサ又はCMOSイメージセンサなどの撮像素子、及び例えば画角が100度以上の広角レンズを備えて構成される。また、撮像部31は、魚眼レンズを備える魚眼カメラ(全方位カメラ)で構成されてもよい。これにより、広い視野角の撮像範囲を確保でき、路面6の凹凸61の撮像漏れを低減することができる。
 ショックセンサ32は、例えば圧電素子を備える圧電型の加速度センサで構成される。ショックセンサ32は、所定方向(例えば図1のZ方向)における加速度に応じて圧電素子から生じる電荷に基づくセンサ信号を生成し、センサ信号の信号レベルの変動に基づき所定方向のショック(衝撃)を検知する。センサ信号の信号レベルは、スマートカメラ3に加わる衝撃及び振動などに応じて変動する。生成したセンサ信号は、制御部35に入力される。
 本実施形態において、ショックセンサ32の検知対象の衝撃は、路面6から車両2に伝わる垂直抗力等の力の急激な変化である。本実施形態では、車両2におけるZ方向の加速度が重力加速度から所定値以上変化したことに基づき、衝撃を検知する。ショックセンサ32は、所定の一方向における加速度に限らず、2軸又は3軸方向においてそれぞれの加速度を検知可能に構成されてもよい。ショックセンサ32は、本実施形態に係るスマートカメラ3における衝撃を検知する検知部の一例である。
 通信部33は、例えばBluetooth(登録商標)の通信規格に従い無線通信を行う通信モジュールである。通信部33は、スマートカメラ3とモバイル端末4との間の通信接続を行い、例えば撮像部31による撮像画像の画像データをモバイル端末4に送信する。通信部33は、Bluetooth(登録商標)に限らず、Wi-Fi或いはNFC(近距離無線通信)等の通信方式を利用してもよい。
 記憶部34は、スマートカメラ3の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体であり、例えばフラッシュメモリを備える。記憶部34は、例えば撮像画像の画像データなどを記録する。
 制御部35は、例えばソフトウェアと協働して所定の機能を実現するCPUで構成される。制御部35は、スマートカメラ3の全体動作を制御する。制御部35は、記憶部34に格納されたデータ及びプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。
 例えば、制御部35は、撮像動作の開始タイミングを示すトリガ信号を出力して、撮像部31の撮像動作を制御する。また、制御部35は、例えばショックセンサ32からのセンサ信号の信号レベルと所定のしきい値とを比較したり、センサ信号の信号波形を解析したりする。制御部35は、信号レベル及び信号波形などのセンサ信号の状態に基づき、ショックセンサ32が路面6の凹凸61に起因するショックを検知したか否かを判断する。
 制御部35は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよい。制御部35は、CPU,MPU,マイコン、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。
1-2-2.モバイル端末の構成
 モバイル端末4の構成の詳細について、図3を参照して説明する。図3は、本実施形態に係るモバイル端末4の構成を示すブロック図である。
 モバイル端末4は、図3に示すように、端末制御部40と、端末記憶部41と、通信インタフェース42と、GPS測位部43と、表示部44と、ユーザインタフェース45とを備える(以下、「インタフェース」を「I/F」と略記する)。
 端末制御部40は、例えばソフトウェアと協働して所定の機能を実現するCPUで構成される。端末制御部40は、モバイル端末4の全体動作を制御する。端末制御部40は、端末記憶部41に格納されたデータ及びプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。端末制御部40は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよい。端末制御部40は、CPU,MPU,マイコン、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。
 端末記憶部41は、モバイル端末4の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体であり、例えばフラッシュメモリを備える。また、端末記憶部41は、DRAM及びSRAM等の半導体デバイスを備えてもよく、データを一時的に記憶したり、端末制御部40の作業エリアとして機能したりしてもよい。例えば、端末記憶部41は、スマートカメラ3から通信I/F42を介して受信した画像データを記憶する。
 通信I/F42は、Bluetooth(登録商標)などの近距離無線通信、及び所定の通信規格に従うネットワーク通信をサポートする通信モジュールである。所定の通信規格には、IEEE802.3,IEEE802.11a/11b/11g/11ac等の通信規格が含まれる。通信I/F42は、近距離無線通信によってスマートカメラ3と無線通信を行う。また、通信I/F42は、ネットワーク5に接続してサーバ装置1とデータ通信を行う。
 GPS測位部43は、GPS衛星から電波(GPS情報)を受信して、受信した地点の緯度、経度及び高度を測位するモジュールである。GPS測位部43は、測位した緯度等、車両2の位置を示す位置情報を取得する位置情報取得部の一例である。
 表示部44は、例えば液晶ディスプレイ又は有機ELディスプレイで構成される。表示部44は、ユーザI/F45から入力された情報など、種々の情報を表示する。
 ユーザI/F45は、モバイル端末4のユーザが操作を行う操作部材である。ユーザI/F45は、例えば、タッチパネル、タッチパッド、キーボード、ボタン、スイッチ、及びこれらの組み合わせで構成される。ユーザI/F45は、ユーザによって入力される諸情報を取得する取得部の一例である。
1-2-3.サーバ装置の構成
 サーバ装置10の構成の詳細について、図4を参照して説明する。本実施形態に係る路面情報システムのサーバ装置10の構成を示すブロック図である。
 サーバ装置10は、図4に示すように、サーバ制御部11と、ネットワークI/F12と、機器I/F13と、サーバ記憶部14とを備える。
 サーバ制御部11は、例えばソフトウェアと協働して所定の機能を実現するCPUで構成される。サーバ制御部11は、サーバ装置10の全体動作を制御する。サーバ制御部11は、サーバ記憶部14に格納されたデータ及びプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。例えば、サーバ制御部11は収集されたデータに対して、機械学習等に基づくデータ解析、画像解析などを行う。サーバ制御部11は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよい。サーバ制御部11は、CPU,MPU,マイコン、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。
 ネットワークI/F12は、無線または有線の通信回線を介してサーバ装置10をネットワーク5に接続するための回路(モジュール)である。ネットワークI/F12は、所定の通信規格に準拠した通信を行う。所定の通信規格には、IEEE802.3,IEEE802.11a/11b/11g/11ac等の通信規格が含まれる。
 機器I/F13は、サーバ装置10に他の機器を接続するための回路(モジュール)である。機器I/F13は、所定の通信規格にしたがい通信を行う。所定の規格には、USB、HDMI(登録商標)、IEEE1395、Wi-Fi、Bluetooth(登録商標)等が含まれる。
 サーバ記憶部14は、サーバ装置10の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体であり、例えばハードディスク(HDD)及び半導体記憶装置(SSD)を備える。また、サーバ記憶部14は、DRAM及びSRAM等の半導体デバイスを備えてもよく、データを一時的に記憶したり、サーバ制御部11の作業エリアとして機能したりしてもよい。なお、サーバ記憶部14は、サーバ装置10とは別体のストレージデバイスとして構成されてもよい。
1-2-3-1.データベースについて
 本システムでは、サーバ記憶部14に格納される各種データベースを用いる(以下、「データベース」を「DB」と略記する)。以下、サーバ記憶部14に格納される各種DBについて、図5,6を参照して説明する。図5は、路面情報システムにおける路面情報DBを説明するための図である。図6は、路面情報システムにおける路面情報の表示例を示す図である。
 サーバ記憶部14は、例えば、地図DB141及び路面情報DB142を格納する。地図DB141は、種々のエリアに関する地図を示す地図データを管理するデータベースである(図6参照)。路面情報DB142は、路面の欠陥の状態及び位置等を示す路面情報を管理するデータベースである。
 路面情報DB142は、図5に示すように、「画像データ」と、「緯度」及び「経度」とを関連付けて管理する。図5の路面情報DB142において、D1,D2,D3は、それぞれ路面の欠陥が撮像された画像データを示している。図5の路面情報DB142では、画像データD1,D2,D3に対して、それぞれ位置情報を構成する緯度La1及び経度Lo1、緯度La2及び経度Lo2、緯度La3及び経度Lo3が関連付けされている。路面情報DB142において、各画像データD1,D2,D3と、それぞれに関連付けされた位置情報とは、路面情報を構成する。各画像データD1,D2,D3は、一つのスマートカメラ3によって撮像されてもよいし、複数のスマートカメラ3によって別々に撮像されてもよい。
 図6に示すように、サーバ装置10は、地図DB141及び路面情報DB142に基づいて、地図DB141において管理される地図データDm上に、路面情報DB142において管理される路面情報をマッピングして表示する機能を有する。路面情報は、例えば、機器I/F13を介して外部の表示装置に表示したり、ネットワークI/F12を介して外部の閲覧端末に表示したりすることができる。
 図6に示すように、地図データDmは、道路に関して、例えば車線などの詳細な情報を含む。アイコンP1,P2,P3は、それぞれ路面情報DB142の画像データD1,D2,D3に関連付けされた位置情報に基づくアイコンである。サーバ制御部11は、路面情報DB142を読み出し、例えば路面情報DB142において画像データD1が関連付けされた位置情報に基づいて、地図データDm上で緯度La1及び経度Lo1の位置にアイコンP1を表示(プロット)する。また、例えばユーザの操作によってアイコンP1が選択されることで、画像データD1が表示される。道路検査業者などの道路整備事業に関わる関係者は、図6のような路面情報を閲覧端末等で確認することにより、地図上のアイコンP1,P2,P3から道路の異常箇所を正確に認識して業務を行うことが可能となる。
2.動作
2-1.動作の概要
 本実施形態に係る路面情報システムの動作の概要について説明する。本システムにおいて、スマートカメラ3(図1)は、一般人が所有する乗用車などの広く一般の車両2に搭載されることを想定している。車両2では、モバイル端末4が、スマートカメラ3で撮像された画像データD1,D2,D3に位置情報を付与し、路面情報としてネットワーク5を介してサーバ装置10にアップロードする(図5)。サーバ装置10は、モバイル端末4からの路面情報を、サーバ記憶部14の路面情報DB142に蓄積する。本システムによると、広く一般の車両2から随時、路面情報を収集でき、情報収集のカバレッジを効率良く広げることができる。
 また、本システムの路面情報DB142には、図6に示すように、路面の凹凸62を直に撮像した画像データD2が蓄積されるので、本システムのユーザは、視覚的な情報によって路面の欠陥の状態を正確に把握することができる。しかし、路面の欠陥の撮像画像を得るために、例えば車両2の走行中に都度、路面をモニタリングすると、画像データに路面の欠陥が映っていない状態でも処理負荷が掛かり、データ量及び処理負荷の観点において非効率である。
 そこで、本実施形態では、スマートカメラ3がショックセンサ32を用いて車両2が通過中の路面6の凹凸61を検知し(図8(a)参照)、車両2が通過後の凹凸61を撮像する(図8(b)参照)。これにより、スマートカメラ3で効率良く路面6の欠陥(凹凸61)が映っている画像データを取得することができる。
2-2.動作の詳細
 本実施形態に係る路面情報システム及びスマートカメラ3の動作の詳細について、図7~9を参照して説明する。図7は、実施形態1に係る路面情報システムの動作を示すシーケンス図である。図8は、スマートカメラ3の動作を説明するための図である。図9は、スマートカメラ3の撮像画像の表示例を示す図である。
 図7のシーケンスは、例えばモバイル端末4とスマートカメラ3とが通信接続を確立したときに開始される。
 図7において、まず、スマートカメラ3の制御部35(図2)は、ショックセンサ32からのセンサ信号に基づき、ショックセンサ32がショックを検知したか否かを判断する(S1)。例えば、制御部35は、センサ信号の信号レベルが所定のしきい値を越えたか否かを判断する。所定のしきい値は、路面の凹凸に起因するショックの基準を示すしきい値である。
 制御部35は、ショックセンサ32がショックを検知していないと判断したとき(S1でNO)、ステップS1の処理を所定の周期(例えば1/30秒)で繰り返す。
 一方、制御部35は、ショックセンサ32がショックを検知したと判断したとき(S1でYES)、撮像部31にトリガ信号を出力して路面6を撮像させる(S2)。ステップS2の処理において、撮像部31は、制御部35からのトリガ信号が示すタイミングにおいて1フレームの撮像画像を撮像してもよいし、トリガ信号が示すタイミングから所定期間(例えば1秒)において連続的に、所定のフレームレート(例えば30fps)で複数フレームの撮像画像を撮像してもよい。また、撮像部31は、トリガ信号から所定枚数(フレーム)の画像データを撮像してもよい。
 図8(a)に示すように、車両2が路面6の凹凸61を通過すると、路面6からの抗力が変化し、車両2には路面6の凹凸61を通過することによるショック(急激なZ方向の加速度の変化)が生じる。すると、スマートカメラ3は、ショックセンサ32からのセンサ信号に基づき、凹凸61に基づくショックを検知し(S1でYES)、図8(b)に示すように、車両2が路面6の凹凸61を通過後に路面6を撮像する(S2)。これにより、図9に示すように、路面6の凹凸61が映っている撮像画像の画像データDiを得ることができる。
 図7に戻り、次に、制御部35は、通信部33を介してモバイル端末4に、撮像部31によって撮像された画像データDiを送信する(S3)。
 モバイル端末4において、端末制御部40(図3)は、通信I/F42を介してスマートカメラ3からの画像データDiを受信する(S4)。受信した画像データDiは、端末記憶部41に一時的に記憶される。
 端末制御部40は、スマートカメラ3から画像データDiを受信すると(S4)、GPS測位部43から、モバイル端末4の位置、即ち車両2の現在位置を示す位置情報を取得する(S5)。
 次に、端末制御部40は、通信I/F42及びネットワーク5(図1)を介してサーバ装置10に、スマートカメラ3から受信した画像データDiと、GPS測位部43から取得した位置情報とを含む路面情報を送信する(S6)。
 サーバ装置10において、サーバ制御部11(図4)は、ネットワークI/F12を介してモバイル端末4からの画像データDi及び位置情報を含む路面情報を受信する(S7)。
 次に、サーバ制御部11は、サーバ記憶部14における路面情報DB142に、モバイル端末4から受信した路面情報を格納することで、路面情報DB142を更新し(S8)、本処理を終了する。
 以上の処理によると、車両2の走行中に路面6の凹凸61によるショックが検知されることで凹凸61が撮像される。これにより、常時、路面状態を撮像する場合に比べて、効率良く路面の欠陥を示す路面情報を収集することができる。
 また、モバイル端末4は、スマートカメラ3からの画像データDiに対して画像解析を行ってもよい。例えば、端末制御部40は、スマートカメラ3から複数フレームの画像データを受信し(S4)、画像解析において路面6の凹凸61がより明瞭に映っているフレームを選択し、選択したフレームの画像データDiをサーバ装置10に送信してもよい(S6)。また、端末制御部40は、画像解析において画像データ中の車線等の情報を抽出し、路面6における凹凸61の詳細な位置を示す情報を取得してもよい。
 また、上記のような画像解析は、モバイル端末4に限らず、サーバ装置10において行われてもよいし、スマートカメラ3において行われてもよい。
3.まとめ
 以上のように、本実施形態に係るスマートカメラ3は、路面6を移動する車両2に搭載される検知装置である。スマートカメラ3は、ショックセンサ32と、撮像部31と、制御部35とを備える。ショックセンサ32は、車両2における衝撃を検知する。撮像部31は、車両2の移動方向Yにおける後方の路面を撮像する。制御部35は、撮像部31の動作を制御する。制御部35は、ショックセンサ32の検知結果に基づき、車両2における衝撃が検知されたときに車両2が通過した路面を撮像部31に撮像させる。
 以上のスマートカメラ3によると、車両2が路面6の凹凸61などの欠陥を通過することで生じる衝撃が検知されたときに車両2が通過した路面を撮像部31で撮像する。これにより、路面情報を蓄積する路面情報システムにおいて、効率良く路面情報を収集できる検知装置を提供することができる。
 また、本実施形態において、スマートカメラ3は、撮像部31によって撮像された画像データDiをモバイル端末4などの外部機器に送信する通信部33をさらに備える。通信部33により、撮像された画像データDiをスマートカメラ3の外部に収集することができる。なお、スマートカメラ3は、通信部33を備えなくてもよく、例えば画像データDiを記憶部34に蓄積してもよいし、外部の記憶媒体に記録してもよい。
 また、本実施形態において、スマートカメラ3の撮像部31は、魚眼カメラで構成されてもよい。これにより、広い視野角の撮像範囲を確保でき、路面6の凹凸61の撮像漏れを低減することができる。
 また、本実施形態に係る路面情報システムは、スマートカメラ3と、サーバ装置10とを備える。サーバ装置10は、スマートカメラ3の撮像部31によって撮像された画像データDiと、画像データDiが撮像された位置を示す位置情報とを関連づけて管理する(図5参照)。これにより、スマートカメラ3から路面情報を効率良く取得することができる。
 また、本実施形態において、路面情報システムは、スマートカメラ3から、撮像部31によって撮像された画像データDiを取得するモバイル端末4をさらに備える。モバイル端末4は、画像データDiが撮像された位置を示す位置情報と共に、画像データDiをサーバ装置10に送信する。スマートカメラ3とサーバ装置10との間で情報通信を行う情報機器は、モバイル端末4に限らず、例えばカーナビゲーション装置であってもよい。
(実施形態2)
 実施形態1では、路面情報をサーバ装置10にアップロードするためにモバイル端末4を用いた。本実施形態では、モバイル端末4を用いずに構成される路面情報システムについて説明する。以下、図10~12を参照して、本実施形態を説明する。
 図10は、実施形態2に係る路面情報システムの構成を示す図である。図11は、実施形態2に係るスマートカメラ3Aの構成を示すブロック図である。
 図10に示すように、本実施形態に係る路面情報システムは、スマートカメラ3Aと、サーバ装置10とを備える。スマートカメラ3Aは、モバイル端末等の情報機器を介さずに直接、ネットワーク5に接続し、サーバ装置10とデータ通信を行う。図11に示すように、スマートカメラ3Aは、実施形態1における通信部33(図2参照)に代えて、インターネットなどのネットワークによるデータ通信を行う通信部33Aを備える。
 また、図11に示すように、スマートカメラ3Aは、実施形態1に係るスマートカメラ3(図2参照)と同様の構成に加えて、GPS測位部36をさらに備える。GPS測位部36は、例えば実施形態1に係るモバイル端末4(図3参照)のGPS測位部43と同様のモジュールで構成される。
 図12は、実施形態2に係るスマートカメラ3Aの動作を示すフローチャートである。図12に示すフローチャートの各処理は、スマートカメラ3Aの制御部35によって実行される。
 図12のフローチャートにおいて、制御部35は、実施形態1における図7のステップS1,S2と同様に、ショックセンサ32を用いて路面の凹凸によるショックを検知し(S21)、ショックが検知されたときの路面を撮像部31に撮像させる(S22)。次いで、制御部35は、GPS測位部36から位置情報を取得する(S23)。これにより、撮像部31によって路面の凹凸が撮像されたときの位置を示す位置情報を精度良く得ることができる。
 次に、制御部35は、通信部33A及びネットワーク5を介してサーバ装置10に、撮像部31が撮像した画像データと、GPS測位部36から取得した位置情報とを含む路面情報を送信し(S24)、本処理を終了する。
 以上の処理によると、モバイル端末4を用いずに路面情報をサーバ装置10にアップロードすることができる。
 以上のように、本実施形態に係るスマートカメラ3Aは、車両2の位置を示す位置情報を取得するGPS測位部36をさらに備える。スマートカメラ3Aの制御部35は、ショックセンサ32の検知結果に基づき、車両2における衝撃が検知されたときの車両2の位置を示す位置情報を、GPS測位部36から取得する。
 以上のスマートカメラ3Aによると、GPS測位部36から車両2における衝撃が検知されたときの位置情報が取得され、路面6の凹凸61の位置情報を精度良く取得することができる。
 また、上記の実施形態においては、GPS測位部36を備えるスマートカメラ3Aが直接、サーバ装置10に路面情報をアップロードした。これに限らず、例えば、スマートカメラ3Aが、撮像時にGPS測位部36から位置情報を取得し、モバイル端末4(図1参照)を介して路面情報をサーバ装置10にアップロードしてもよい。
(実施形態3)
 上記の実施形態1,2では、車両に後付けで搭載されるスマートカメラ3,3Aを用いたが、スマートカメラ3,3Aに代えて、車両に予め内蔵されるカメラを用いてもよい。以下、本システムの変形例について、図13を参照して説明する。
 図13は、実施形態3に係る路面情報システムの構成を示す図である。本実施形態に係る路面情報システムは、実施形態2に係るスマートカメラ3A(図10,11参照)に代えて、検知装置3Bを備える。検知装置3Bは、図13に示すように、実施形態2に係るスマートカメラ3Aと同様の構成が車両2Aの内部に組み込まれた装置である。例えば、検知装置3Bの撮像部31は、車両2Aにリアカメラとして内蔵されている。また、制御部35は、車両2AのECUとして実装されている。
 検知装置3Bでは、例えば、制御部35が、図12のフローチャートに示す各処理を実行する。これにより、車両2A内部に組み込まれた検知装置3Bからサーバ装置10に路面情報をアップロードすることができる。
 以上のような構成であっても、実施形態1,2と同様の効果が得られる。
(他の実施形態)
 上記の各実施形態では、検知装置における検知部の一例としてショックセンサについて説明した。検知装置における検知部は、ショックセンサに限らず、例えば静電容量型及びピエゾ抵抗型などの種々の加速度センサで構成されてもよいし、ジャイロセンサを含んで構成されてもよい。ジャイロセンサを用いることにより、(例えばYZ平面やZX平面における)角速度の変化に基づき、車両2におけるショックを検知することができる。
 また、上記の各実施形態では、ショックセンサの検知結果に基づいて、路面の凹凸によるZ方向のショックを検知した。検知部の検知対象は路面の凹凸に限らず、例えば路面の凍結や水溜まり等によるショックであってもよい。例えば、車両2の幅方向X(図1参照)の加速度の変化、或いはXY平面における角速度の変化に基づき、路面の凍結等によるショックを検知して、車両2が通過した路面の凍結箇所を撮像してもよい。また、路面情報は、凍結等のような天候に応じた路面の状態に関する情報であってもよい。
 また、上記の各実施形態では、位置情報取得部の例示としてGPS測位部43,36について説明した。位置情報取得部は、GPS測位部に加えて、又はこれに代えて、例えば準天頂衛星システムに基づく測位モジュールを備えて構成されてもよい。準天頂衛星システムに基づく測位モジュールを用いることにより、高精度な位置情報を取得することができる。
 また、上記の各実施形態では、検知装置が搭載される移動体の一例である車両2が、乗用車である例について説明した。検知装置が搭載される移動体(車両)は、乗用車に限らず、例えばバス、タクシー、トラックなどの商用車であってもよいし、自動二輪車を含む種々の自動車であってもよいし、自転車、鉄道車両などであってもよい。

Claims (8)

  1.  路面を移動する移動体に搭載される検知装置であって、
     前記移動体における衝撃を検知する検知部と、
     前記移動体の移動方向における後方の路面を撮像する撮像部と、
     前記撮像部の動作を制御する制御部とを備え、
     前記制御部は、前記検知部の検知結果に基づき、前記移動体における衝撃が検知されたときに前記移動体が通過した路面を前記撮像部に撮像させる
    検知装置。
  2.  前記移動体の位置を示す位置情報を取得する位置情報取得部をさらに備え、
     前記制御部は、前記検知部の検知結果に基づき、前記移動体における衝撃が検知されたときの前記移動体の位置を示す位置情報を、前記位置情報取得部から取得する
    請求項1に記載の検知装置。
  3.  前記撮像部によって撮像された画像データを外部機器に送信する通信部をさらに備える
    請求項1又は2に記載の検知装置。
  4.  前記検知部は、ショックセンサ、加速度センサ及びジャイロセンサの内の少なくとも1つを含む
    請求項1~3のいずれか1項に記載の検知装置。
  5.  前記撮像部は、魚眼カメラで構成される
    請求項1~4のいずれか1項に記載の検知装置。
  6.  請求項1~5のいずれか1項に記載の検知装置と、
     前記検知装置の撮像部によって撮像された画像データと、前記画像データが撮像された位置を示す位置情報とを関連づけて管理するサーバ装置と
    を備える路面情報システム。
  7.  前記検知装置から、前記撮像部によって撮像された画像データを取得する情報機器をさらに備え、
     前記情報機器は、前記画像データが撮像された位置を示す位置情報と共に、前記画像データを前記サーバ装置に送信する
    請求項6に記載の路面情報システム。
  8.  請求項1~5のいずれか1項に記載の検知装置が搭載された車両。
PCT/JP2017/005856 2016-02-25 2017-02-17 検知装置および路面情報システム、並びに車両 WO2017145928A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018501631A JP6369654B2 (ja) 2016-02-25 2017-02-17 検知装置および路面情報システム、並びに車両
US16/111,887 US20180362048A1 (en) 2016-02-25 2018-08-24 Detection device, road surface information system, and vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016034655 2016-02-25
JP2016-034655 2016-02-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/111,887 Continuation US20180362048A1 (en) 2016-02-25 2018-08-24 Detection device, road surface information system, and vehicle

Publications (1)

Publication Number Publication Date
WO2017145928A1 true WO2017145928A1 (ja) 2017-08-31

Family

ID=59686591

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/005856 WO2017145928A1 (ja) 2016-02-25 2017-02-17 検知装置および路面情報システム、並びに車両

Country Status (3)

Country Link
US (1) US20180362048A1 (ja)
JP (1) JP6369654B2 (ja)
WO (1) WO2017145928A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108360344A (zh) * 2018-02-11 2018-08-03 云南通衢工程检测有限公司 公路技术状况检测系统
JP2020008996A (ja) * 2018-07-04 2020-01-16 株式会社デンソーテン 道路情報収集支援サーバ、道路情報収集装置、道路情報収集システム、及び道路情報収集方法
CN114347917A (zh) * 2021-12-28 2022-04-15 华人运通(江苏)技术有限公司 一种车辆、车载摄像系统的校准方法和装置
WO2022162855A1 (ja) * 2021-01-29 2022-08-04 日本電気株式会社 車載装置、路面画像の送信方法及びプログラム記録媒体

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3315949B1 (en) * 2015-06-23 2021-04-28 Nec Corporation Detection system, detection method, and program
JP7167655B2 (ja) 2018-11-19 2022-11-09 株式会社アイシン 道路劣化情報収集装置
JP7358762B2 (ja) * 2019-04-02 2023-10-11 トヨタ自動車株式会社 道路異常検知装置、道路異常検知方法および道路異常検知プログラム
FI128495B (en) * 2019-05-21 2020-06-15 Vaisala Oyj Method for calibrating optical surface monitoring system, arrangement, device and computer readable memory
DE102019127730B4 (de) * 2019-10-15 2023-04-27 Bayerische Motoren Werke Aktiengesellschaft System zur Bildstabilisierung einer Anzeige in einem Fahrzeug, Fahrzeug, Kommunikationssystem, Verfahren und computerlesbares Speichermedium
JP7447578B2 (ja) * 2020-03-13 2024-03-12 株式会社リコー 情報処理装置、情報処理方法およびプログラム
WO2022215182A1 (ja) * 2021-04-07 2022-10-13 三菱電機株式会社 路面情報収集装置、路面劣化検知システム、および、路面情報収集方法
EP4072123A1 (en) * 2021-04-09 2022-10-12 Veoneer Sweden AB A vehicle imaging system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050113994A1 (en) * 2003-11-21 2005-05-26 Harris Corporation Mobile data collection and processing system and methods
JP2006112127A (ja) * 2004-10-15 2006-04-27 Hitachi Ltd 道路管理システム
JP2011203116A (ja) * 2010-03-25 2011-10-13 Toyota Motor Corp 車両用異常予測装置及び方法
JP2014086826A (ja) * 2012-10-23 2014-05-12 Nishinihon Kosoku Doro Engineering Kansai Kk 路面撮影システム及びトンネル壁面撮影システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4193886B2 (ja) * 2006-07-26 2008-12-10 トヨタ自動車株式会社 画像表示装置
KR102162445B1 (ko) * 2013-04-29 2020-10-20 팅크웨어(주) 차량용 영상 처리 장치 및 이를 이용한 이벤트 처리 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050113994A1 (en) * 2003-11-21 2005-05-26 Harris Corporation Mobile data collection and processing system and methods
JP2006112127A (ja) * 2004-10-15 2006-04-27 Hitachi Ltd 道路管理システム
JP2011203116A (ja) * 2010-03-25 2011-10-13 Toyota Motor Corp 車両用異常予測装置及び方法
JP2014086826A (ja) * 2012-10-23 2014-05-12 Nishinihon Kosoku Doro Engineering Kansai Kk 路面撮影システム及びトンネル壁面撮影システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108360344A (zh) * 2018-02-11 2018-08-03 云南通衢工程检测有限公司 公路技术状况检测系统
JP2020008996A (ja) * 2018-07-04 2020-01-16 株式会社デンソーテン 道路情報収集支援サーバ、道路情報収集装置、道路情報収集システム、及び道路情報収集方法
WO2022162855A1 (ja) * 2021-01-29 2022-08-04 日本電気株式会社 車載装置、路面画像の送信方法及びプログラム記録媒体
CN114347917A (zh) * 2021-12-28 2022-04-15 华人运通(江苏)技术有限公司 一种车辆、车载摄像系统的校准方法和装置
CN114347917B (zh) * 2021-12-28 2023-11-10 华人运通(江苏)技术有限公司 一种车辆、车载摄像系统的校准方法和装置

Also Published As

Publication number Publication date
JP6369654B2 (ja) 2018-08-08
JPWO2017145928A1 (ja) 2018-08-23
US20180362048A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
JP6369654B2 (ja) 検知装置および路面情報システム、並びに車両
US9171363B2 (en) Computer-readable recording medium and road surface survey device
US20130173208A1 (en) Road surface inspection device and recording medium
Chen et al. Inexpensive multimodal sensor fusion system for autonomous data acquisition of road surface conditions
JP5776546B2 (ja) 路面調査プログラム及び路面調査装置
KR102507905B1 (ko) 경찰차를 활용한 포트홀 실시간 탐지 장치
CN104103030A (zh) 图像分析方法、照相机装置、控制装置及控制方法
US20160109617A1 (en) Information transmission apparatus, weather condition acquisition system, server apparatus, information transmission method and program
JP5932850B2 (ja) 情報処理システム、情報処理方法、情報処理装置、情報処理端末、情報処理用プログラム、および、記録媒体
JP6057605B2 (ja) ドライブレコーダ
KR20160021430A (ko) 도로 매개변수를 모니터링하는 방법 및 시스템
CN109789747A (zh) 警告驾驶者悬架系统状况的方法
JP2016066144A (ja) 路面情報収集装置および路面情報解析システム
US11676397B2 (en) System and method for detecting an object collision
CN106840181B (zh) 用于确定车辆位置的系统和方法
US20220377283A1 (en) Image data collecting apparatus, method, and program
KR20230116632A (ko) 실내에 주차된 차량의 위치를 확인하기 위한 방법 및 이를 지원하는 장치
JP2021081985A (ja) 物体検出装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018501631

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17756367

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17756367

Country of ref document: EP

Kind code of ref document: A1