WO2020008685A1 - 情報報知装置、情報報知装置用プログラム、および情報報知システム - Google Patents

情報報知装置、情報報知装置用プログラム、および情報報知システム Download PDF

Info

Publication number
WO2020008685A1
WO2020008685A1 PCT/JP2019/010312 JP2019010312W WO2020008685A1 WO 2020008685 A1 WO2020008685 A1 WO 2020008685A1 JP 2019010312 W JP2019010312 W JP 2019010312W WO 2020008685 A1 WO2020008685 A1 WO 2020008685A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
unit
notification
moving object
moving
Prior art date
Application number
PCT/JP2019/010312
Other languages
English (en)
French (fr)
Inventor
光 長澤
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2020528689A priority Critical patent/JPWO2020008685A1/ja
Publication of WO2020008685A1 publication Critical patent/WO2020008685A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01FADDITIONAL WORK, SUCH AS EQUIPPING ROADS OR THE CONSTRUCTION OF PLATFORMS, HELICOPTER LANDING STAGES, SIGNS, SNOW FENCES, OR THE LIKE
    • E01F13/00Arrangements for obstructing or restricting traffic, e.g. gates, barricades ; Preventing passage of vehicles of selected category or dimensions
    • E01F13/02Arrangements for obstructing or restricting traffic, e.g. gates, barricades ; Preventing passage of vehicles of selected category or dimensions free-standing; portable, e.g. for guarding open manholes ; Portable signs or signals specially adapted for fitting to portable barriers
    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01FADDITIONAL WORK, SUCH AS EQUIPPING ROADS OR THE CONSTRUCTION OF PLATFORMS, HELICOPTER LANDING STAGES, SIGNS, SNOW FENCES, OR THE LIKE
    • E01F9/00Arrangement of road signs or traffic signals; Arrangements for enforcing caution
    • E01F9/30Arrangements interacting with transmitters or receivers otherwise than by visible means, e.g. using radar reflectors or radio transmitters
    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01FADDITIONAL WORK, SUCH AS EQUIPPING ROADS OR THE CONSTRUCTION OF PLATFORMS, HELICOPTER LANDING STAGES, SIGNS, SNOW FENCES, OR THE LIKE
    • E01F9/00Arrangement of road signs or traffic signals; Arrangements for enforcing caution
    • E01F9/60Upright bodies, e.g. marker posts or bollards; Supports for road signs
    • E01F9/604Upright bodies, e.g. marker posts or bollards; Supports for road signs specially adapted for particular signalling purposes, e.g. for indicating curves, road works or pedestrian crossings
    • E01F9/608Upright bodies, e.g. marker posts or bollards; Supports for road signs specially adapted for particular signalling purposes, e.g. for indicating curves, road works or pedestrian crossings for guiding, warning or controlling traffic, e.g. delineator posts or milestones
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel

Definitions

  • the present invention relates to an information notification device, a program for an information notification device, and an information notification system.
  • a moving object such as a vehicle or a pedestrian is detected, and sound, sound, lighting or blinking of light, display of characters or images, or vibration of a moving object entering a predetermined range such as an off-limits road or an off-limits area is detected.
  • a technique for notifying by such means is known.
  • Patent Document 1 discloses the following technique. Based on a detection signal from an infrared sensor or the like provided in the voice warning device, a pedestrian entering a certain range from the voice warning device is detected, and a speaker outputs a voice message based on the detection signal.
  • Patent Document 2 discloses the following technology.
  • a plurality of Doppler radars using microwaves or the like measure the absolute distance, speed, and moving direction of the moving object, respectively. For example, when it is determined that the moving object is a vehicle or the like based on the measured speed of the moving object, the information corresponding to the speed is notified from the notification unit corresponding to each radar.
  • Patent Literature 1 detects a pedestrian entering a predetermined range based on a detection signal from an infrared sensor or the like based on whether an object exists within the predetermined range. There is a problem in that unnecessary information is sent to a moving object not to be detected.
  • Patent Literature 2 determines the type of the moving object based on the speed of the moving object and notifies the moving object when the type is the predetermined type, so that unnecessary notification can be reduced to some extent.
  • the type of the moving object is determined based only on the speed of the moving object, for example, it is not possible to discriminate between a pedestrian and an automobile moving slowly. Therefore, there is a problem that information cannot be accurately notified to a predetermined type.
  • Patent Literatures 1 and 2 also have a problem that an appropriate notification unit cannot be selected from a plurality of notification units for each type of moving object.
  • an object of the present invention is to provide an information notification device, an information notification device program, and an information notification system that can accurately and efficiently notify information for each type of a moving object.
  • an acquisition unit that acquires information on the position and shape of the moving object in a predetermined area; and a speed and a moving direction of the moving object based on a history of the position of the moving object acquired by the acquiring unit.
  • An analyzing unit for analyzing a determining unit for determining a type of the moving body based on information on a shape of the moving body acquired by the acquiring unit, a position of the moving body acquired by the acquiring unit, Based on the speed and moving direction of the moving object analyzed by the analyzing unit, and the type of the moving object determined by the determining unit, the notifying unit that notifies information is selected from a plurality of notifying units.
  • An information notification device having a selection unit.
  • the selecting unit allows the moving object to pass through the notification unit based on the position of the moving object acquired by the acquiring unit and the speed and the moving direction of the moving object analyzed by the analyzing unit. And estimating the time at which the mobile unit passes through the notification unit, and selecting the notification unit passed by the mobile unit at the time estimated to pass through the notification unit as the notification unit that notifies the mobile unit of information.
  • the information notification device according to 1) or 2).
  • the selecting unit switches the content of the information to be notified by the subsequently selected notifying unit based on the moving direction of the moving body after the notifying unit notifies the information. ).
  • the notification unit includes at least one of a sound generation device, a lighting device, and a display device.
  • An information notification system including: a measurement unit configured to measure a position and a shape of a moving object in a predetermined area; and the information notification device according to any one of (1) to (9).
  • the information notification system wherein the acquisition unit acquires information on a position and a shape of the moving object in the predetermined area from the measurement unit.
  • a control program for an information notification device having an acquisition unit that acquires information on a position and a shape of a moving object, wherein the acquisition unit acquires the information on the position and the shape of the moving object in a predetermined area.
  • the step (d) is based on the position of the moving body acquired in the step (a) and the speed and the moving direction of the moving body analyzed in the step (b).
  • the notification unit that estimates the time when the mobile unit passes through the notification unit, and notifies the notification unit that is passed by the mobile unit at the time that the mobile unit is estimated to pass through the notification unit to the mobile unit.
  • the step (d) is to switch the content of the information to be notified by the notifying unit based on a moving direction of the moving body after the notifying unit notifies the information.
  • the information unit to be notified by displaying the information is selected according to the shape or type of the moving object, according to any one of the above (11) to (14).
  • Information notification device program
  • Obtain the position and shape of the moving object analyze the speed and moving direction of the moving object from the history of the position of the moving object, determine the type of the moving object from the shape of the moving object, and determine the position, speed, and movement of the moving object. Based on the direction and the type, a notification unit that notifies information is selected from a plurality of notification units. Thus, information can be accurately and efficiently notified for each type of the moving object.
  • FIG. 1 is a block diagram illustrating a configuration of an information notification system including an information notification device.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the information notification device. It is sectional drawing which shows the simplified structure of a rider.
  • FIG. 4 is an explanatory diagram illustrating a state in which a rider scans a monitoring area.
  • FIG. 4 is an explanatory diagram for explaining an operation of the information processing device according to the first embodiment. It is a flowchart which shows operation
  • FIG. 14 is an explanatory diagram for explaining an operation of the information processing device according to the second embodiment. It is an explanatory view for explaining an operation of an information processing device according to a third embodiment.
  • FIG. 1 is a block diagram illustrating a configuration of an information notification system including an information notification device.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the information notification device.
  • the information notification system 10 includes an information notification device 100, a measurement device (measurement unit) 200, and a plurality of notification units (first notification unit to n-th notification unit) 300.
  • the number of the notification units 300 may be an arbitrary number n according to the size of a monitoring area 610 (see FIG. 5) described later.
  • the information notification device 100 is communicably connected to the measurement device 200 and the plurality of notification units 300. Communication between the information notification device 100 and each notification unit 300 may be performed by wire or wirelessly.
  • the information notification device 100 is configured by a computer, and includes a control unit 110, a storage unit 120, a communication unit 130, and an operation display unit 140.
  • the control unit 110 and the communication unit 130 constitute an acquisition unit 111. Further, the control unit 110 configures an analysis unit 112, a determination unit 113, and a selection unit 114.
  • the communication unit 130 is an interface for communicating with an external device.
  • a network interface based on standards such as Ethernet (registered trademark), SATA, PCI @ Express, USB, and IEEE1394 can be used.
  • a wireless communication interface such as Bluetooth (registered trademark), IEEE 802.11, or 4G may be used for communication.
  • the operation display unit 140 includes, for example, a keyboard and a display, or a touch panel, receives various operations and inputs, and displays various information.
  • the measuring device 200 measures a three-dimensional distance image (ranging point group data) by the rider 210.
  • the measurement device 200 captures a captured image using the camera 220.
  • the measuring device 200 measures, as measurement data, a distance image by the rider 210 and an image captured by the camera 220 in a monitoring area 610 (see FIG. 5) for monitoring the entry of a moving object.
  • the monitoring area (predetermined area) 610 may be an overlapping range of the measurement area of the distance image by the rider 210 and the imaging area of the image captured by the camera 220.
  • certain moving objects such as a road such as an expressway where entry of persons is prohibited, a dedicated road where only specific vehicles can enter, and an off-limits area where all moving objects are prohibited are included.
  • a predetermined area where entry is prohibited is widely included.
  • the rider 210 emits the laser, measures the time required for the emitted laser to reflect off the object and return, and obtains the distance. This is performed while scanning within a certain range to measure the distance and create a distance image.
  • the rider 210 is mounted on an inclined wall surface 500. Thereby, the laser emission direction is set to the Z direction inclined from the vertical direction.
  • the rider 210 includes, for example, a semiconductor laser 50, a collimating lens 51, a mirror unit 52, a lens 53, a photodiode 54, a processing circuit (not shown), a motor 55, and a housing 56.
  • the semiconductor laser 50 is a pulse laser that emits a laser beam.
  • the collimating lens 51 converts divergent light from the semiconductor laser 50 into parallel light.
  • the mirror unit 52 scans and projects the laser light collimated by the collimator lens 51 toward the measurement area by the rotating mirror surface, and reflects the reflected light from the object.
  • the lens 53 condenses the light reflected from the object reflected by the mirror unit 52.
  • the photodiode 54 receives the light collected by the lens 53.
  • the processing circuit obtains distance information according to the time difference between the emission timing of the semiconductor laser 50 and the light reception timing of the photodiode 54.
  • the motor 55 drives the mirror unit 52 to rotate.
  • the housing 56 accommodates these components.
  • the photodiode 54 has a plurality of pixels arranged in the Y direction.
  • the emission section 70 is constituted by the semiconductor laser 50 and the collimating lens 51, and the light receiving section 80 is constituted by the lens 53 and the photodiode 54.
  • optical axes of the emitting unit 70 and the light receiving unit 80 are orthogonal to the rotation axis 57 of the mirror unit 52.
  • the box-shaped housing 56 fixed to the wall surface 500 has an upper wall 58, a lower wall 59 facing the upper wall 58, and a side wall 60 connecting the upper wall 58 and the lower wall 59.
  • An opening 61 is formed in a part of the side wall 60, and a transparent plate 62 is attached to the opening 61.
  • the mirror unit 52 has a shape in which two quadrangular pyramids are joined in opposite directions to be integrated, that is, four pairs of mirror surfaces 63 and 64 that are inclined in a paired facing direction (however, not limited to four pairs) ) Have.
  • the mirror surfaces 63 and 64 are preferably formed by depositing a reflective film on the surface of a resin material.
  • the mirror unit 52 is connected to a shaft 65 of a motor 55 fixed to a housing 56 and is driven to rotate.
  • the axis (rotation axis) of the shaft 65 extends in the Y direction inclined with respect to the vertical direction, and the ZX plane formed by the Z direction and the X direction orthogonal to the Y direction is a horizontal plane. Leaning against.
  • divergent light emitted in a pulsed manner from a semiconductor laser 50 is converted into parallel light by a collimator lens 51, enters a first mirror surface 63 of a rotating mirror unit 52, and is reflected there. Further, after being reflected by the second mirror surface 64, the light is transmitted through the transparent plate 62, and is scanned and projected toward an external monitoring space (measurement area), for example, as a laser spot light having a vertically long rectangular cross section. Note that the direction in which the laser spot light is projected and the direction in which the projected laser spot light is reflected by the object and returned as reflected light overlap, and the two overlapping directions are referred to as the projecting and receiving directions. Laser spot light beams traveling in the same light projecting and receiving direction are detected by the same pixel.
  • FIG. 4 is an explanatory diagram illustrating a state in which the measurement area is scanned by the rider.
  • ⁇ ⁇ Scanning in the measurement area is performed by scanning the measurement space with the emitted laser spot light 90 (indicated by hatching) in accordance with the rotation of the mirror unit 52.
  • intersection angles of the combinations (pairs) of the first mirror surface 63 and the second mirror surface 64 of the mirror unit 52 are different.
  • the laser light is sequentially reflected by the rotating first mirror surface 63 and the rotating second mirror surface 64.
  • the laser light reflected by the first pair of the first mirror surface 63 and the second mirror surface 64 moves the uppermost area 91 of the measurement space horizontally from left to right in accordance with the rotation of the mirror unit MU. Is scanned.
  • the laser light reflected by the second pair of the first mirror surface 63 and the second mirror surface 64 moves the second region 92 from the top in the measurement space from the left in the horizontal direction according to the rotation of the mirror unit 52. Scanned to the right.
  • the laser light reflected by the third pair of the first mirror surface 63 and the second mirror surface 64 moves the third region 93 from the top in the measurement space horizontally from the left in accordance with the rotation of the mirror unit 52. Scanned to the right.
  • the laser light reflected by the fourth pair of the first mirror surface 63 and the second mirror surface 64 causes the lowest area 94 of the measurement space to move horizontally from left to right in accordance with the rotation of the mirror unit 52. Is scanned. This completes one scan of the entire measurement space.
  • One frame 95 is obtained by combining the images obtained by scanning the areas 91 to 94. Then, after the mirror unit 52 makes one rotation, the first pair of the first mirror surface 63 and the second mirror surface 64 returns to the initial position, so that the lowermost position from the uppermost region 91 of the monitoring space again. The scanning up to the area 94 is repeated, and the next frame 95 is obtained.
  • a part of the laser beam reflected by the object out of the scanned and projected light beam passes through the transparent plate 62 again and is incident on the second mirror surface 64 of the mirror unit 52 in the housing 56, Here, the light is reflected, further reflected by the first mirror surface 63, collected by the lens 53, and detected by the light receiving surface of the photodiode 54 for each pixel.
  • the processing circuit obtains distance information according to the time difference between the emission timing of the semiconductor laser 50 and the light reception timing of the photodiode 54. As a result, a moving object is detected in the entire region in the measurement space, and a frame 95 (see FIG. 4) as a distance image having distance information (three-dimensional measurement value) for each pixel (measurement point) can be obtained. it can.
  • a plurality of notification units 300 are arranged at predetermined intervals from each other, and independently transmit information.
  • a plurality of notification units 300 may be arranged at the same place.
  • the predetermined interval can be arbitrarily set in consideration of the range of the moving speed of the moving object to be monitored in the monitoring area 610. For example, when the mobile object to be monitored is a human, the predetermined interval may be 2 m.
  • the notification unit 300 includes, for example, a sound generation device such as a speaker, a lighting device such as a warning light, and a display device such as an electric bulletin board.
  • the notification unit 300 is arranged at a position and a direction at which information can be notified to a moving object in the monitoring area 610.
  • the speakers are arranged such that the center of the directivity range of the sound of the speaker crosses the monitoring area 610.
  • the notification unit 300 is an electronic bulletin board
  • the electronic bulletin board may be arranged such that a perpendicular to the center of the bulletin board on which information is displayed crosses the monitoring area 610.
  • the electronic bulletin board may be arranged such that a bulletin board on which information is displayed faces a direction opposite to a traveling direction of a vehicle or the like on the road.
  • control unit 110 of the information notification device 100 The operation of the control unit 110 of the information notification device 100 will be described.
  • control unit 110 configures the acquisition unit 111 together with the communication unit 130, and configures the analysis unit 112, the determination unit 113, and the selection unit 114.
  • the acquisition unit 111 receives the distance image by the rider 210 and the image captured by the camera 220 from the measurement device 200 through the communication unit 130.
  • the acquisition unit 111 calculates the position and the shape of the moving object based on the distance image by the rider 210 and the image captured by the camera 220. Thereby, the acquiring unit 111 acquires the position and the shape of the moving object.
  • the shape includes a size and a shape.
  • the acquisition unit 111 calculates the position and the size of the moving object by the background subtraction method based on the distance image measured by the rider 210.
  • a background image (also referred to as a reference image) generated and stored in advance is used.
  • the laser spot light 90 is scanned by the rider 210 in a state where no moving object such as a human or a vehicle exists.
  • a background image can be obtained based on the reflected light obtained from the background object.
  • reflected light from the moving object is newly generated.
  • foreground data is extracted by comparing the background data with the current distance image using the background difference method. Then, the pixels (pixel groups) of the extracted foreground data are divided into clusters according to, for example, the distance values of the pixels. Then, the size of the moving object is obtained by calculating the size of each cluster. The size of the cluster can be calculated based on, for example, the vertical dimension, the horizontal dimension, the total area (the number of pixels), and the like.
  • the “size” here is an actual size, which is different from an apparent size (angle of view, that is, a spread of pixels), and a lump of pixel groups is determined according to a distance to an object.
  • the acquisition unit 111 can acquire the position of the moving object as the position of the center or the center of gravity of each cluster.
  • the current time point is a point in time when the type is determined, or a point in time when an image such as a distance is acquired.
  • the acquisition unit 111 acquires the shape of a moving object by detecting a silhouette of the moving object (hereinafter, referred to as a “moving object silhouette”) from a plurality of images captured by the camera 220.
  • the moving object silhouette can be detected, for example, by extracting a range of pixels having a relatively large difference based on a time difference that differs between images whose shooting time is before and after.
  • the moving object silhouette may be detected by a background subtraction method that subtracts a background image from a captured image.
  • the acquisition unit 111 may acquire the shape of the moving object as a silhouette of the foreground data extracted by the background subtraction method, using the distance image measured by the rider 210. In this case, the position and the shape of the moving object can be acquired based on only the distance image measured by the rider 210 without using the captured image.
  • the analysis unit 112 analyzes the speed and the moving direction of the moving object based on the history of the position of the moving object acquired from each frame of the range image. Each position of the moving object acquired from a plurality of frames having different shooting times constitutes a position history.
  • the analysis unit 112 can analyze the speed of the moving object by dividing the amount of change in the position of the moving object between frames by the time interval of the frame.
  • the analysis unit 112 can analyze the moving direction of the moving object as a vector of the direction in which the position of the moving object changes between frames.
  • the plurality of frames used for analyzing the speed and the moving direction of the moving object may be a continuous frame or a plurality of frames arbitrarily selected from the frames output from the rider 210.
  • the determining unit 113 determines the type of the moving object based on the shape of the moving object acquired by the acquiring unit 111.
  • the type broadly includes a person, a vehicle, and a non-human animal, as well as a young person, an elderly person, a car, and a truck.
  • the determining unit 113 determines the type of the moving object from the shape of the moving object acquired by the acquiring unit 111 using, for example, a neural network previously learned from a plurality of teacher data of the combination of the shape and the type of the moving object. I can do it. Specifically, the type of the moving object is determined from the moving object silhouette acquired by the acquiring unit 111 by using a neural network previously learned from a plurality of teacher data of the combination of the moving object silhouette and the type of the moving object silhouette. Can be determined. Note that the determination unit 113 may determine the type of the moving object using machine learning other than the neural network.
  • the selection unit 114 determines a plurality of positions based on the position of the moving object acquired by the acquiring unit 111, the speed and the moving direction of the moving object analyzed by the analyzing unit 112, and the type of the moving object determined by the determining unit 113.
  • the notification unit 300 that notifies the mobile unit of information is selected from the notification units 300. That is, the selection unit 114 selects an optimal notification unit 300 for notifying information to the mobile unit, from among the plurality of notification units 300, based on the position, speed, moving direction, and type of the mobile unit. Then, control is performed to notify the selected notification unit 300 of information.
  • a notifying unit that notifies information to a person who has entered a no-go road is selected.
  • FIG. 5 is an operation of the information processing apparatus according to the present embodiment, and illustrates an example in which a notification unit that notifies information from a plurality of notification units is selected from a plurality of notification units for a plurality of people who have entered an inaccessible road.
  • the no-entry road 600 is a road (for example, an expressway) where no human entry is allowed.
  • FIG. 6 is a flowchart illustrating the operation of the information notification device when selecting a notification unit that reports information from a plurality of notification units, for a plurality of persons who have entered the no-go road. This flowchart is executed by the control unit 110 according to the program stored in the storage unit 120.
  • the measuring device 200 is installed beside the no-go road 600 and defines the monitoring area 610.
  • the plurality of notification units 300 are speakers 310A to 310D, respectively, and are arranged on the side of the no-go road 600 so as to notify information by voice toward the monitoring area 610 at an interval of 2 m from each other. .
  • the control unit 110 monitors the monitoring area 610 based on the detection of the moving object 700 (S101). That is, the control unit 110 monitors the monitoring area 610 by detecting the moving object 700 by the background subtraction method based on the distance image measured by the rider 210 by the acquisition unit 111. Specifically, when the size of the cluster calculated according to the distance value of the pixel from the foreground data extracted from the distance image by the background difference method exceeds a predetermined threshold, the cluster is detected as the moving object 700.
  • the monitoring area 610 is monitored.
  • the predetermined threshold can be set to an arbitrary threshold by an experiment or the like.
  • FIG. 5A illustrates a state in which the moving object 700 has not entered the monitoring area 610.
  • control unit 110 detects that the moving object 700 that has entered the monitoring area 610 is a person based on the measurement data obtained by the measurement device 200 (see step S103), and then outputs information from a speaker included in the notification unit 300. Is notified (sound is output) (hereinafter, also referred to as “output required time”), for example, 0.5 seconds.
  • FIG. 5B illustrates a state in which a young man 701, who is a mobile object 700, jogging, and an elderly person 702 have entered the monitoring area 610.
  • control unit 110 detects a young person 701 and an elderly person 702, which are mobile units 700 that have entered monitoring area 610.
  • control unit 110 If the control unit 110 does not detect a moving object in the monitoring area 610 (S102: NO), the control unit 110 returns to step S101 and continues monitoring the monitoring area 610 based on the detection of the moving object 700.
  • control unit 110 detects a moving object in the monitoring area 610 (S102: YES), the control unit 110 acquires the position and shape of the moving object 700 (S103), and determines the type of the moving object from the shape (S104).
  • control unit 110 determines that the type of the moving object is not a person (S105: NO)
  • the control unit 110 returns to step S101 and continues detecting the moving object.
  • control unit 110 determines that the type of the mobile unit 700 is a person (S105: YES)
  • the control unit 110 analyzes the speed and the moving direction of the mobile unit from the history of the position of the mobile unit 700 (S106).
  • the control unit 110 estimates the time when the moving body 700 passes through the speakers 310A to 310D, which are the notification units 300, from the current position, speed, and moving direction of the moving body 700 (S107).
  • “passing” means that the mobile unit 700 crosses the directivity range of the sound of the speaker if the notification unit 300 is the speakers 310A to 310D, and more specifically, the front (directivity) of the speaker. (The middle of the range). If the notification unit 300 is a display device, the notification unit 300 similarly crosses the display viewing angle or the center thereof.
  • FIG. 5C shows the estimation of each mobile unit 700 when 0.5 seconds, which is the time from when the type of mobile unit 700 is determined to be a person to when information is notified from speakers 310A to 310D, elapses.
  • FIG. 6 is a diagram showing positions where the positions are set. The position of each moving object 700 at the present time (when it is determined that the type of the moving object 700 is a person) is indicated by a black silhouette, and the estimated position of each moving object 700 when 0.5 second has elapsed from the present time. Locations are indicated by dashed silhouettes. In the example of FIG.
  • the position of the young man 701 jogging is estimated to be an intermediate position between the speakers 310B and 310C, and the position of the elderly 702 does not reach any of the speakers 310A to 310D. It is estimated that.
  • the control unit 110 estimates that the time when the youth 701 passes between the speaker 310B and the speaker 310C is 0.5 seconds after the type of the youth 701 as the moving body 700 is determined to be a person. I do.
  • the control unit 110 estimates that the time when the elderly 702 passes through the speaker 310D is, for example, 1.5 seconds after the type of the elderly 702 as the mobile body 700 is determined to be a person.
  • the control unit 110 selects the speakers 310A to 310D that are passed by the mobile unit 700 at the estimated time as the speakers 310A to 310D that inform the information, and generates sound from the selected speakers 310A to 310D to generate the sound.
  • the information is notified to the moving object 700 passing through 310D (S108).
  • FIG. 5D is a diagram illustrating the relative positions of the speaker and the moving body when notifying information to each moving body.
  • the current position of each moving object 700 (at the time when the type of the moving object 700 is determined to be a person) is indicated by a black silhouette, and the estimated position of the youth 701 when 0.5 second has elapsed from the present.
  • the speaker 310B and the speaker 310C that are passed to the youth 701 0.5 seconds after the type is determined to be a person are selected as the speakers 310A to 310D that notify the youth 701 of information. Then, the speaker 310B and the speaker 310C are notified of the information 0.5 seconds after the type is determined to be a person.
  • the speaker 310B and the speaker 310C are notified of the information 0.5 seconds after the type is determined to be a person.
  • the speaker 310D that is passed to the elderly 702 1.5 seconds after the type is determined to be a person is selected as the speakers 310A to 310D that notify the elderly 702 of information. Then, the information is notified to the speaker 310D 1.5 seconds after the type is determined to be a person.
  • information can be notified to the elderly 702 from the speakers 310D closest to the elderly 702. Examples of information notified from the speakers 310A to 310D to the youth 701 and the elderly 702 are, for example, "entrance to this road is prohibited. Please leave the road immediately.”
  • a reporting unit that reports information for each type of a vehicle that has entered a prohibited road is selected.
  • FIG. 7 is an operation of the information processing apparatus according to the present embodiment, in which, for a vehicle that has entered a no-entry road, an information unit that reports information for each vehicle type is selected from a plurality of information units.
  • FIG. 4 is an explanatory diagram for explaining the method.
  • the entry-prohibited road is a road (for example, a pedestrian-only road) where entry of vehicles is prohibited.
  • the plurality of notification units 300 are an electric bulletin board 320A and an electric bulletin board 320B installed on pillars provided on the side of a no-entry road (not shown).
  • the electric bulletin board 320A is installed at a position higher than the electric signboard 320B.
  • the electric bulletin board 320A and the electric bulletin board 320B each notify information by text.
  • FIG. 7A when it is determined that the type of the moving object 700 detected in the monitoring area 610 set on the no-entry road is a large vehicle such as a truck, the two electronic bulletin boards 320A and 320B are displayed. Has selected the electric bulletin board 320A as the notification unit 300 for notifying information. As a result, since the position of the driver's seat of the large vehicle is at a relatively high position, information is notified from the electronic bulletin board 320A disposed at a relatively high position, which is easily located in the field of view of the driver of the large vehicle. Information can be efficiently notified to the driver. In the example of FIG. 7, information for warning entry prohibition on an entry prohibition road is notified by displaying information of characters “caution” on the electronic bulletin board 320A.
  • the electronic bulletin board 320B is selected from the two electronic bulletin boards 320A and 320B. It is selected as the notification unit 300 that notifies information.
  • the notification unit 300 that notifies information.
  • the entry-prohibited road 600 in which the monitoring area 610 is set may be a road for which entry is permitted for each type of vehicle, such as a large car road.
  • the traffic sign is prohibited by displaying characters such as “Caution (or no traffic)” in red on the electronic bulletin board 320B. Information.
  • the no-go road 600 may be, for example, a general-vehicle no-go road where only permitted vehicles allowed beforehand can enter.
  • the electronic bulletin boards 320A and 320B are provided with a wireless communication device capable of receiving a wireless signal from the permitted vehicle and a transmission device for wirelessly transmitting the authentication information to the permitted vehicle.
  • characters such as "passable" are displayed in blue on one of the electric bulletin boards 320A and 320B only for the permitted vehicle.
  • one of the two electronic bulletin boards 320A and 320B may be selected as the electronic bulletin boards 320A and 320B that notify information according to the detected shape of the moving body 700. For example, for a moving object 700 having a high vehicle height such as a truck, information can be notified from the electronic bulletin board 320A disposed at a relatively high position. For a moving object 700 having a low vehicle height, such as an ordinary car, information can be notified from the electronic bulletin board 320B disposed at a relatively low position.
  • a notifying unit that notifies information to a moving body that has entered a prohibited road is selected, and information to be notified is switched for each type of moving body.
  • FIG. 8 is an operation of the information processing apparatus according to the present embodiment.
  • a notification unit that notifies information is selected from a plurality of notification units, and the notification unit is notified.
  • FIG. 9 is an explanatory diagram for describing an example of switching the content of information.
  • the off-limits road is a road on which vehicles and people are prohibited from entering (for example, a road under construction).
  • FIG. 9 shows the operation of the information notifying device when selecting a notifying unit for notifying information from among a plurality of notifying units, and switching the content of the notifying information, for a moving body that has entered a forbidden road. It is a flowchart shown. This flowchart is executed by the control unit 110 according to a program stored in the storage unit 120.
  • the measuring device 200 is installed beside the no-go road 600, and defines the monitoring area 610.
  • the plurality of notification units 300 are electronic bulletin boards 330A and 330B, respectively, and are arranged on the side of the no-go road 600 so as to notify information by characters at arbitrary intervals.
  • Steps S201 to S204 in FIG. 9 are the same as steps S101 to S104 in FIG. 6, and duplicate description will be omitted or simplified.
  • the control unit 110 monitors the monitoring area 610 based on the detection of the moving object 700 (S201).
  • a of FIG. 8 illustrates a state where the moving object 700 has not entered the monitoring area 610.
  • control unit 110 If the control unit 110 does not detect the moving object 700 in the monitoring area 610 (S202: NO), the control unit 110 returns to step S201 and continues detecting the moving object 700.
  • control unit 110 determines that the type of the moving object 700 is not a person or a vehicle (S205: NO) If the control unit 110 determines that the type of the moving object 700 is not a person or a vehicle (S205: NO), the control unit 110 returns to step S201 and continues detecting the moving object 700.
  • the type of the moving object 700 is not a person or a vehicle, for example, the moving object 700 may be an animal other than a person.
  • control unit 110 determines that the type of the moving object 700 is a person or a vehicle (S205: YES)
  • the control unit 110 analyzes the speed and moving direction of the moving object from the history of the position of the moving object 700 (S206).
  • the control unit 110 estimates the time when the moving object 700 passes through the display board 303 from the current position, speed, and moving direction of the moving object 700 (S207).
  • FIG. 8C shows a state in which information is notified to the vehicle 703 by the electronic bulletin board 330A when the vehicle 703 passes the electronic bulletin board 330A. Further, a state is shown in which information is notified to the youth 701 by the electronic bulletin board 330B at the time when the young person 701 passes through the electronic bulletin board 330B. In FIG. 8, for the sake of simplicity, a state in which information is simultaneously displayed on the two electronic bulletin boards 330A and 330B is shown for convenience.
  • the control unit 110 determines whether the type of the moving object 700 passing through each of the electronic bulletin boards 330A and 330B is a person (S208).
  • the electronic bulletin board 330B passed by the person (youth) 701 that is the mobile body 700. Is selected as the electronic bulletin boards 330A and 330B for notifying information. Then, information on the person is notified at the time when the selected electronic bulletin board 330B is estimated to be passed by the person (S209).
  • FIG. 8C at the time when the electronic bulletin board 330B is estimated to be passed to the youth 701, information indicating the prohibition of human entry and information of the characters "Please do not enter! The information is notified to the youth 701 by being displayed on 330B.
  • the control unit 110 determines that the type of the moving body 700 that passes through the electric bulletin boards 330A and 330B is not a person (that is, a vehicle) (S208: NO)
  • the moving body 700 is passed by the vehicle 703 that is the moving body 700.
  • information on the vehicle 703 is notified at the time when the selected electronic bulletin board 330A is estimated to be passed by the vehicle (S210).
  • the information of the characters “Vehicle entry prohibited!” Is displayed on the electronic bulletin board 330A at the time when the electronic bulletin board 330A is estimated to pass through the vehicle 703, so that the vehicle 703 Information has been announced.
  • the content of information displayed on the mobile 700 passing through the electronic bulletin boards 330A and 330B is switched according to the type of the mobile 700, but depending on the shape of the mobile 700, the electronic bulletin boards 330A, The content of the information displayed on the moving object 700 passing through 330B may be switched. That is, instead of judging the type of the moving object 700, a mark indicating that a relatively small moving object 700 whose size is equal to or smaller than a predetermined threshold value is assumed to be a person and entry of a person is prohibited is set. Is displayed, information can be notified.
  • the information can be notified by estimating that the moving object 700 is a vehicle and displaying the characters “vehicle entry prohibited!”.
  • the predetermined threshold can be set to an appropriate value by experiment.
  • a notifying unit that notifies information to a moving body that has entered a forbidden road is selected, and the information to be notified is switched according to the moving direction of the moving body.
  • FIG. 10 is an operation of the information processing apparatus according to the present embodiment.
  • a notification unit that notifies information is selected from a plurality of notification units and is notified.
  • FIG. 9 is an explanatory diagram for describing an example in which information is switched according to a moving direction of a moving object.
  • the no-entry road 600 is a road (for example, an expressway) where entry of people is prohibited.
  • FIG. 11 shows the operation of the information notifying device for selecting a notifying unit for notifying information from among a plurality of notifying units, and switching the content of the notifying information, for a moving body that has entered a forbidden road. It is a flowchart shown. This flowchart is executed by the control unit 110 according to a program stored in the storage unit 120.
  • the measuring device 200 is installed beside the no-go road 600 and defines the monitoring area 610.
  • the plurality of speakers 310A to 310D constituting the notification unit 300 are arranged at the side of the no-entry road 600 at an interval of 2 m from each other so as to notify information to the monitoring area 610 by voice, respectively.
  • Steps S301 to S304 in FIG. 11 are the same as steps S101 to S104 in FIG. 6, and duplicate description will be omitted or simplified.
  • the control unit 110 monitors the monitoring area 610 based on the detection of the moving object 700 (S301).
  • control unit 110 If the control unit 110 does not detect the moving object 700 in the monitoring area 610 (S302: NO), the control unit 110 returns to step S301 and continues detecting the moving object 700.
  • FIG. 10A illustrates a state in which an elderly person 702, which is the moving object 700, has entered the monitoring area 610.
  • the type of the moving object 700 is determined to be a person (or an elderly person).
  • control unit 110 determines that the type of the mobile unit 700 is not a person (S305: NO)
  • the process returns to step S301 and continues to detect the mobile unit 700.
  • control unit 110 determines that the type of the moving object 700 is a person (S305: YES)
  • the control unit 110 analyzes the speed and the moving direction of the moving object 700 from the position history of the moving object 700 (S306).
  • the control unit 110 estimates the time when the moving object 700 passes through the speakers 310A to 310D from the current position, speed, and moving direction of the moving object 700 (S307).
  • the control unit 110 selects the speakers 310A to 310D passed by the mobile unit 700 at the estimated time as the speakers 310A to 310D to notify the information. Then, by generating sound from the selected speakers 310A to 310D, the mobile unit 700 passing through the speakers 310A to 310D is notified of warning information (S308). In the example of FIG. 10B, the warning information is notified from the selected speaker 310D at the time when the elderly 702 are estimated to pass through the speaker 310D, so that the elderly 702 passing through the speaker 301D is warned. Information has been announced. As information of the warning notified to the elderly 702 from the speaker 310D, for example, "Please do not enter!
  • the control unit 110 determines whether the moving direction of the moving object 700 is the exit direction from the no-go road 600 (S309). If the control unit 110 determines that the moving direction of the moving body 700 is not the retreat direction (S309: NO), the process proceeds to step S308. That is, the control unit 110 further estimates the time when the moving object 700 passes through the speakers 310A to 310D from the current position, speed, and moving direction of the moving object 700. Then, the speakers 310A to 310D that are passed by the mobile unit 700 at the estimated time are selected as the speakers 310A to 310D that notify information. Then, the warning information is further notified from the selected speakers 310A to 310D to the moving object 700 passing through the speakers 310A to 310D (S308).
  • the moving direction of the moving body 700 is not the exit direction, it is considered that the warning information notified from the speakers 310A to 310D has not been transmitted to the moving body 700. Therefore, it is necessary to notify the moving body 700 of the warning information again. Because there is.
  • the moving body 700 uses the speakers 310A to 310D based on the current position, speed, and moving direction of the moving body 700. Is further estimated (S310).
  • the control unit 110 selects the speakers 310A to 310D passed by the mobile unit 700 at the estimated time as the speakers 310A to 310D for notifying the guidance information. Then, the information to be notified is switched from the selected speaker 310A to 310D to the moving object 700 passing through the speaker 310A to 310D to the guidance information, and is notified (S311).
  • the moving direction of the moving body 700 is the exit direction, it is considered that the warning information notified from the speakers 310A to 310D is transmitted to the moving body 700. Therefore, by informing the mobile unit 700 of the guidance information and causing the mobile unit 700 to continue moving in the current moving direction, it is possible to encourage the mobile unit 700 to exit the prohibited road 600.
  • the guidance information from the selected speaker 310B at the time when the elderly 702 moves in the exit direction (the direction of the arrow) and the elderly 702 pass through the speaker 310B is estimated. Is reported to the elderly 702 passing through the speaker 310B.
  • the guidance information notified from the speaker 310B to the elderly 702 may be, for example, “Please proceed as it is!”.
  • FIG. 12 is an operation of the information processing apparatus according to the present embodiment, and selects a composite notification unit that notifies information from a plurality of composite notification units that report information to a moving object that has entered a prohibited road. It is an explanatory diagram for explaining an example in which a notifying unit that notifies information is changed from among the notifying units included in the combined notifying unit and the information to be notified is switched according to the type of the moving object.
  • the composite notification unit constitutes a plurality of notification units 300.
  • the off-limits road 600 is a road on which vehicles and people are prohibited from entering (for example, roads under construction).
  • 13B show a case where a composite body that reports information to a moving body that has entered a prohibited road is selected from among a plurality of composite reporting sections that report information. It is a flowchart which shows the operation
  • the measuring device 200 is installed beside the no-go road 600, and defines the monitoring area 610.
  • the plurality of composite notification units 340A and 340B are, for example, a set of an electric bulletin board, a speaker, and a warning light, respectively, and are arranged at arbitrary intervals beside the road 600 where no entry is allowed.
  • the electric bulletin board reports information by text
  • the speaker reports information by sound
  • the warning lamp reports information by emitting light.
  • the warning light emits light, for example, to notify information of a warning.
  • Steps S401 to S404 in FIG. 13A are the same as steps S101 to S104 in FIG. 6, and duplicate description will be omitted or simplified.
  • the control unit 110 monitors the monitoring area 610 based on the detection of the moving object 700 (S401).
  • FIG. 12A illustrates a state in which the moving object 700 has not entered the monitoring area 610.
  • control unit 110 If the control unit 110 does not detect the moving object 700 in the monitoring area 610 (S402: NO), the control unit 110 returns to step S401 and continues detecting the moving object 700.
  • FIG. 12B illustrates a state in which a young man 701 who is a moving object 700 and who is a jogger and a vehicle 703 have entered the monitoring area 610.
  • the type of the moving object 700 is determined to be a person (or a young person) 701 and a vehicle 703, respectively.
  • control unit 110 determines that the type of the mobile unit 700 is not a person or a vehicle (S405: NO), the process returns to step S401, and the detection of the mobile unit 700 is continued. If it is determined in step S405 that the type of the moving object 700 is not a person or a vehicle, for example, the moving object 700 may be an animal other than a person.
  • control unit 110 determines that the type of the moving object 700 is a person or a vehicle (S405: YES)
  • the control unit 110 analyzes the speed and the moving direction of the moving object from the history of the position of the moving object 700 (S406).
  • the control unit 110 estimates the time when the moving body 700 passes through the combined notification units 340A and 340B from the current position, speed, and moving direction of the moving body 700 (S407).
  • the time when the youth 701 passes through the combined notification unit 340B is estimated, and the information is notified to the youth 701 by the combined notification unit 340B, and the time when the vehicle 703 passes through the combined notification unit 340A.
  • the description will be made on the assumption that the information is notified to the vehicle 703 by the combined notification unit 340A. It should be noted that which of the combined reporting units 340A and 340B should be notified of the information on which mobile unit 700 can be determined so as to satisfy the following conditions.
  • the time that the moving body 700 passes through the complex notification units 340A and 340B after the type of the moving body 700 is determined is notified from the complex notification units 340A and 340B after the type of the moving body 700 is determined. Can be determined to be equal to or longer than the required output time. In addition, it can be determined that the time until notification is minimized.
  • control unit 110 selects compound notification unit 340B passed by mobile unit 700 as compound notification units 340A and 340B that notify information. . Further, the control unit 110 selects the electric bulletin board, the speaker, and the warning light of the composite notification unit 340B as the notification unit 300 to be notified of the information. That is, an electric bulletin board, a speaker, and a warning light, which are suitable for notifying the person of the type of the mobile body 700 of the information, are selected as the notifying unit 300 for notifying the information.
  • the selected compound notification unit 340B is estimated to be passed by the person, information about the person is notified by the electric bulletin board, the speaker, and the warning light of the compound notification unit 340B (S409).
  • the warning light emits light to notify the warning information.
  • the control unit 110 determines that the type of the mobile unit 700 passing through the composite notification units 340A and 340B is not a person (that is, a vehicle) (S408: NO), the composite notification passed by the mobile unit 700
  • the unit 340A is selected as the composite notification units 340A and 340B for notifying information. Then, at the time when the selected combined notification unit 340A is estimated to pass through the vehicle 703, information on the vehicle 703 is notified by the electric bulletin board and the warning light of the combined notification unit 340A (S410).
  • an electronic bulletin board and a warning light suitable for reporting information to the vehicle 703 that is the type of the moving object 700 are selected as the reporting unit 300 for reporting the information, and the vehicle 703 is notified to the vehicle 703 by the selected electric bulletin board and the warning light.
  • Report information In the example of C in FIG. 12, at the time when the combined notification unit 340A is estimated to pass through the vehicle 703, the character “Vehicle entry prohibited!” Is displayed on the combined notification unit 340A, so that the information is notified. You. Further, the warning light emits light to notify warning information. In the notification of information to the vehicle 703, notification by a speaker is not performed.
  • Obtain the position and shape of the moving object analyze the speed and moving direction of the moving object from the history of the position of the moving object, determine the type of the moving object from the shape of the moving object, and determine the position, speed, and movement of the moving object. Based on the direction and the type, a notification unit that notifies information is selected from a plurality of notification units. Thus, information can be accurately and efficiently notified for each type of the moving object.
  • a plurality of notification units are arranged at different positions. As a result, information can be notified to the moving body from the optimum location.
  • the time when the moving body passes through the notification unit is estimated, and the moving body is passed by the moving body at the time when it is estimated that the moving body passes through the notification unit.
  • the content of the information to be notified by the subsequently selected notification unit is switched.
  • a notification unit that notifies information according to the shape or type of the moving object. Accordingly, it is possible to select the most appropriate notifying unit for notifying the information by displaying in response to the fact that the field of view of the driver or the like driving the moving object differs depending on the type and shape of the moving object.
  • the content of information to be notified by the notification unit is switched according to the shape or type of the moving object. Thereby, information of appropriate contents can be reported for each moving object.
  • the position of the moving body is obtained from the rider, and the shape of the moving body is obtained from the camera. As a result, information can be notified more accurately and efficiently for each type of moving object.
  • the present invention is not limited to the above embodiment.
  • a part or all of the processing executed by the program in the embodiment may be replaced with hardware such as a circuit and executed.
  • the program may be stored in a recording medium such as a CD-ROM and used.
  • 10 information reporting system 100 information notification device, 111 acquisition unit, 112 analysis unit, 113 discriminator, 114 selection section, 200 measuring devices, 210 riders, 220 cameras, 300 notification unit, 310A, 310B, 310C, 310D speakers, 320A, 320B electric bulletin board, 330A, 330B electric bulletin board, 340A, 340B Compound notification unit.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

【課題】移動体の種別ごとに正確かつ効率よく情報を報知できる情報報知装置を提供する。 【解決手段】所定の領域に進入した移動体の位置および形状の情報を取得する取得部と、取得された移動体の位置の履歴に基づいて、移動体の速度と移動方向とを解析する解析部と、取得された移動体の形状の情報に基づいて、移動体の種別を判別する判別部と、取得された移動体の位置、解析された移動体の速度および移動方向、ならびに判別された移動体の種別、に基づいて、複数の報知部の中から情報を報知させる報知部を選択する選択部と、を有する。

Description

情報報知装置、情報報知装置用プログラム、および情報報知システム
 本発明は、情報報知装置、情報報知装置用プログラム、および情報報知システムに関する。
 車両や通行者等の移動体を検知して、進入禁止道路や立入禁止領域等の所定の範囲に入る移動体に対し、音響、音声、光の点灯もしくは点滅、文字または画像の表示、または振動等によって報知する技術が知られている。
 このような技術に関連して、下記特許文献1には次の技術が開示されている。音声警告装置に備えられた赤外線センサー等による検知信号に基づいて、音声警告装置から一定範囲内に入った通行人を検知し、検出信号に基づいてスピーカーから音声メッセージを出力する。
 また、特許文献2には次の技術が開示されている。マイクロ波等を利用したドップラー方式の複数のレーダーにより、移動体の絶対距離、速度および移動方向をそれぞれ計測する。計測した移動体の速度に基づいて移動体が車両等であると判断した場合等に、各レーダーに対応する報知部からそれぞれ速度に応じた内容等を報知する。
特開平9-105116号公報 特開2004-192097号公報
 しかし、特許文献1に記載された先行技術は、赤外線センサー等による検知信号に基づいて、所定の範囲内に物体が存在するかどうかにより所定の範囲内に入った通行人を検知するため、本来検知対象としない移動体にも不必要な報知をしてしまうという問題がある。
 特許文献2に記載された先行技術は、移動体の速度に基づいて移動体の種別を判断し、所定の種別である場合に移動体に報知するため、不必要な報知をある程度は低減できる。しかし、移動体の種別の判断を、移動体の速度のみに基づいて行うため、例えば歩行者と徐行する自動車を判別することができない。したがって、正確に、所定の種別に対して情報を報知できないという問題がある。
 また、特許文献1、2に記載された先行技術は、移動体の種別ごとに、複数の報知部の中から適切な報知部を選択できないという問題もある。
 本発明は、このような問題を解決するためになされたものである。すなわち、移動体の種別ごとに正確かつ効率よく情報を報知できる情報報知装置、情報報知装置用プログラム、および情報報知システムを提供することを目的とする。
 本発明の上記課題は、以下の手段によって解決される。
 (1)所定の領域内の移動体の位置および形状の情報を取得する取得部と、前記取得部により取得された前記移動体の位置の履歴に基づいて、前記移動体の速度および移動方向を解析する解析部と、前記取得部により取得された前記移動体の形状の情報に基づいて、前記移動体の種別を判別する判別部と、前記取得部により取得された前記移動体の位置、前記解析部により解析された前記移動体の速度および移動方向、ならびに前記判別部により判別された前記移動体の種別、に基づいて、複数の報知部の中から情報を報知させる前記報知部を選択する選択部と、を有する情報報知装置。
 (2)前記選択部は、互いに異なる位置に配置された複数の前記報知部の中から情報を報知させる前記報知部を選択する、上記(1)に記載の情報報知装置。
 (3)前記選択部は、前記取得部により取得された前記移動体の位置、ならびに前記解析部により解析された前記移動体の速度および移動方向に基づいて、前記移動体が前記報知部を通過する時間を推定し、前記移動体が前記報知部を通過すると推定される時間に前記移動体に通過される前記報知部を、前記移動体へ情報を報知させる前記報知部として選択する、上記(1)または(2)に記載の情報報知装置。
 (4)前記選択部は、前記報知部に前記情報を報知させた後の前記移動体の移動方向に基づいて、その後に選択する前記報知部に報知させる前記情報の内容を切り替える、上記(3)に記載の情報報知装置。
 (5)前記選択部は、前記移動体の形状または種別に合わせて、前記情報を報知させる前記報知部を選択する、上記(1)~(4)のいずれかに記載の情報報知装置。
 (6)前記選択部は、前記移動体の形状または種別に合わせて、前記報知部に報知させる前記情報の内容を切り替える、上記(1)~(5)のいずれかに記載の情報報知装置。
 (7)前記取得部は、測距点群データにより前記移動体の位置および形状の情報を取得する、上記(1)~(6)のいずれかに記載の情報報知装置。
 (8)前記取得部は、測距点群データにより前記移動体の位置を取得し、撮影された画像により前記移動体の形状の情報を取得する、上記(1)~(6)のいずれかに記載の情報報知装置。
 (9)前記報知部は、音声発生装置、照明装置、および表示装置の少なくともいずれかを有する、上記(1)~(8)のいずれかに記載の情報報知装置。
 (10)所定の領域内の移動体の位置および形状を測定する測定部と、上記(1)~(9)のいずれかに記載の情報報知装置と、を有する情報報知システムであって、前記取得部は、前記測定部から、前記所定の領域内の前記移動体の位置および形状の情報を取得する、情報報知システム。
 (11)移動体の位置および形状の情報を取得する取得部を有する情報報知装置の制御プログラムであって、所定の領域内の前記移動体の位置および形状の情報を前記取得部により取得する手順(a)と、手順(a)において取得された前記移動体の位置の履歴に基づいて、前記移動体の速度および移動方向を解析する手順(b)と、前記手順(a)において取得された前記移動体の形状の情報に基づいて、前記移動体の種別を判別する手順(c)と、前記手順(a)において測定された前記移動体の位置、前記手順(b)において解析された前記移動体の速度および移動方向、ならびに前記手順(c)において判別された前記移動体の種別、に基づいて、複数の報知部の中から前記移動体へ情報を報知させる前記報知部を選択する手順(d)と、をコンピューターに実行させるための情報報知装置用プログラム。
 (12)前記手順(d)は、互いに異なる位置に配置された複数の前記報知部の中から情報を報知させる前記報知部を選択する、上記(11)に記載の情報報知装置用プログラム。
 (13)前記手順(d)は、前記手順(a)において取得された前記移動体の位置、ならびに前記手順(b)において解析された前記移動体の速度および移動方向に基づいて、前記移動体が前記報知部を通過する時間を推定し、前記移動体が前記報知部を通過すると推定される時間に前記移動体に通過される前記報知部を、前記移動体へ情報を報知させる前記報知部として選択する、上記(11)または(12)に記載の情報報知装置用プログラム。
 (14)前記手順(d)は、前記報知部に前記情報を報知させた後の前記移動体の移動方向に基づいて、前記報知部に報知させる前記情報の内容を切り替える、上記(13)に記載の情報報知装置用プログラム。
 (15)前記手順(d)は、前記移動体の形状または種別に合わせて、前記情報を表示することで報知させる前記報知部を選択する、上記(11)~(14)のいずれかに記載の情報報知装置用プログラム。
 (16)前記手順(d)は、前記移動体の形状または種別に合わせて、前記報知部に報知させる前記情報の内容を切り替える、上記(11)~(15)のいずれかに記載の情報報知装置用プログラム。
 (17)前記手順(a)は、測距点群データにより前記移動体の位置および形状を取得する、上記(11)~(16)のいずれかに記載の情報報知装置用プログラム。
 (18)前記手順(a)は、測距点群データにより前記移動体の位置を取得し、撮影された画像により前記移動体の形状を取得する、上記(11)~(16)のいずれかに記載の情報報知装置用プログラム。
 (19)前記報知部は、音声発生装置、照明装置、および表示装置の少なくともいずれかを有する、上記(11)~(18)のいずれかに記載の情報報知装置用プログラム。
 (20)所定の領域内の移動体の位置および形状を測定する測定部と、前記測定部により測定された前記移動体の位置の履歴に基づいて、前記移動体の速度および移動方向を解析する解析部と、前記測定部により測定された前記移動体の形状に基づいて、前記移動体の種別を判別する判別部と、前記所定の領域内の前記移動体に情報をそれぞれ報知する複数の報知部と、前記測定部により測定された前記移動体の位置、前記解析部により解析された前記移動体の速度および移動方向、ならびに前記判別部により判別された前記移動体の種別、に基づいて、複数の報知部の中から前記移動体へ情報を報知させる前記報知部を選択する選択部と、を有する情報報知システム。
 移動体の位置および形状を取得し、移動体の位置の履歴から移動体の速度および移動方向を解析し、移動体の形状から移動体の種別を判別するとともに、移動体の位置、速度、移動方向、および種別に基づいて、複数の報知部の中から情報を報知する報知部を選択する。これにより、移動体の種別ごとに正確かつ効率よく情報を報知できる。
情報報知装置を含む情報報知システムの構成を示すブロック図である。 情報報知装置のハードウェア構成を示すブロック図である。 ライダーの簡略構成を示す断面図である。 監視領域内をライダーにより走査する状態を説明する説明図である。 第1実施形態に係る情報処理装置の作用を説明するための説明図である。 第1実施形態に係る情報報知装置の動作を示すフローチャートである。 第2実施形態に係る情報処理装置の作用を説明するための説明図である。 第3実施形態に係る情報処理装置の作用を説明するための説明図である。 第3実施形態に係る情報報知装置の動作を示すフローチャートである。 第4実施形態に係る情報処理装置の作用を説明するための説明図である。 第4実施形態に係る情報報知装置の動作を示すフローチャートである。 第5実施形態に係る情報処理装置の作用を説明するための説明図である。 第5実施形態に係る情報報知装置の動作を示すフローチャートである。 第5実施形態に係る情報報知装置の動作を示すフローチャートである。
 以下、図面を参照して、本発明の実施形態に係る情報報知装置、情報報知装置用プログラム、および情報報知システムについて説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
 (第1実施形態)
 図1は、情報報知装置を含む情報報知システムの構成を示すブロック図である。図2は、情報報知装置のハードウェア構成を示すブロック図である。
 情報報知システム10は、情報報知装置100、測定装置(測定部)200、および複数の報知部(第1報知部~第n報知部)300を有する。報知部300の数は、後述する監視領域610(図5参照)の広さ等に応じて、任意の数nとし得る。情報報知装置100は、測定装置200および複数の報知部300と互いに通信可能に接続されている。なお、情報報知装置100と各報知部300との通信は、有線で行っても、無線で行ってもよい。
 (情報報知装置)
 情報報知装置100は、コンピューターにより構成され、制御部110、記憶部120、通信部130、および操作表示部140を有する。制御部110および通信部130は取得部111を構成する。また、制御部110は、解析部112、判別部113、および選択部114を構成する。
 制御部110は、CPU(Central Processing Unit)により構成され、プログラムに従って情報報知装置100の各部の制御および演算処理を行う。制御部110の作用については後述する。
 記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、およびSSD(Solid State Drive)により構成され得る。RAMは、制御部110の作業領域として一時的にプログラムやデータを記憶する。ROMは、予め各種プログラムや各種データを格納する。SSDは、オペレーションシステムを含む各種プログラムおよび各種データを格納する。
 通信部130は、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いられ得る。その他、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースが用いられ得る。
 通信部130は、測定装置200から、測定装置200により計測された計測データを受信する。計測データには、後述するように、ライダー(LiDAR:Light Detection and Ranging)により計測された測距点群データである距離画像と、カメラにより撮影された画像(以下、「撮影画像」と称する)とが含まれる。
 操作表示部140は、例えば、キーボードおよびディスプレイ、またはタッチパネルにより構成され、各種操作および入力を受け付けるとともに、各種情報を表示する。
 (測定装置)
 測定装置200は、例えば、ライダー210およびカメラ220により構成される。測定装置200は、ライダー210のみにより構成されてもよい。カメラ220は、例えば、可視光カメラにより構成される。カメラ220は、サーマルカメラにより構成されてもよい。以下、説明を簡単にするために、測定装置200はライダー210およびカメラ220により構成されるものとして説明する。
 測定装置200は、ライダー210により、3次元の距離画像(測距点群データ)を計測する。測定装置200は、カメラ220により撮影画像を撮影する。
 測定装置200は、移動体の進入を監視する監視領域610(図5参照)に対し、ライダー210による距離画像と、カメラ220による撮影画像とを、計測データとして測定する。監視領域(所定の領域)610は、ライダー210による距離画像の測定領域と、カメラ220による撮影画像の撮影範囲の重複範囲とし得る。監視領域610には、高速道路等の人の進入が禁止された道路、特定の車両のみが進入可能な専用道路、すべての移動体の立ち入りが禁止された立入禁止区域等、一定の移動体の進入が禁止される所定の領域が広く含まれる。
 図3は、ライダーの簡略構成を示す断面図である。
 ライダー210は、レーザーを出射し、出射されたレーザーが物体に反射して戻ってくるまでの時間を計測して、距離を求める。これを一定範囲内を走査しながら行うことで距離を計測し、距離画像を作成する。
 図3に示す例においては、ライダー210は、傾いた壁面500に取り付けられている。これにより、レーザーの射出方向を、鉛直方向から傾いたZ方向としている。
 ライダー210は、例えば、半導体レーザー50、コリメートレンズ51、ミラーユニット52、レンズ53、フォトダイオード54、処理回路(図示せず)、モータ55、および筐体56を備える。半導体レーザー50は、レーザー光束を出射するパルス式のレーザーである。コリメートレンズ51は、半導体レーザー50からの発散光を平行光に変換する。ミラーユニット52は、コリメートレンズ51で平行光とされたレーザー光を、回転するミラー面により測定領域に向かって走査投光すると共に、対象物からの反射光を反射させる。レンズ53は、ミラーユニット52で反射された対象物からの反射光を集光する。フォトダイオード54は、レンズ53により集光された光を受光する。処理回路は、半導体レーザー50の出射タイミングとフォトダイオード54の受光タイミングとの時間差に応じて距離情報を求める。モータ55は、ミラーユニット52を回転駆動する。筐体56は、これらの構成要素を収容する。フォトダイオード54は、Y方向に並んだ複数の画素を有する。
 半導体レーザー50とコリメートレンズ51とで出射部70を構成し、レンズ53とフォトダイオード54とで受光部80を構成する。
 出射部70、受光部80の光軸は、ミラーユニット52の回転軸57に対して直交していることが好ましい。
 壁面500に固定されたボックス状の筐体56は、上壁58と、これに対向する下壁59と、上壁58と下壁59とを連結する側壁60とを有する。側壁60の一部に開口61が形成され、開口61には透明板62が取り付けられている。
 ミラーユニット52は、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面63、64を4対(ただし4対に限られない)有している。ミラー面63、64は、樹脂素材の表面に、反射膜を蒸着することにより形成されることが好ましい。
 ミラーユニット52は、筐体56に固定されたモータ55の軸65に連結され、回転駆動されるようになっている。図3の例においては、軸65の軸線(回転軸線)が鉛直方向に対して傾いたY方向に延在しており、またY方向に直交するZ方向およびX方向によりなすZX平面が水平面に対して傾いている。
 ライダー210による測距点群データの計測原理について説明する。図3において、半導体レーザー50からパルス状に間欠的に出射された発散光は、コリメートレンズ51で平行光に変換され、回転するミラーユニット52の第1ミラー面63に入射し、ここで反射され、さらに第2ミラー面64で反射した後、透明板62を透過して外部の監視空間(測定領域)に向けて、例えば、縦長の矩形断面を持つレーザースポット光として走査投光される。なお、レーザースポット光が投光される方向と、投光されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向は重複し、この重複する2方向を投受光方向という。同一投受光方向に進行するレーザースポット光束は、同一の画素で検出される。
 図4は、測定領域内をライダーにより走査する状態を説明する説明図である。
 測定領域(以下、「測定空間」とも称する)内の走査は、ミラーユニット52の回転に応じて、出射するレーザースポット光90(ハッチングで示す)で、測定空間内を走査することにより行われる。
 ここで、ミラーユニット52の第1ミラー面63と第2ミラー面64の組み合わせ(対)において、それぞれ交差角が異なっている。
 レーザー光は、回転する第1ミラー面63と第2ミラー面64にて、順次反射される。まず1番対の第1ミラー面63と第2ミラー面64にて反射したレーザー光は、ミラーユニットMUの回転に応じて、測定空間の一番上の領域91を水平方向に左から右へと走査される。
 次に、2番対の第1ミラー面63と第2ミラー面64で反射したレーザー光は、ミラーユニット52の回転に応じて、測定空間の上から2番目の領域92を水平方向に左から右へと走査される。
 次に、3番対の第1ミラー面63と第2ミラー面64で反射したレーザー光は、ミラーユニット52の回転に応じて、測定空間の上から3番目の領域93を水平方向に左から右へと走査される。
 次に、4番対の第1ミラー面63と第2ミラー面64で反射したレーザー光は、ミラーユニット52の回転に応じて、測定空間の最も下の領域94を水平方向に左から右へと走査される。これにより測定空間全体の1回の走査が完了する。
 領域91~94の走査により得られた画像を組み合わせて、1つのフレーム95が得られる。そして、ミラーユニット52が1回転した後、1番対の第1ミラー面63と第2ミラー面64が当初の位置に戻ってくることで、再び監視空間の一番上の領域91から最も下の領域94までの走査を繰り返し、次のフレーム95が得られる。
 図3において、走査投光された光束のうち対象物に当たって反射したレーザー光の一部は、再び透明板62を透過して筐体56内のミラーユニット52の第2ミラー面64に入射し、ここで反射され、さらに第1ミラー面63で反射されて、レンズ53により集光され、それぞれフォトダイオード54の受光面で画素ごとに検知されることとなる。
 さらに、処理回路が、半導体レーザー50の出射タイミングとフォトダイオード54の受光タイミングとの時間差に応じて距離情報を求める。これにより測定空間内の全領域で移動体の検出を行って、画素(測定点)ごとに距離情報(3次元の計測値)を持つ距離画像としてのフレーム95(図4参照)を得ることができる。
 (報知部)
 報知部300は、互いに所定の間隔を空けて複数配置され、独立に情報を発信する。同じ場所に複数の報知部300が配置されてもよい。所定の間隔は、監視領域610における監視対象である移動体の移動速度の範囲等を考慮して任意に設定し得る。例えば、監視対象である移動体が人間の場合、所定の間隔は2mとし得る。報知部300には、例えば、スピーカー等の音声発生装置、警告灯等の照明装置、および電光掲示板等の表示装置が含まれる。報知部300は、監視領域610内の移動体に情報が報知可能な位置および向きに配置される。すなわち、例えば、報知部300がスピーカーである場合は、スピーカーの音の指向範囲の中央が監視領域610を横切るようにスピーカーが配置される。報知部300が電光掲示板であれば、情報が表示される掲示面の中心への垂線が監視領域610を横切るように電光掲示板が配置され得る。また、例えば、監視領域610が道路に設定される場合は、情報が表示される掲示面が当該道路における車両等の進行方向に対向する方向に向くように、電光掲示板が配置されてもよい。
 情報報知装置100の制御部110の作用について説明する。
 制御部110は、上述したように、通信部130とともに取得部111を構成するとともに、解析部112、判別部113、および選択部114を構成する。
 取得部111は、通信部130により、測定装置200からライダー210による距離画像と、カメラ220による撮影画像とを受信する。
 取得部111は、ライダー210による距離画像と、カメラ220による撮影画像とに基づいて、移動体の位置および形状を算出する。これにより、取得部111は、移動体の位置および形状を取得する。なお、形状には、大きさおよび形が含まれる。
 取得部111は、ライダー210により測定された距離画像に基づいて、背景差分法により移動体の位置および大きさを算出する。
 測距点群データに基づく、移動体の位置および大きさの、背景差分法を用いた測定アルゴリズムについて説明する。背景差分法では、予め生成し、保存しておいた背景画像(基準画像ともいう)を用いる。具体的には、測定の前準備(前処理)として、人間や車両等の移動体が存在しない状態で、ライダー210からレーザースポット光90を走査する。これにより背景物から得られた反射光に基づいて、背景画像を得ることができる。実際の測定時においては、背景物の手前に測定対象である移動体が現れた場合、移動体からの反射光が新たに生じる。記憶部120に保持している背景画像と現時点での距離画像とを比較して、差が生じた場合、何らかの移動体が測定空間内に現れたことを認識できる。具体的には、背景差分法を用いて、背景データと、現時点での距離画像とを比較することで、前景データを抽出する。そして抽出した前景データの画素(画素群)を、例えば、画素の距離値に応じてクラスタに分ける。そして、各クラスタのサイズを算出することで移動体の大きさを取得する。クラスタのサイズは、例えば、垂直方向寸法、水平方向寸法、総面積(ピクセル数)等により算出し得る。ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。取得部111は、各クラスタの中心または重心の位置として移動体の位置を取得し得る。現時点とは、種別が判断された時点や、距離等の画像が取得された時点であり、以下では、種別が判断された時点とする。
 取得部111は、カメラ220により撮影された複数の撮影画像から移動体のシルエット(以下、「移動体シルエット」と称する)を検出することで移動体の形状を取得する。移動体シルエットは、例えば、撮影時刻が前後する画像を差分する時間差分により差分が相対的に大きい画素の範囲を抽出することで検出され得る。移動体シルエットは、撮影画像から背景画像を差分する背景差分法により検出されてもよい。
 なお、取得部111は、ライダー210により測定された距離画像を利用して、背景差分法により抽出された前景データのシルエットとして、移動体の形を取得してもよい。この場合は、撮影画像を用いずに、ライダー210により測定された距離画像のみに基づいて移動体の位置および形状が取得され得る。
 解析部112は、距離画像の各フレームから取得された移動体の位置の履歴に基づいて、移動体の速度と移動方向を解析する。撮影時間の異なる複数のフレームから取得された移動体の各位置は、位置の履歴を構成する。解析部112は、フレーム間における移動体の位置の変化量をフレームの時間間隔で除算することにより移動体の速度を解析し得る。解析部112は、フレーム間における移動体の位置の変化方向のベクトルとして移動体の移動方向を解析し得る。移動体の速度と移動方向を解析するために用いる複数のフレームは、連続するフレームであってもよく、ライダー210から出力されたフレームから任意に選択された複数のフレームであってもよい。
 判別部113は、取得部111により取得された移動体の形状に基づいて、移動体の種別を判別する。種別には、人、車両、および人以外の動物の別の他、若者、老人、乗用車、およびトラックの別等が広く含まれる。
 判別部113は、例えば、移動体の形状と種別との組み合せの複数の教師データにより予め学習されたニューラルネットワークを用いて、取得部111により取得された移動体の形状から移動体の種別を判別し得る。具体的には、移動体シルエットと当該移動体シルエットの種別との組み合せの複数の教師データにより予め学習されたニューラルネットワークを用いて、取得部111により取得された移動体シルエットから移動体の種別を判別し得る。なお、判別部113は、ニューラルネットワーク以外の機械学習を用いて、移動体の種別を判別してもよい。
 選択部114は、取得部111により取得された移動体の位置、解析部112により解析された移動体の速度および移動方向、ならびに判別部113により判別された移動体の種別に基づいて、複数の報知部300の中から移動体に対し情報を報知させる報知部300を選択する。すなわち、選択部114は、移動体の位置、速度、移動方向、および種別に基づいて、複数の報知部300の中で、当該移動体に情報を報知するために最適な報知部300を選択し、選択した報知部300に情報を報知させる制御を行う。
 選択部114による報知部300の選択について説明する。
 (第1実施形態)
 本実施形態においては、進入禁止道路に進入した人に対して情報を報知する報知部を選択する。
 図5は、本実施形態に係る情報処理装置の作用である、進入禁止道路に進入した複数の人に対し、複数の報知部の中から、それぞれ情報を報知する報知部を選択する例を説明するための説明図である。図5の例においては、進入禁止道路600は、人の進入が禁止されている道路(例えば、高速道路)である。図6は、進入禁止道路に進入した複数の人に対し、複数の報知部の中から、それぞれ情報を報知する報知部を選択するときの情報報知装置の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムに従い、制御部110により実行される。
 図5の例においては、測定装置200が進入禁止道路600の脇に設置され、監視領域610を画定している。複数の報知部300は、それぞれスピーカー310A~310Dであり、進入禁止道路600の脇に、互いに2mの間隔を空けて、監視領域610に向けてそれぞれ音声により情報を報知するように配置されている。
 図6に示すように、制御部110は、移動体700の検出に基づいて監視領域610を監視する(S101)。すなわち、制御部110は、取得部111により、ライダー210により測定された距離画像に基づいて、背景差分法により移動体700を検出することで監視領域610を監視する。具体的には、背景差分法により距離画像から抽出した前景データから画素の距離値に応じて算出したクラスタのサイズが所定の閾値を超えた場合に、当該クラスタを移動体700として検出することで監視領域610を監視する。所定の閾値は、実験等により任意の閾値に設定し得る。図5のAは、監視領域610に移動体700が進入していない状態を示している。なお、監視領域610に進入した移動体700が人であることを、測定装置200による計測データに基づいて制御部110が検知して(ステップS103参照)から、報知部300を構成するスピーカーから情報が報知(音声が出力)されるまでの時間(以下、「出力所要時間」とも称する)は、例えば、0.5秒である。図5のBは、監視領域610に移動体700であるジョギングする若者701と、高齢者702が進入した状態を示している。制御部110は、監視領域610に移動体700が進入した場合に、監視領域610に進入した移動体700である、若者701および高齢者702を検出する。
 制御部110は、監視領域610において移動体を検出しない場合は(S102:NO)、ステップS101に戻って移動体700の検出に基づく監視領域610の監視を継続する。
 制御部110は、監視領域610において移動体を検出した場合は(S102:YES)、移動体700の位置および形状を取得し(S103)、形状から移動体の種別を判別する(S104)。
 制御部110は、移動体の種別が人ではないと判断した場合は(S105:NO)、ステップS101へ戻り、移動体の検出を継続する。
 制御部110は、移動体700の種別が人であると判断した場合は(S105:YES)、移動体700の位置の履歴から移動体の速度と移動方向を解析する(S106)。
 制御部110は、移動体700の現在の位置、速度、および移動方向から、移動体700が報知部300であるスピーカー310A~310Dを通過する時間を推定する(S107)。ここで、「通過する」とは、報知部300がスピーカー310A~310Dであれば、スピーカーの音の指向範囲内を移動体700が横切ることであり、より具体的には、スピーカーの正面(指向範囲の中央)を横切ることである。また、報知部300が表示装置であれば、同様に表示視野角内、またはその中央を横切ることである。図5のCは、移動体700の種別が人であると判断されてからスピーカー310A~310Dから情報が報知されるまでの時間である0.5秒が経過したときの各移動体700の推定される位置を示す図である。現在(移動体700の種別が人であると判断された時点)の各移動体700の位置は黒のシルエットで示され、現在から0.5秒が経過したときの各移動体700の推定される位置は破線のシルエットで示されている。図5のCの例においては、ジョギングする若者701の位置が、スピーカー310Bとスピーカー310Cの中間の位置と推定され、高齢者702の位置が、いずれのスピーカー310A~310Dにも到達していない位置と推定されている。制御部110は、例えば、若者701がスピーカー310Bおよびスピーカー310Cの中間を通過する時間を、移動体700である若者701の種別が人であると判断されてから0.5秒後であると推定する。制御部110は、例えば、高齢者702がスピーカー310Dを通過する時間を、移動体700である高齢者702の種別が人であると判断されてから1.5秒後であると推定する。
 制御部110は、推定した時間に移動体700に通過されるスピーカー310A~310Dを、情報を報知させるスピーカー310A~310Dとして選択し、選択したスピーカー310A~310Dから音響を発生させることで当該スピーカー310A~310Dを通過する移動体700に対し情報を報知させる(S108)。図5のDは、各移動体に情報を報知するときのスピーカーと移動体の相対位置を示す図である。現在(移動体700の種別が人であると判断された時点)の各移動体700の位置は黒のシルエットで示され、現在から0.5秒が経過したときの若者701の推定される位置、および現在から1.5秒が経過したときの高齢者702の推定される位置は破線のシルエットでそれぞれ示されている。若者701については、種別が人であると判断されてから0.5秒後に若者701に通過されるスピーカー310Bおよびスピーカー310Cを、若者701に情報を報知させるスピーカー310A~310Dとして選択する。そして、種別が人であると判断されてから0.5秒後にスピーカー310Bおよびスピーカー310Cに情報を報知させる。これにより、若者701がスピーカー310A~310Dに最も近づくタイミングで、若者701に最も近いスピーカー310Bおよびスピーカー310Cから若者701に情報を報知できる。高齢者702については、種別が人であると判断されてから1.5秒後に高齢者702に通過されるスピーカー310Dを、高齢者702に情報を報知させるスピーカー310A~310Dとして選択する。そして、種別が人であると判断されてから1.5秒後にスピーカー310Dに情報を報知させる。これにより、高齢者702がスピーカー310A~310Dに最も近づくタイミングで、高齢者702に最も近いスピーカー310Dから高齢者702に情報を報知できる。スピーカー310A~310Dから若者701および高齢者702にそれぞれ報知される情報としては、例えば、「この道路への進入は禁止されています。速やかに道路から退出してください。」等が考えられる。
 (第2実施形態)
 本実施形態においては、進入禁止道路に進入した車両に対して種別ごとに情報を報知する報知部を選択する。
 図7は、本実施形態に係る情報処理装置の作用である、進入禁止道路に進入した車両に対し、複数の報知部の中から、車両の種別ごとに情報を報知する報知部を選択する例を説明するための説明図である。図7の例においては、進入禁止道路は、車両の進入が禁止されている道路(例えば、歩行者専用道路)である。
 図7の例においては、複数の報知部300は、進入禁止道路(図示せず)の脇等に設けられた柱に設置された電光掲示板320Aと電光掲示板320Bである。電光掲示板320Aは電光掲示板320Bよりも高い位置に設置されている。電光掲示板320Aおよび電光掲示板320Bは、それぞれ情報を文字により報知する。
 図7のAにおいては、進入禁止道路に設定された監視領域610において検知された移動体700の種別がトラック等の大型車両であると判断された場合に、2つの電光掲示板320A、320Bの中から電光掲示板320Aを、情報を報知する報知部300として選択している。これにより、大型車両の運転席の位置が比較的高い位置にあることから、大型車両の運転手の視野に入りやすい、比較的高い位置に配置された電光掲示板320Aから情報が報知されることで、運転手に効率的に情報を報知できる。図7の例においては、電光掲示板320Aに「注意」という文字の情報が表示されることで、進入禁止道路への進入禁止を警告するための情報が報知されている。
 図7のBにおいては、監視領域610において検知された移動体700の種別が普通自動車等の小型車両であると判断された場合に、2つの電光掲示板320A、320Bの中から電光掲示板320Bを、情報を報知する報知部300として選択している。これにより、小型車両の運転席の位置が比較的低い位置にあることから、小型車両の運転手の視野に入りやすい、比較的低い位置に配置された電光掲示板320Bから情報が報知されることで、運転手に効率的に情報を報知できる。
 なお、監視領域610が設定される進入禁止道路600は、例えば、大型自動車専用道路等のように、車両の種別ごとに進入の可否が設定された道路であってもよい。この場合、車両の種別ごとに情報を報知する報知部300を選択するとともに、選択された報知部300に表示させる情報の内容を切り替え得る。例えば、大型自動車専用道路に設定された監視領域610に進入した移動体700の種別が大型車両であると判断された場合は、電光掲示板320Aに、「通行可」等の文字を青色で表示することにより通行可能という情報を報知する。一方、監視領域610に進入した移動体700の種別が小型車両であると判断された場合は、電光掲示板320Bに、「注意(または通行禁止)」等の文字を赤色で表示することにより通行禁止という情報を報知する。
 また、進入禁止道路600は、例えば、あらかじめ許可された許可車両のみが進入可能な一般車両進入禁止道路であってもよい。この場合、例えば、電光掲示板320A、320Bに、許可車両からの無線信号を受信可能な無線通信装置を設けるとともに、許可車両に認証情報を無線送信する送信装置を設ける。そして、電光掲示板320A、320Bが許可車両から認証情報を受信することで、当該許可車両に対してのみ、いずれかの電光掲示板320A、320Bに「通行可」等の文字を青色で表示することにより通行可能という情報を報知し、認証情報を発信しない移動体700に対しては、いずれかの電光掲示板320A、320Bに「注意(または通行禁止)」等の文字を赤色で表示することにより通行禁止という情報を報知してもよい。
 また、検知された、移動体700の形状に合わせて2つの電光掲示板320A、320Bのうちいずれかを情報を報知する電光掲示板320A、320Bとして選択するようにしてもよい。例えば、トラック等のように車高の高い形状の移動体700に対しては、比較的高い位置に配置された電光掲示板320Aから情報を報知するようにし得る。普通自動車のように車高の低い形状の移動体700に対しては、比較的低い位置に配置された電光掲示板320Bから情報を報知するようにし得る。
 (第3実施形態)
 本実施形態においては、進入禁止道路に進入した移動体に対して情報を報知する報知部を選択するとともに移動体の種別ごとに報知する情報を切り替える。
 図8は、本実施形態に係る情報処理装置の作用である、進入禁止道路に進入した移動体に対し、複数の報知部の中から、それぞれ情報を報知する報知部を選択するとともに、報知する情報の内容を切り替える例を説明するための説明図である。図8の例においては、進入禁止道路は、車両および人の進入が禁止されている道路(例えば、工事中の道路)である。図9は、進入禁止道路に進入した移動体に対し、複数の報知部の中から、それぞれ情報を報知する報知部を選択するとともに、報知する情報の内容を切り替えるときの情報報知装置の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムに従い、制御部110により実行される。
 図8の例においては、測定装置200が進入禁止道路600の脇に設置され、監視領域610を画定している。複数の報知部300は、それぞれ電光掲示板330A、330Bであり、進入禁止道路600の脇に、任意の間隔を空けて、文字により情報を報知するように配置されている。
 図9のステップS201~S204は、図6のステップS101~S104と同様であるので重複する説明を省略または簡略化する。
 制御部110は、移動体700の検出に基づいて監視領域610を監視する(S201)。図8のAは、監視領域610に移動体700が進入していない状態を示している。
 制御部110は、監視領域610において移動体700を検出しない場合は(S202:NO)、ステップS201に戻って移動体700の検出を継続する。
 制御部110は、監視領域610において移動体700を検出した場合は(S202:YES)、移動体700の位置および形状を取得し(S203)、形状から移動体の種別を判別する(S204)。図8のBは、監視領域610に移動体700であるジョギングする若者701と、車両703が進入した状態を示している。図8のBの例においては、移動体700の種別として、それぞれ人(または若者)701および車両703と判別される。
 制御部110は、移動体700の種別が人および車両ではないと判断した場合は(S205:NO)、ステップS201へ戻り、移動体700の検出を継続する。ステップS205において、移動体700の種別が人および車両ではないと判断される場合には、例えば、移動体700が人以外の動物である場合が考えられる。
 制御部110は、移動体700の種別が人または車両であると判断した場合は(S205:YES)、移動体700の位置の履歴から移動体の速度と移動方向を解析する(S206)。
 制御部110は、移動体700の現在の位置、速度、および移動方向から、移動体700が表示板303を通過する時間を推定する(S207)。図8のCには、車両703が電光掲示板330Aを通過する時間に電光掲示板330Aにより車両703に対し情報を報知する状態が示されている。また、若者701が電光掲示板330Bを通過する時間に電光掲示板330Bにより若者701に対し情報を報知する状態が示されている。なお、図8においては、説明を簡単にするために、便宜的に、2つの電光掲示板330A、330Bに同時に情報が表示されている状態が示されている。
 制御部110は、各電光掲示板330A、330Bを通過する移動体700の種別が人かどうかを判断する(S208)。制御部110は、電光掲示板330A、330Bを通過する移動体700の種別が人であると判断した場合は(S208:YES)、移動体700である人(若者)701に通過される電光掲示板330Bを情報を報知させる電光掲示板330A、330Bとして選択する。そして、選択した電光掲示板330Bが当該人に通過されると推定される時間に人に対する情報を報知する(S209)。図8のCの例においては、若者701に電光掲示板330Bが通過されると推定される時間に、人の立ち入りを禁止を示すマークとともに、「入らないでください!」という文字の情報が電光掲示板330Bに表示されることで若者701に当該情報が報知されている。
 制御部110は、電光掲示板330A、330Bを通過する移動体700の種別が人ではない(すなわち、車両である)と判断した場合は(S208:NO)、移動体700である車両703に通過される電光掲示板330Aを情報を報知させる電光掲示板330A、330Bとして選択する。そして、選択した電光掲示板330Aが当該車両に通過されると推定される時間に車両703に対する情報を報知する(S210)。図8のCの例においては、車両703に電光掲示板330Aが通過されると推定される時間に、「車両進入禁止!」という文字の情報が電光掲示板330Aに表示されることで車両703に当該情報が報知されている。
 なお、図9の例においては、移動体700の種別により、電光掲示板330A、330Bを通過する移動体700へ表示する情報の内容を切り替えているが、移動体700の形状により、電光掲示板330A、330Bを通過する移動体700へ表示する情報の内容を切り替えてもよい。すなわち、移動体700の種別を判断することに代えて、大きさが所定の閾値以下の比較的小さい移動体700に対しては、人であると推定して、人の立ち入りを禁止を示すマークを表示することで情報を報知し得る。また、大きさが所定の閾値を超える比較的大きい移動体700に対しては、車両であると推定して、「車両進入禁止!」の文字を表示することで情報を報知し得る。所定の閾値は実験により適当な値に設定し得る。
 (第4実施形態)
 本実施形態においては、進入禁止道路に進入した移動体に対して情報を報知する報知部を選択するとともに報知する情報を移動体の移動方向によって切り替える。
 図10は、本実施形態に係る情報処理装置の作用である、進入禁止道路に進入した移動体に対し、複数の報知部の中から、それぞれ情報を報知する報知部を選択するとともに、報知する情報を移動体の移動方向によって切り替える例を説明するための説明図である。図10の例においては、進入禁止道路600は、人の進入が禁止されている道路(例えば、高速道路)である。図11は、進入禁止道路に進入した移動体に対し、複数の報知部の中から、それぞれ情報を報知する報知部を選択するとともに、報知する情報の内容を切り替えるときの情報報知装置の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムに従い、制御部110により実行される。
 図10の例においては、測定装置200が進入禁止道路600の脇に設置され、監視領域610を画定している。報知部300を構成する複数のスピーカー310A~310Dは、進入禁止道路600の脇に、互いに2mの間隔を空けて、監視領域610に向けてそれぞれ音声により情報を報知するように配置されている。
 図11のステップS301~S304は、図6のステップS101~S104と同様であるので重複する説明を省略または簡略化する。
 制御部110は、移動体700の検出に基づいて監視領域610を監視する(S301)。
 制御部110は、監視領域610において移動体700を検出しない場合は(S302:NO)、ステップS301に戻って移動体700の検出を継続する。
 制御部110は、監視領域610において移動体700を検出した場合は(S302:YES)、移動体700の位置および形状を取得し(S303)、形状から移動体の種別を判別する(S304)。図10のAは、監視領域610に移動体700である高齢者702が進入した状態を示している。図10のAの例においては、移動体700の種別として、それぞれ人(または高齢者)と判別される。
 制御部110は、移動体700の種別が人ではないと判断した場合は(S305:NO)、ステップS301へ戻り、移動体700の検出を継続する。
 制御部110は、移動体700の種別が人であると判断した場合は(S305:YES)、移動体700の位置の履歴から移動体700の速度と移動方向を解析する(S306)。
 制御部110は、移動体700の現在の位置、速度、および移動方向から、移動体700がスピーカー310A~310Dを通過する時間を推定する(S307)。
 制御部110は、推定した時間に移動体700に通過されるスピーカー310A~310Dを、情報を報知させるスピーカー310A~310Dとして選択する。そして、選択したスピーカー310A~310Dから音響を発生させることで当該スピーカー310A~310Dを通過する移動体700に対し警告の情報を報知させる(S308)。図10のBの例においては、スピーカー310Dを高齢者702が通過すると推定された時間に、選択されたスピーカー310Dから警告の情報が報知されることでスピーカー301Dを通過する高齢者702に警告の情報が報知されている。スピーカー310Dから高齢者702に報知される警告の情報としては、例えば、「入らないでください!」等が考えられる。
 制御部110は、移動体700の移動方向が進入禁止道路600からの退出方向かどうか判断する(S309)。制御部110は、移動体700の移動方向が退出方向でないと判断した場合は(S309:NO)、ステップS308に移行する。すなわち、制御部110は、移動体700の現在の位置、速度、および移動方向から、移動体700がスピーカー310A~310Dを通過する時間をさらに推定する。そして、推定した時間に移動体700に通過されるスピーカー310A~310Dを、情報を報知させるスピーカー310A~310Dとして選択する。そして、選択したスピーカー310A~310Dから当該スピーカー310A~310Dを通過する移動体700に対しさらに警告の情報を報知する(S308)。移動体700の移動方向が退出方向でない場合は、スピーカー310A~310Dから報知した警告の情報が移動体700に伝わっていないと考えられるため、移動体700に対し、再度警告の情報を報知する必要があるからである。
 制御部110は、移動体700の移動方向が退出方向であると判断した場合は(S309:YES)、移動体700の現在の位置、速度、および移動方向から、移動体700がスピーカー310A~310Dを通過する時間をさらに推定する(S310)。
 その後、制御部110は、推定した時間に移動体700に通過されるスピーカー310A~310Dを、誘導の情報を報知させるスピーカー310A~310Dとして選択する。そして、選択したスピーカー310A~310Dから当該スピーカー310A~310Dを通過する移動体700に対し、報知する情報を誘導の情報に切り替えて報知させる(S311)。移動体700の移動方向が退出方向である場合は、スピーカー310A~310Dから報知した警告の情報が移動体700に伝わっていると考えられる。従って、移動体700に対し誘導の情報を報知して、移動体700に現在の移動方向への移動を継続させることにより、進入禁止道路600からの退出を促すことができる。図10のCの例においては、高齢者702が退出方向(矢印の方向)へ向かって移動し、スピーカー310Bを高齢者702が通過すると推定された時間に、選択されたスピーカー310Bから誘導の情報が報知されることでスピーカー310Bを通過する高齢者702に誘導の情報が報知されている。スピーカー310Bから高齢者702に報知される誘導の情報としては、例えば、「そのまま進んでください!」等が考えられる。
 (第5実施形態)
 本実施形態においては、進入禁止道路に進入した移動体に対して情報を報知する、複数の報知部の組み合せからなる複合報知部を選択するとともに、移動体の種別に合わせて、複合報知部に含まれる報知部の中から、情報を報知する報知部を選択し、かつ報知する情報を切り替える。
 図12は、本実施形態に係る情報処理装置の作用である、進入禁止道路に進入した移動体に対し、情報を報知する複数の複合報知部の中から情報を報知させる複合報知部を選択するとともに、移動体の種別に合わせて、複合報知部に含まれる報知部の中から情報を報知する報知部を変え、かつ報知する情報を切り替える例を説明するための説明図である。複合報知部は複数の報知部300を構成する。図12の例においては、進入禁止道路600は、車両および人の進入が禁止されている道路(例えば、工事中の道路)である。図13A、図13Bは、進入禁止道路に進入した移動体に対し、情報を報知する複数の複合報知部の中から情報を報知させる複合報知部を選択するとともに、移動体の種別ごとに、複合報知部に含まれる報知部の中から情報を報知する報知部を変え、かつ報知する情報を切り替えるときの情報報知装置の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムにしたがい、制御部110により実行される。
 図12の例においては、測定装置200が進入禁止道路600の脇に設置され、監視領域610を画定している。複数の複合報知部340A、340Bは、例えば、それぞれ電光掲示板、スピーカー、および警告灯のセットであり、進入禁止道路600の脇に、任意の間隔を空けて配置されている。電光掲示板は文字により情報を報知し、スピーカーは音響により情報を報知し、警告灯は発光することにより情報を報知する。警告灯は、発光することで、例えば、警告という情報を報知できる。
 図13AのステップS401~S404は、図6のステップS101~S104と同様であるので重複する説明を省略または簡略化する。
 制御部110は、移動体700の検出に基づいて監視領域610を監視する(S401)。図12のAは、監視領域610に移動体700が進入していない状態を示している。
 制御部110は、監視領域610において移動体700を検出しない場合は(S402:NO)、ステップS401に戻って移動体700の検出を継続する。
 制御部110は、監視領域610において移動体700を検出した場合は(S402:YES)、移動体700の位置および形状を取得し(S403)、形状から移動体の種別を判別する(S404)。図12のBは、監視領域610に移動体700であるジョギングする若者701と、車両703が進入した状態を示している。図12のBの例においては、移動体700の種別として、それぞれ人(または若者)701および車両703と判別される。
 制御部110は、移動体700の種別が人および車両ではないと判断した場合は(S405:NO)、ステップS401へ戻り、移動体700の検出を継続する。ステップS405において、移動体700の種別が人および車両ではないと判断される場合には、例えば、移動体700が人以外の動物である場合がある。
 制御部110は、移動体700の種別が人または車両であると判断した場合は(S405:YES)、移動体700の位置の履歴から移動体の速度と移動方向を解析する(S406)。
 制御部110は、移動体700の現在の位置、速度、および移動方向から、移動体700が複合報知部340A、340Bを通過する時間を推定する(S407)。以下、説明を簡単にするために、若者701が複合報知部340Bを通過する時間を推定して複合報知部340Bにより若者701に情報を報知し、車両703が、複合報知部340Aを通過する時間を推定して複合報知部340Aにより車両703に情報を報知するものとして説明する。なお、いずれの複合報知部340A、340Bによりいずれの移動体700に情報を報知するかは、次の条件を満たすように決定し得る。すなわち、移動体700の種別が判断されてから複合報知部340A、340Bを移動体700が通過する時間が、移動体700の種別が判断されてから複合報知部340A、340Bから情報を報知されるまでの出力所要時間以上になるように決定し得る。加えて、報知するまでの時間が最も短くなるように決定し得る。
 制御部110は、移動体700の種別が人であると判断した場合は(S408:YES)、移動体700に通過される複合報知部340Bを情報を報知させる複合報知部340A、340Bとして選択する。さらに、制御部110は、複合報知部340Bの電光掲示板、スピーカー、および警告灯を情報を報知される報知部300として選択する。すなわち、移動体700の種別である人に情報を報知するのに適した、電光掲示板、スピーカー、および警告灯を情報を報知する報知部300として選択する。そして、選択した複合報知部340Bが当該人に通過されると推定される時間に、複合報知部340Bの電光掲示板、スピーカー、および警告灯により人に対する情報を報知する(S409)。図12のCの例においては、人である若者701に複合報知部340Bが通過されると推定される時間に、人の立ち入りを禁止を示すマークとともに、「入らないでください!」という文字が複合報知部340Bの電光掲示板に表示されることで若者701に情報が報知される。スピーカーから「入らないでください!」という音声により情報の報知がなされる。さらに、警告灯が発光することで警告の情報の報知がなされる。
 制御部110は、複合報知部340A、340Bを通過する移動体700の種別が人ではない(すなわち、車両である)と判断した場合は(S408:NO)、移動体700に通過される複合報知部340Aを情報を報知させる複合報知部340A、340Bとして選択する。そして、選択した複合報知部340Aが当該車両703に通過されると推定される時間に、複合報知部340Aの電光掲示板および警告灯により車両703に対する情報を報知する(S410)。すなわち、移動体700の種別である車両703に情報を報知するのに適した、電光掲示板および警告灯を情報を報知する報知部300として選択し、選択された電光掲示板および警告灯により車両703に情報を報知する。図12のCの例においては、車両703に複合報知部340Aが通過されると推定される時間に、「車両進入禁止!」という文字が複合報知部340Aに表示されることで情報が報知される。さらに、警告灯が発光することで警告の情報の報知がされる。車両703に対する情報の報知においては、スピーカーによる報知は行わない。これは、スピーカーによる報知は、歩行者等に対しては比較的小さい音量でも有効である一方、走行中の車両内で音楽等を聴きながら運転することが多い運転手等に対して有効に情報を報知するためには、スピーカーの音量を上げる必要があり、騒音の問題が生じるからである。
 本発明に係る実施形態は、以下の効果を奏する。
 移動体の位置および形状を取得し、移動体の位置の履歴から移動体の速度および移動方向を解析し、移動体の形状から移動体の種別を判別するとともに、移動体の位置、速度、移動方向、および種別に基づいて、複数の報知部の中から情報を報知する報知部を選択する。これにより、移動体の種別ごとに正確かつ効率よく情報を報知できる。
 さらに、複数の報知部を互いに異なる位置に配置する。これにより、最適の場所から移動体に対し情報を報知できる。
 さらに、移動体の位置、ならびに移動体の速度および移動方向に基づいて、移動体が報知部を通過する時間を推定し、移動体が報知部を通過すると推定される時間に移動体に通過される報知部を、移動体へ情報を報知させる報知部として選択する。これにより、移動体が最も近づいた報知部から移動体に情報を報知できる。
 さらに、報知部に情報を報知させた後の移動体の移動方向に基づいて、その後に選択する報知部に報知させる情報の内容を切り替える。これにより、報知した情報が移動体に認識されたかどうかによって、移動体に対し警告を継続するか、所定の領域外への誘導を行うかを切り替えることで、移動体に所定の領域外への退出を効果的に促すことができる。
 さらに、移動体の形状または種別に合わせて、情報を報知させる報知部を選択する。これにより、移動体の種別や形状により移動体を運転する運転手等の視界が異なることに対応して、情報を表示により報知するのに最適な報知部を選択できる。
 さらに、移動体の形状または種別に合わせて、報知部に報知させる情報の内容を切り替える。これにより、移動体ごとに適切な内容の情報を報知できる。
 さらに、ライダーから移動体の位置および形状を取得する。これにより、比較的簡単な構成で、移動体の種別ごとに正確かつ効率よく情報を報知できる。
 さらに、ライダーから移動体の位置を取得し、カメラから前記移動体の形状を取得する。これにより、移動体の種別ごとに、より正確かつ効率よく情報を報知できる。
 さらに、報知部を、音声発生装置、照明装置、および表示装置の少なくともいずれかで構成する。これにより、移動体の種別ごとに効果的に情報を報知できる。
 本発明は上述した実施形態に限定されない。
 例えば、実施形態においてプログラムにより実行される処理の一部または全部を回路などのハードウェアに置き換えて実行されてもよい。
 また、プログラムは、CD-ROM等の記録媒体に記憶されて利用されてもよい。
 本出願は、2018年7月6日に出願された日本特許出願(特願2018-129138号)に基づいており、その開示内容は、参照され、全体として、組み入れられている。
  10  情報報知システム、
  100  情報報知装置、
  111  取得部、
  112  解析部、
  113  判別部、
  114  選択部、
  200  測定装置、
  210  ライダー、
  220  カメラ、
  300  報知部、
  310A、310B、310C、310D  スピーカー、
  320A、320B  電光掲示板、
  330A、330B  電光掲示板、
  340A、340B  複合報知部。
 

Claims (20)

  1.  所定の領域内の移動体の位置および形状の情報を取得する取得部と、
     前記取得部により取得された前記移動体の位置の履歴に基づいて、前記移動体の速度および移動方向を解析する解析部と、
     前記取得部により取得された前記移動体の形状の情報に基づいて、前記移動体の種別を判別する判別部と、
     前記取得部により取得された前記移動体の位置、前記解析部により解析された前記移動体の速度および移動方向、ならびに前記判別部により判別された前記移動体の種別、に基づいて、複数の報知部の中から情報を報知させる前記報知部を選択する選択部と、
     を有する情報報知装置。
  2.  前記選択部は、互いに異なる位置に配置された複数の前記報知部の中から情報を報知させる前記報知部を選択する、請求項1に記載の情報報知装置。
  3.  前記選択部は、前記取得部により取得された前記移動体の位置、ならびに前記解析部により解析された前記移動体の速度および移動方向に基づいて、前記移動体が前記報知部を通過する時間を推定し、前記移動体が前記報知部を通過すると推定される時間に前記移動体に通過される前記報知部を、前記移動体へ情報を報知させる前記報知部として選択する、請求項1または2に記載の情報報知装置。
  4.  前記選択部は、前記報知部に前記情報を報知させた後の前記移動体の移動方向に基づいて、その後に選択する前記報知部に報知させる前記情報の内容を切り替える、請求項3に記載の情報報知装置。
  5.  前記選択部は、前記移動体の形状または種別に合わせて、前記情報を報知させる前記報知部を選択する、請求項1~4のいずれか一項に記載の情報報知装置。
  6.  前記選択部は、前記移動体の形状または種別に合わせて、前記報知部に報知させる前記情報の内容を切り替える、請求項1~5のいずれか一項に記載の情報報知装置。
  7.  前記取得部は、測距点群データにより前記移動体の位置および形状の情報を取得する、請求項1~6のいずれか一項に記載の情報報知装置。
  8.  前記取得部は、測距点群データにより前記移動体の位置を取得し、撮影された画像により前記移動体の形状の情報を取得する、請求項1~6のいずれか一項に記載の情報報知装置。
  9.  前記報知部は、音声発生装置、照明装置、および表示装置の少なくともいずれかを有する、請求項1~8のいずれか一項に記載の情報報知装置。
  10.  所定の領域内の移動体の位置および形状を測定する測定部と、
     請求項1~9のいずれか一項に記載の情報報知装置と、を有する情報報知システムであって、
     前記取得部は、前記測定部から、前記所定の領域内の前記移動体の位置および形状の情報を取得する、情報報知システム。
  11.  移動体の位置および形状の情報を取得する取得部を有する情報報知装置の制御プログラムであって、
     所定の領域内の前記移動体の位置および形状の情報を前記取得部により取得する手順(a)と、
     手順(a)において取得された前記移動体の位置の履歴に基づいて、前記移動体の速度および移動方向を解析する手順(b)と、
     前記手順(a)において取得された前記移動体の形状の情報に基づいて、前記移動体の種別を判別する手順(c)と、
     前記手順(a)において測定された前記移動体の位置、前記手順(b)において解析された前記移動体の速度および移動方向、ならびに前記手順(c)において判別された前記移動体の種別、に基づいて、複数の報知部の中から前記移動体へ情報を報知させる前記報知部を選択する手順(d)と、
     をコンピューターに実行させるための情報報知装置用プログラム。
  12.  前記手順(d)は、互いに異なる位置に配置された複数の前記報知部の中から情報を報知させる前記報知部を選択する、請求項11に記載の情報報知装置用プログラム。
  13.  前記手順(d)は、前記手順(a)において取得された前記移動体の位置、ならびに前記手順(b)において解析された前記移動体の速度および移動方向に基づいて、前記移動体が前記報知部を通過する時間を推定し、前記移動体が前記報知部を通過すると推定される時間に前記移動体に通過される前記報知部を、前記移動体へ情報を報知させる前記報知部として選択する、請求項11または12に記載の情報報知装置用プログラム。
  14.  前記手順(d)は、前記報知部に前記情報を報知させた後の前記移動体の移動方向に基づいて、前記報知部に報知させる前記情報の内容を切り替える、請求項13に記載の情報報知装置用プログラム。
  15.  前記手順(d)は、前記移動体の形状または種別に合わせて、前記情報を表示することで報知させる前記報知部を選択する、請求項11~14のいずれか一項に記載の情報報知装置用プログラム。
  16.  前記手順(d)は、前記移動体の形状または種別に合わせて、前記報知部に報知させる前記情報の内容を切り替える、請求項11~15のいずれか一項に記載の情報報知装置用プログラム。
  17.  前記手順(a)は、測距点群データにより前記移動体の位置および形状を取得する、請求項11~16のいずれか一項に記載の情報報知装置用プログラム。
  18.  前記手順(a)は、測距点群データにより前記移動体の位置を取得し、撮影された画像により前記移動体の形状を取得する、請求項11~16のいずれか一項に記載の情報報知装置用プログラム。
  19.  前記報知部は、音声発生装置、照明装置、および表示装置の少なくともいずれかを有する、請求項11~18のいずれか一項に記載の情報報知装置用プログラム。
  20.  所定の領域内の移動体の位置および形状を測定する測定部と、
     前記測定部により測定された前記移動体の位置の履歴に基づいて、前記移動体の速度および移動方向を解析する解析部と、
     前記測定部により測定された前記移動体の形状に基づいて、前記移動体の種別を判別する判別部と、
     前記所定の領域内の前記移動体に情報をそれぞれ報知する複数の報知部と、
     前記測定部により測定された前記移動体の位置、前記解析部により解析された前記移動体の速度および移動方向、ならびに前記判別部により判別された前記移動体の種別、に基づいて、複数の報知部の中から前記移動体へ情報を報知させる前記報知部を選択する選択部と、
     を有する情報報知システム。
     
PCT/JP2019/010312 2018-07-06 2019-03-13 情報報知装置、情報報知装置用プログラム、および情報報知システム WO2020008685A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020528689A JPWO2020008685A1 (ja) 2018-07-06 2019-03-13 情報報知装置、情報報知装置用プログラム、および情報報知システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-129138 2018-07-06
JP2018129138 2018-07-06

Publications (1)

Publication Number Publication Date
WO2020008685A1 true WO2020008685A1 (ja) 2020-01-09

Family

ID=69060507

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010312 WO2020008685A1 (ja) 2018-07-06 2019-03-13 情報報知装置、情報報知装置用プログラム、および情報報知システム

Country Status (2)

Country Link
JP (1) JPWO2020008685A1 (ja)
WO (1) WO2020008685A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022025179A (ja) * 2020-07-29 2022-02-10 株式会社Vollmontホールディングス 危険防止バー、危険防止システム、接近防止システムおよび歩行者遮断システム
WO2024134803A1 (ja) * 2022-12-21 2024-06-27 オプテックス株式会社 扉開閉システム及び扉開閉システム用センサ

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175991A (ja) * 1999-12-20 2001-06-29 Mitsubishi Electric Corp 車両検出装置および情報提供システム
JP2003302470A (ja) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法
JP2004192097A (ja) * 2002-12-09 2004-07-08 Sekisui Jushi Co Ltd 移動体検知・報知システム
JP2015022333A (ja) * 2013-07-16 2015-02-02 株式会社ネクスコ東日本エンジニアリング 侵入抑止装置、侵入抑止方法、プログラム、および侵入抑止システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175991A (ja) * 1999-12-20 2001-06-29 Mitsubishi Electric Corp 車両検出装置および情報提供システム
JP2003302470A (ja) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法
JP2004192097A (ja) * 2002-12-09 2004-07-08 Sekisui Jushi Co Ltd 移動体検知・報知システム
JP2015022333A (ja) * 2013-07-16 2015-02-02 株式会社ネクスコ東日本エンジニアリング 侵入抑止装置、侵入抑止方法、プログラム、および侵入抑止システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022025179A (ja) * 2020-07-29 2022-02-10 株式会社Vollmontホールディングス 危険防止バー、危険防止システム、接近防止システムおよび歩行者遮断システム
WO2024134803A1 (ja) * 2022-12-21 2024-06-27 オプテックス株式会社 扉開閉システム及び扉開閉システム用センサ

Also Published As

Publication number Publication date
JPWO2020008685A1 (ja) 2021-08-02

Similar Documents

Publication Publication Date Title
US7164116B2 (en) Monitor for intrusion detection
US20160097849A1 (en) System and methods for intersection positioning
EP2824418A1 (en) Surround sensing system
TWI595457B (zh) Anti-collision three-dimensional depth sensing system and its operation method
WO2020105527A1 (ja) 画像解析装置、画像解析システム、および制御プログラム
KR102101956B1 (ko) 보행자 검지를 이용한 어린이보호구역 단속시스템
WO2020008685A1 (ja) 情報報知装置、情報報知装置用プログラム、および情報報知システム
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
US10930155B2 (en) Infrastructure sensor detection and optimization method
KR20220096359A (ko) Ai 디스플레이 장치 및 이를 이용한 충돌 방지시스템
JP7073949B2 (ja) 避難誘導装置、避難誘導システム、および制御プログラム
RU2679923C1 (ru) Способ получения пространственной модели окружающей обстановки в режиме реального времени на основе данных лазерной локации и устройство для его осуществления
WO2019081699A1 (en) MONITORING SYSTEM FOR A MOBILE DEVICE AND METHOD FOR MONITORING THE ENVIRONMENT OF A MOBILE DEVICE
WO2020105226A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP7201002B2 (ja) 画像処理装置、制御プログラム、および画像処理方法
CN105652286A (zh) 用于防撞的立体深度感测系统及其运作方法
JP6988797B2 (ja) 監視システム
WO2020054110A1 (ja) 物体検出システム、および物体検出方法
WO2024127754A1 (ja) 逆走検知システム、および逆走検知プログラム
TWI758980B (zh) 移動載具的環境感知裝置與方法
WO2020105225A1 (ja) 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム
KR102394451B1 (ko) 빔 조향 레이더를 이용한 횡단보도 보행자 검지 시스템 및 그 방법
WO2023132057A1 (ja) レーザースキャンセンサ
WO2015159412A1 (ja) 移動体検知方法および移動体検知システム
JP2008042779A (ja) 車両周辺監視システム、車両、車両周辺監視プログラム、車両周辺監視システムの構築システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19831222

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020528689

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19831222

Country of ref document: EP

Kind code of ref document: A1